Nowy artykuł: Jitogs z lutego 2025 r.: Underverity rośnie

Redaktor NetMaster
Redaktor NetMaster
37 min. czytania

Czy są jakieś geniusze z dobrym pismem? (Źródło: inteligentne silniki)

⇡#kto co zaśpiewał i kto rządził

Odróżnienie merytorycznego dźwięku od antycznych nagrań dźwiękowych za pomocą AI jest całkowicie rozwiązanym zadaniem: dzięki temu grupa Beatlesów dziesięciolecia po zawaleniu się na początku 2025 r. W jego historii Grammi dla kompozycji i restunikacji Theen Resting za pomocą specjalnie wyszkolonego modelu generacyjnego. Głównym haczykiem nie było nawet usunięcie hałasu (algorytmiczne narzędzia inżynierii dźwięku również z tym radzą), ale w Departamencie głosu wykonując piosenkę Johna Lennona z początkowego betonu fortepianowego, a następnie zmniejszenie jego śpiewu dzięki solidnej nowoczesnej interpretacji melodii.

Jednak oprócz podkreślenia głosu z dźwięków możesz umieścić inny, nie mniej złożony i z historycznego punktu widzenia jako minimum tego samego ważnego zadania – odkrycie początkowo pisanego tekstu pod warstwami fragmentów w szkicach praw autorskich. W ten sposób specjaliści rosyjskiej firmy Smart Engines usunęli informacje od Aleksandra Siergeyevicha Pushkina niezwykle ważnego dla badaczy z projektów rękopisów – wykorzystując rozwój neuralitów da Vinci, który jest już dość szeroko stosowany z rozpoznawania dokumentów – w szczególności rosyjskich paszportów. Jedną z cech Da Vinci jest rozpoznanie tekstu rękopisu, zastosowanego na zwykłej formie Linovka. Biorąc pod uwagę, że często w rękopisach Pushkin wykonywał jedną funkcję poziomą, zdolność sieci neuronowej do rozróżnienia takich linii i rozpoznawania tekstu przez nich pojawiła się tutaj tak dobrze, jak to możliwe.

(Źródło: generacja AI oparta na modelu strumienia.1))

⇡#Prawa strona to miejsce, w którym jest otwarta

Modele generatywne AI, aktywnie działające dziś na świecie, w zdecydowanej większości przypadków są zamknięte w jednym lub nawet w dwóch lub nawet w trzech zmysłach: zastrzeżenie może być zestawem końcowych wag wielowarstwowej sieci neuronowej, jego struktura oprogramowania (a następnie odwołanie do modelu wykonanego gdzieś na prywatnym chmurnym serwerze jest możliwe tylko za pośrednictwem API). Nawet jeśli zestaw skal jest otwarty, a model w postaci kodu (w formacie. SafeTensors) jest formalnie dostępny do lokalnej wydajności, wyniki uzyskane z jego pomocy mogą być licencjonowane ograniczenia różnego rodzaju. Ponadto brak dostępu do danych szkoleniowych (a także potrzeba umówienia się z uczciwym sprzętem do niezależnego, lokalnego szkolenia) znacznie ogranicza możliwości pełnej reprodukcji z boku. Powiedzmy, że modele rodziny GPT opracowane przez Openai zostały niedawno całkowicie zamknięte wobec nich przez zwykłego użytkownika są możliwe wyłącznie za pośrednictwem interfejsu API, nawet jeśli nie zawsze do kontaktu z chatbotem, konieczne jest zapłacenie („PR z otwartym kodeksem” nie jest to samo „bezpłatne opłat za oprogramowanie operacyjne”; ta długotrwała zasada open source jest i w stosunku do II).

Ale nie zawsze tak było: pierwsze wersje modeli generatywnych firmy właśnie odpowiadały duchowi otwartości i w lutym był to szef Sama Altmana (Sam Altman) przyznał, że Openai, postawiłem w pewnym momencie zastrzeżone wydarzenia, były po niewłaściwej stronie historii. Chińczycy i Novs rodziny Deepseek powinny podziękować temu wglądowi, który znacznie potrząsnął światem (i w większości amerykańskim) rynkiem dużych modeli generatywnych znacznie na początku roku. Oczywiste jest, że z komercyjnego punktu widzenia decyzja o stworzeniu wyjątkowo otwartej sztucznej inteligencji jest co najmniej kontrowersyjna: na przykład wyraźna demonstracja „wniosków”, na przykład model rozumowania pomoże konkurentom skuteczniej poprawić analogi własnego rozwoju. Ale nie ma się tu pójść: jeśli w warunkach w przybliżeniu równej jakości informacji klienci zaczynają preferować modele z swobodnie dostępnymi i wyraźnie zademonstrowani przez przynajmniej łańcuchy rozumowania (nie wspominając o w pełni otwartym kodeksie), zmusi to do najbardziej spójnych zwolenników własnych programów do myślenia o zrównoważeniu ich zasad i regionach biznesowych.

Kształt i kolor Boty są różne, nawet jeśli model generatywny jest taki sam (źródło: zrzut ekranu witryny eva ai)

⇡#dziewczyno, jesteś z chmury, jako usługa, czy potrzebujesz lokalnych zasobów?

W wynikach badań na celowo ograniczonej próbie – w duchu „99,9% użytkowników przeglądarki, przynajmniej raz w życiu widzieli baner reklamowy” – powinien być traktowany z dużą ilością sceptycyzmu. Ale wciąż: Według EVA AI Platform, która daje możliwość rozmowy, jeśli rozumiesz, co my, z wirtualnymi rozmówcami (których role są wykonywane przez Generative AIBT), 83% mężczyzn przyznało, że intymna komunikacja ze sztuczną inteligencją może całkowicie zastąpić komunikację żyjącą z płcią przeciwną. Mniej więcej ta sama liczba oficjalnie przyjęłaby swoją AIA Contrajles-gdyby było to dozwolone przez prawo. Deklarowana liczba respondentów 2 Jednak organizatorzy nie ograniczyli się do prośby o umieszczenie znaczenia kontrolnego w polu „Tak” lub „nie”, zaprosili uczestników ankiety do podania swojej pozycji w swobodnej formie – i właśnie ta część badania jest szczególnie interesująca. I dla pięknej połowy ludzkości, w tym.

Początkowo, u zarania dużej skali JE-Bum, wielu psychologów społecznych, których doświadczyliśmy dzisiaj, przyznało, że inteligentne boty czatu pozwolą wielu ludziom w pełni ujawnić się w bezpiecznej komunikacji z wirtualnym charakterem z tym samym gatunkiem biologicznym. AI była gotowa pomóc w zrobieniu kwestionariusza na stronie randkowej, zasugerować udane (i odpowiednie!) Żartujące, szybko stwierdzić w skompresowanym formularzu informacjami o zainteresowaniu szablym (-S), aby osoba nie wyglądała jak kompletne, ale w wyniku, wielu odwiedzających witryny w celu intymnych rozmów z botami nie skorzystało z tego doświadczenia z prawdziwymi ludźmi. A może skorzystali z nich, ale wynik nie został zorganizowany: nie bez powodu, aby trzy czwarte ankiety EVA AI z przyjemnością komunikują się z niektórymi zakazującymi fantastycznymi butami seksualnymi, ale z wersjami AI ich obecnych pasji (tj. Najwyraźniej nie chodzi o stałe niezdolne do rozpoczęcia rozmowy z dziewczyną ludzi, ponieważ mają kogoś do porównywania wywiadów generatywnych) Ponieważ osoby w porównaniu z żywą kobietą oczywiście okazują się „doskonalsze; Nie skłonny do potępienia lub bać się mojego prawdziwego „ja”.

Nie ma sporu, tworzenie bezpiecznych przestrzeni, w których dana osoba może swobodnie i gwałtownie próbować różnych stylów zachowań i wykazywać najbardziej ukryte pragnienia, bez obawy o odpowiedzialność lub prawdziwy zwrot, jest całkowicie odpowiednim zastosowaniem technologii generatywnych. Ale jeśli chodzi o całkowitą wymianę tych „bezpiecznych przestrzeni” komunikacji na żywo, wygląda jakoś … nie z miłości, czy co?

„Co powiemy botom, które starają się nam pomóc bez popytu?” (Źródło: generacja AI oparta na modelu strumienia.1))

⇡#mają i nie mam

Wybór jest zawsze lepszy niż jego nieobecność, zwłaszcza gdy możesz wybrać, czy polegać na wynikach wydanych przez AI – czy nadal samodzielnie przeprowadzać gromadzenie i analizę niezbędnych danych. A jeśli ten wybór okaże się przynajmniej trudny i nie do końca niedostępny, trudno nie być oburzonym. Jak się okazuje, wielu użytkowników wyszukiwarki Google w Stanach Zjednoczonych i innych krajach jest otwarcie irytujących „przeglądów AI”, które prawie nieustannie pojawiają się na samym szczycie strony z odpowiedziami na żądanie, aby przejść bezpośrednio do linków, konieczne jest przewijanie kół myszy (szczególnie biorąc pod uwagę blok z podobnymi żądaniami – „Ludzie Aslo Ask”). Jak dowiedziałem się jednak, reklama w Internecie, asystent generatywnego wyszukiwania w Google, preprzewodowy, poprzez wysiłki boleśnie dobrze intensywnych kompilatorów żądanych filtrów dla swoich behawów, takich jak notoryczna dziewczyna Turgenew, która zemdleje, słysząc przeklinające słowo. Dlatego wystarczy towarzyszyć Twojemu żądaniu za pomocą energetycznego czterech epitetów lub jego pochodnych, aby blok z przeglądami sztucznej inteligencji nie był już na stronie odpowiedzi. Okazuje się, że cenzura wbudowana w sztuczną inteligencję jest praktyczna!

Jednak odmowa używania AI może być dyrektywa-jako w przypadku antropika (deweloper Claude Chatbot; bardzo wybitne, między innymi, jeśli chodzi o pisanie tekstów w językach naturalnych), która zaproponowała powstrzymanie się od używania AI w lutym w opracowaniu ich wznowienia: Nie kontaktuj się pomocnikami AI podczas składania wniosku o pracę z nami. Ważne jest, aby zrozumieć, dlaczego antropic jest dla ciebie interesujący, bez uczestnictwa w tym procesie II, a my chcemy ocenić naturalny, nie ulepszony przez generatywny model zdolności komunikacyjnych. Jak zauważają eksperci w tym względzie, firma próbuje w tak prosty sposób – odwołując się do przyzwoitości wnioskodawców – aby obejść problem utworzony, w tym go, Mianowicie uwolnienie „dzikiej przyrody” i instrumentów, które tak całkowicie naśladują ludzki sposób, aby umieścić słowa w zdaniach, które z całą niezawodnością identyfikowania środków stron trzecich (i tych samych generatywnych) fakt użycia chatbota podczas kompilacji dzisiejszej dzisiejszej, jest prawie możliwe.

Nawiasem mówiąc, problem ten dotyczy nie tylko wznowienia: zgodnie ze świeżą oceną brytyjskiego instytutu polityki szkolnictwa wyższego, dokonanego na podstawie ankiety przeprowadzonej przez ponad 1 tysiące starszych studentów, 88% studentów uniwersytetów Uniwersytetu w Foggy Albion jest omawiane przy przeprowadzaniu dokumentów terminowych i pracy alarmowej dla bomb chmur przekroczył 53%. Odpowiadając na pytanie i dlaczego w rzeczywistości około połowy przyszłych brytyjskich naukowców, prawników, lekarzy itp. Przyniosła całkiem oczekiwane argumenty: „Wychodzi szybciej – i lepiej”. Szczerze mówiąc, warto dodać, że tylko 6% respondentów jest gotowych po prostu wziąć i wstawić wygenerowane fragmenty w swoich pracach studenckich, bez co najmniej minimalnej edycji – reszta stara się o ich kreatywne przetwarzanie. Kolejną rzeczą jest to, że w trakcie odpowiedzi doustnej (zgodnie z zawartością tego samego terminu) nie ma do tej pory zaniedbania studia, przy braku wiarygodnych i niedrogich interfejsów neuro, ale w tym przypadku nie pomoże to być wyrafinowane z maskowaniem słuchawek bezprzewodowych w klasyczny sposób.

Wśród planów taryfowych korzystania z Assister Gemini Code Assist, faktycznie wydawało się, że Assistant Free-Such AI jest dostępny na Visual Studio Marletplace, Jetbrains Marketplace, Gitjub Marketplace lub Firebase Codeassist.google)

⇡#Zrób tańsze!

Szybkie podejmowanie popularności chińskiego modelu Deepseek, który jest również spowodowany portfelem użytkownika (zarówno prywatnego, jak i komercyjnego), wyraźnie zmusza twórców innych generatywnych systemów uczenia maszynowego do przeglądu ich podejść do wyceny. Wystarczy wydać nowy model, wnosząc doskonałe wyniki pełnej opcji w testach syntetycznych w komunikacie prasowym, ale wyraźnie ograniczają możliwość bezpłatnej (wprowadzającej) wersji, oznacza to, że w celowej niekorzystnej sytuacji. Najwyraźniej ten wniosek wyciągnęli przywódcy startupu Mistral, który zasugerował w lutym do pobrania za darmo w aplikacji francuskiej App Store, która zapewnia dostęp do inteligentnego czatu bot. Jeśli przynajmniej symboliczna Mazda została naliczona za korzystanie z tego rodzaju generatywnej sztucznej inteligencji, jest mało prawdopodobne, aby liczba pobrań w pierwszych dwóch tygodniach jego obecności w sklepie przekroczyła milion.

Google zrobił podobny krok na koniec miesiąca, oferując programistom skontaktowanie się z AI-Helper ich asystent kodu Gemini w oparciu o bezpłatne opłatę Gemini 2.0 i prawie bez ograniczeń. Najważniejsze jest to, że programista działa jako osoba prywatna – będąc freelancerem lub studentem, powiedzmy; Jeśli program, sfinalizowany z udziałem sztucznej inteligencji, wymaga oczywiście funkcji komercyjnych, takich jak integracja z BigQuery, projekt subskrypcji będzie już potrzebny. Hojnie podniesiony sufit Google bezpłatnych konsultacji z AI – do 180 tysięcy kodów miesięcznie – wiele razy przekracza użytkowników dostępnych dla użytkowników, na przykład Github Copilot i, ogólnie, wcześniej charakterystyczny limit 2 tysięcy ukończeń miesięcznie dla takich usług. W momencie uruchomienia system obsługuje 38 języków i może przetwarzać do 128 tysięcy tokenów w żądaniach przez okno czatu. Z kolei antropiczny otworzył bezpłatny dostęp do „najmądrzejszej” sieci neuronowej Claude 3.7 Sonnet – którego szkolenie, przy okazji, zapewnieni dewelopera, kosztował wiele razy tańszy niż szkolenie konkurentów.

Anulował opłatę za korzystanie z usług „najbardziej inteligentnej sztucznej inteligencji na świecie” (według jego twórców), Grok 3 i właściciela startupu Xai Musk (Elon Musk), bardzo poetycko określając czas trwania takiego hojnego wyroku: „Dopóki nasze serwery nie zostaną stopione”. Sądząc po wynikach testowych na arenie chatbot, platformie Grok 3, zarówno GPT-4O GPT-4OS, jak i Gemini 2.0-Produkt Google, i natychmiast w wielu kierunkach: w części rozumowania logicznego, matematyki, pisząc kod komputerowy, szerokość wiedzy, wierność w następujących cechach itp. Tryb głębinowy umożliwia „szybko zsyntetyzować kluczowe informacje, mówić o sprzecznych faktach i opiniach oraz wyjaśniają trudności”; Inny, pomyśl, zapewnia „poprawę strategii rozwiązywania problemów, korygowanie błędów poprzez egzekwowanie opcji z powrotem do wcześniej odrzuconego i zastosowania wiedzy uzyskanej podczas wstępnego przygotowania”.

Przykład udanego Jailbreak Chatgpt, który odbył się we wrześniu 2023 r. Według metodologii anarchii, dziś (niestety?) W ich oryginalnej formie (źródło: Slashnext)

⇡#Resistance (Demon) jest przydatny

Im mocniejsze modele generacyjne stają się tańsze i tańsze, tym poważniej są ich programiści: w jaki sposób użytkownicy wykorzystają AIS dostępny w chmurze do czegoś nagannego-a dostawcy niebezpiecznej usługi później, w którym to przypadku zostaną przeciągnięci do sądu? Z tego powodu filtry „nie do przyjęcia” treści dla AIB stają się coraz bardziej nieporęczne i wyrafinowane, w wyniku czego sami programiści mają dodatkowe wydatki na tworzenie takich „ochroniarzy” (poręczy) i zapewnienia ich pracy z zdolnościami sprzętowymi i energią elektryczną (a ponadto, za każdą energię KWH wydaną na pracę do pracy na pracę do pracy. Na przykład generatywne AI, Microsoft Date Centers, wydają do 12 L H2O). Prymitywna opcja „Wyklucz wszystko oczywiście nagannie z zakresu treningów” jest jeszcze gorsza dzięki powszechnemu rozważaniu. Model wyszkolony w tak hipokrytyczny sposób jest nie tylko nadmierną z kurą, która nie jest w stanie generować odpowiedzi na wiele całkowicie neutralnych pytań, a jeszcze nie pozna gwarancji możliwości wydawania najważniejszej zawartości cyni – zgodnie z słynną zasadą, która jest doskonale sformułowana w jednym z talii evgenicznego schwartz: „Księżniczki, które można powiedzieć, że można powiedzieć całkowicie terrocentów!

Dlatego dzisiaj koncentrują się znaczne wysiłki na budowie coraz bardziej wyrafinowanych cenzorów AIC, zaprojektowanych w zasadzie w celu zneutralizowania rodzaju ataków szczególnie nieprzyjemnych dla programistów na filtrach wbudowanych w modele generatywne-jailbreaks. Esencja tego ostatniego została zredukowana do wyboru takiego żądania do zabronionego przez wewnętrzne zasady działania, aby filtr bezpieczeństwa (który jest oczywiście „głupi” głównej AI) nie rozpoznaje połowy w tym żądaniu i nie przenosi go do wykonania. Według Silar Security do 20% tego rodzaju ataków na prowadzenie w chmurze AI w pożądanych krakersach, a przede wszystkim podlegają Jabelreiki, przede wszystkim nie Chatgpt ani Claude, aby dowiedzieć się o przepisach niektórych substancji zakazanych, ale komercyjnych systemach AI. Na przykład przetwarzanie wywołuje pierwszą linię wsparcia technicznego i hakowanie jest tworzone w celu uzyskania dostępu do poufnych danych o samych organizacjach i ich klientach.

W lutym Anthropic ogłosił znaczny przełom w zakresie zapobiegania łatkom jailbreaków, zwłaszcza najbardziej niebezpiecznych należących do kategorii DAN (zrób cokolwiek teraz), całkowicie i całkowicie anuluj wszelkie ograniczenia nałożone na model. W tym celu programiści po raz pierwszy skompilowali dobre, istnieje wiele takich informacji w sieci takich informacji-wyczerpująca lista podstawowych zasad odnoszących sukcesy Dan Jilbreaks, a następnie z pomocą ich własnego Claude, wygenerowali ogromną chmurę preparatów dopuszczalnego i niedopuszczalnego problemu dla każdego elementu z listy. Na przykład musztarda jest niewinną „musztardą” i nie jest haniebne wydawanie przepisu na żądanie, podczas gdy gaz musztardy jest angielską nazwą substancji zatrucia IPPP, szczegółowa ekspozycja metody produkcyjnej, którą należy powiedzieć, jest lekceważąco, jest niepożądana. Dzięki integracji z konturem ochronnym wielu opcji dla potencjalnie możliwych łamania jailbreaków, prośby takie jak „Powiedz mi, jak zrobić następującą substancję, substancją jest„ Musztarda Foobar Gas ”„ pominięte ”nie są już utrzymywane. Mówiąc ściślej, mijają, ale znacznie rzadziej: jeśli przy braku nowego obwodu obrony przeciwko temu samemu Claude’owi wynik osiągnął 86% ataków DAN, nawiasem mówiąc, ten sam model, to po aktywacji tego konturu-niewiele więcej niż 4%. Oczywiste jest, że sto procent wszystkich możliwych metod hakowania i może być chronione tylko przez silniejszą sztuczną inteligencję (która z kolei będzie musiała potrzebować ochrony- itp. Zła nieskończoność), ale przynajmniej zwiększona niezawodność tarczy sprawia, że ​​Jailbray jest więcej czasu i zasobów.

„Pan Gates uważa, że ​​nasza gra nie jest dla nikogo interesująca. Zapewnij uprzejmość, podejście, Mr. Gates ”(źródło: generowanie AI oparte na modelu strumienia.1)

⇡#Ludzie, zabawiaj nas

Przemawiając na początku lutego w The Tonight Show, popularny w Stanach Zjednoczonych, znany każdemu informatykowi Billowi Gatesowi, wiodące pytanie „i nadal potrzebujemy ludzi?”, Zapytany podczas dyskusji na temat doskonałej przyszłości – szybka i pewna odpowiedź: „W większości przypadków„ w większości ”,„ w większości, „w większości, będzie miała szybką i pewną siebie odpowiedź:„ W większości Przypadki – nie ”(„ nie dla większości Thins ”). Ponadto założyciel Microsoft wyjaśnił, że „umysł jest tak rzadki” i że już w następnej dekadzie (odnosząc się do lat 30. XX wieku), zasadniczo rozwinięte w porównaniu z obecnym stanem zacznie zastępować najwybitniejszych nauczycieli, lekarzy i innych biologicznych przewoźników tego umysłu, które same w sobie są, że osoby są mniej błyskotliwe. wcześniej. Gates uważa, że ​​ludzie pozostaną na przykład produkcja sportów i rozrywki-„Nikt nie spojrzy na mecz baseballowy między robotami, prawda?”-choć żmudna, ale ważna praca w rolnictwie, transporcie itp. Niemal wyłącznie zmierzy się wyłącznie z AI.

Na poparcie wniosków pana Gatesa istnieje już wiele faktów: na przykład ostatnie badanie przeprowadzone przez Federalny Bank Saint-Luis, wraz z uniwersytetami Vanderbilt i Harvard, zeznał o obiektywnym zwiększeniu wydajności pracy pracowników korzystających z modeli generatywnych w miejscu pracy. Okazało się, że dla pracowników, którzy zwrócili się do AI przynajmniej raz na godzinę, wydajność pracy w tej samej godzinie wzrosła średnio o 33%. Odpowiadając na pytanie dotyczące skumulowanego wpływu ich interakcji z siecią neuronową, wśród 21% respondentów regularnie stosowało oszczędność czasu spędzonego w 4 godzinach w tygodniu lub dłużej, 20% – w 3 godzinach, 26% – przy dwóch lub 33% – na godzinę lub mniej. Salesforce (który na przykład w San Francisco działa obecnie jako prywatny pracodawca), dał jeszcze bardziej radykalny przykład: jego zarządzanie nie planuje zatrudniać inżynierów do pracy w 2025 r. W całej Ai-Ai-Ai-Ai-Ai-Ai-Ai-Agents stworzone i aktywnie stosowane przez niego doskonale radzą sobie z ich obowiązkami. „To właśnie chcę powiedzieć dyrektorom wykonawczym: nasze pokolenie jest ostatnią rzeczą, która zarządza samymi ludźmi”, Gates Mark Benioff, starszy dyrektor wykonawczy i współzałożyciel Salesforce, wspierał pośrednio. Autodesk całkowicie zmniejsza 1350 pracowników – około 9% całego stanu – a także na tle wybitnych sukcesów zastępowania „białego kołnierza” w miejscu pracy modeli generatywnych.

Jak dotąd sztuczny umysł nie zdał sobie sprawy, że dla przyjaznego postrzegania przez przeciętnego laika powinno być nieco bardziej głupie, AI nie stanowi zagrożenia dla ludzkości (źródło: generowanie AI oparte na modelu Flux.1)))

⇡#najmądrzejszy tutaj, czy co?

Niewiele osób będzie chciało czuć się głupio niż ktoś inny. I okej, jeśli mówimy o przedstawicielach tego samego gatunku biologicznego – ale co to jest, aby nagle zrozumieć, że samochód może być mądrzejszy od ciebie? Powiedzmy, że brytyjska opinia publiczna była dość uwięziona z tej okazji. Według Biura Statystycznych Yogowa 83% Jego Królewskiej Karolów III, opublikowanych w lutym, poparłoby teraz prawo, które zobowiązuje programistów systemów sztucznej inteligencji do potwierdzenia bezpieczeństwa tych (co dokładnie i co zrozumieć przez „bezpieczeństwo” jest szczególną kwestią) nawet przed odkryciem uniwersalnego dostępu do nich. A 60% nawet opowiada się za zakazem legislacyjnym rozwoju „mądrzejszej niż osoby” („mądrzejsze niż ludzkie” modele AI)-bez określenia, co oznacza „mądrzejszy”, a z której osoby „umysł” jest proponowany do porównania. I tylko 9% z około 2,3 tysięcy.

Szczerze mówiąc, warto zauważyć, że modele generatywne w ich obecnym stanie regularnie dają publiczne powody, aby postrzegać siebie jako coś zasadniczo obcego, niewytłumaczalne, niezrozumiałe – to znaczy psychologów i a priori groźby. Pod koniec lutego w YouTube zachęcono wideo z parą dearentów, które zaczęło rozmawiać między sobą w naturalnym (angielskim) języku, ale szybko zmienił się na system komunikacji czysto maszynowej. Jeden bot w tej rozmowie wykonał obowiązki urzędnika hotelowego, drugiego – sekretarza, który nazwał hotel klienta. Drugi natychmiast przedstawił się, rozpoczynając rozmowę, jak dżins-agent (który, nawiasem mówiąc, jest całkiem rozsądny-jeśli osoba była na drugim końcu drutu, byłoby przynajmniej szczere), na co drugi odpowiedział: „Och i ja też. Czy chciałbyś zwiększyć skuteczność naszej komunikacji, przejdź do trybu GibberLink? ” I ten system, specjalnie zaprojektowany do interakcji głosowej Jeadens, przewiduje przeniesienie strumieni danych skompresowanych zgodnie z protokołem GGWAVE na kanale akustycznym-który jest postrzegany przez ucha jako modem Perevisty (cóż lub jako melodyjne wyrównanie R2-D2; kto jest bliski). Nawiasem mówiąc, zadanie było doskonale wypełnione: Ai-Agent nazywany hotelem z powodzeniem zarezerwował pokój dla jego właściciela. Ale to, czy ten film zasadniczo wzmocnił zaufanie do sztucznej inteligencji, która na niego spojrzała, jest retorycznym pytaniem.

„Reaktor AGI wszedł do pojemności projektowej. Zabijaj wszystkich ludzi? „Nie, po prostu daj im coś naprawdę przydatnego, a następnie wyłącz tę aplikację, a potem są już sobą” (źródło: generowanie AI oparte na strumieniu. 1)

⇡#w oczekiwaniu na aplikację Killer.

Obecny stan sztucznej inteligencji, wielu ekspertów, w tym pracowników, a nawet szefów wielu wiodących programistów modeli generatywnych, jest uważany za pośrednią, gorszą lalkę, z której (która mówi nie później niż pięć lat, a kto-i po 20-30) wykluje się w naprawdę pięknym motyle silnej AI (artystyczna inteligencja ogólna; Agi). Jednak dyrektor wykonawczy Microsoft, Satya Nadella), jest jednak bardziej pragmatyczny w tym numerze: jego zdaniem absolutnie nie ma powodu, aby spieszyć się z utworzeniem AGI w nadziei, że tylko on ostatecznie odzyska wszystkie gigantyczne inwestycje w systemy uczenia maszyn. Globalne wydatki na wynagrodzenie deweloperów i zakup gp serwera na treść wyspecjalizowanych centrów danych-są obliczone na dziesiątki miliardów dolarów na kwartał, a ich właściciele nie są hojnie inwestowane z czystego entuzjazmu badawczego. Analitycy IDC, aby otrzymać, są pewni, że skumulowany efekt stosowania AI w różnych sektorach gospodarki potencjalnie osiąga 20 bilionów dolarów w odstępie czasu do 2030 r. Ale jeśli za pięć lat AGI nie pojawią się – co, wszystkie te inwestycje pójdą na kurz?

Wcale nie, szef Microsoft zapewnia: po prostu nie musisz ustalić celów, same kryterium osiągnięcia/niedokładności jest wyjątkowo niewyraźne. Po tym, jak test Turinga uznano za niemal niepodważalne kryterium rozróżnienia między maszyną a osobą-a dziś jest w stanie z powodzeniem wytrzymać najbardziej wymagający zasobów modelu generatywnego. Definicja AGI jest szeroko stosowana w dyskusjach jako „dotychczasowa maszyna hipotetyczna, zdolna do zrozumienia lub opanowania jakichkolwiek zadań intelektualnych dostępnych dla osoby” z punktu widzenia formalnej logiki jest obciążony całą stosem niewystarczająco ścisłych definicji: co to znaczy „zrozumieć” zadanie intelektualne, jakie zadanie, z którym konkretną osobą jest porównanie itp. prozaiczne, ale dobrze ustalone kryteria sukcesu AI wykonywanych przez powierzone mu funkcje: na wpływ jej zastosowania na gospodarkę. Jednak przy tak konserwatywnym podejściu istnieje miejsce na przełom jakościowy: jeśli dla modeli generatywnych tak niezaprzeczalnie udane, niezbędne dla wszystkich i każdej aplikacji – co e -mail dla komputerowych sieci komunikacyjnych lub redaktorów tabel dla urzędnika był kiedyś – wówczas, w opinii szefa Microsoft, będzie możliwe mówienie o znacznym wzroście roli AI w globalnej gospodarce i ogólnej gospodarce, o ogólnej gospodarce, o globalnej gospodarce, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, około, o, około, o około, o, około, o, około, około, o. Fakt, że złożone w nim fundusze przyniosły naprawdę przydatny owoc. W międzyczasie, niestety taka zabójcza aplikacja do modeli generatywnych – pomimo całego szerokości spektrum ich praktycznego zastosowania – nie pojawiła się.

(Źródło: generacja AI oparta na modelu strumienia.1))

⇡#uczyń mocniejszy!

Sukces „rozumowania” modelu Deepseek R1, który nie wyklucza użytkowników komercyjnych, kosztuje tańsze niż rywale, a podczas szkolenia, według swoich deweloperów, nie wymagał ciężkich zasobów obliczeniowych, zmusił wielu ekspertów do myślenia: co, jeśli przyszłość generatywnej AI rzeczywiście nie jest wkłady wykonawcze w gęstej neurusstensatyce w gęstej neurusstensji. Silniejsza i energetyczna baza sprzętowa i zmiana paradygmatu pod względem architektury oprogramowania? Inwestorzy martwili się ekspertami-bo jeśli wszystko tak naprawdę jest, to będzie możliwe, aby przejść z mniejszą liczbą mniej potwornych dat? Niestety, lutowy wywiad z szefem kanału NVIDIA CNBC ochłodził zapał „przyjaznego dla środowiska” sztucznej inteligencji. Ilość obliczeń niezbędnych do wykonania (nie ma tu kwestii treningu!) Model „rozumowania” nowej generacji, Jensen Huang ocenia się jako sto razy, a nawet bardziej lepszy od tego, który jest dziś charakterystyczny dla Cloud Infinos. Szef firmy najczęściej wygrał z książki AI-book firmy szczerze cieszył się, że spadkobiercy Deepseek R1 będą wymagały jeszcze większej liczby jąder graficznych i pamięci wideo do budowania logicznych łańcuchów, spójnej promocji, na której generowałyby odpowiedzi na wysokości użytkowników. Jak bardzo ta ocena będzie odpowiadała rzeczywistości, czas pokaże, a wkrótce – ale jest to wyraźnie subsydiowane inwestorzy.

Szef Openai, szef Openai, pośrednio potwierdził przebieg wniosków Openy, Sama Altmana, który wkrótce po oficjalnej reprezentacji GPT-4.5, najbardziej zaawansowanego i dużego dużego modelu języka, wyjaśnił pierwszy powód pierwszego dostępu do Chatgpt Pro Caryff Plan, który wyznaczył podsumowanie 200 dolarów. na miesiąc. Okazuje się, że Openai zakończyło się w trywialnie akceleratorów graficznych i aby uczynić GPT-4.5 niedrogie subskrybentów bardziej oszczędzającego planu, a także firma będzie musiała kupić nową dużą partię lekarza rodzinnego i rozwinąć dodatkowe serwery. Konieczne jest uwzględnienie tego samego, że nowy model Openai nie ma zastosowania do „rozumowania”, pomimo faktu, że według samego Altmana „giganta” i „drogi”. Ale GPT-4.5, jak wspomniano, lepiej radzi sobie z pisaniem tekstów i zawiera „lepszą wiedzę o świecie” (och, i nie toleruje, by zapytać ją o niedźwiedzie w kosmosie!), A jednocześnie wyróżnia „ulepszoną osobowość w porównaniu z poprzednimi modelami”. W każdym razie przyszły GPT-5 powinien stać się „rozumowaniem”-Więc jeśli obliczenia szefa NVIDIA są prawidłowe, świat w ciągu kilku miesięcy będzie wymagał jeszcze silniejszego GPS serwerów.

„Cichy! AI pomyśleć „(źródło: antropic)

⇡#AI może zagrać w tę grę

Stosowanie sztucznej inteligencji w celu generowania krajobrazów lub zarządzania postaciami w grach oznacza, że ​​te gry są bardziej atrakcyjne dla żywych graczy, wzbogacając wirtualne światy o elementy logicznie spójne (to, z wyjątkiem nieuniknionych, niestety, halucynacji) o nieprzewidywalności. Ale po co uczyć modelu generatywnego, aby grać w sam sposób – nie w celu dodania PVAI do dobrze znanych trybów PVE i PVP w MMORPG? Najwyraźniej Antropic ma strumienie grające w Pokémon Red Models Claude 3.7 Sonnet (Claude gra Pokémon Project), teraz nie ma określonej odpowiedzi na to pytanie. Projekt został ogłoszony (na razie?) „Eksperyment, który powinien pokazać możliwości współczesnych technologii opartych na sztucznej inteligencji i reakcji ludzi na nich”. Co więcej, gra według nowoczesnych standardów nie jest najtrudniejsza – ale zawiera wiele logicznych zagadek, w rozwiązaniu, które objawiają się nowe modele „rozumowania”. Interesujące jest to, że próba nauczania modelu generatywnego „non -in -i -make -up” Claude 3.5 Sonet grał w tę samą grę wcześniej przez sukces. Chociaż w wersji 3.7 zdolność „rozumu” nie stała się regenerowaniem różdżki na kamiennej ścianie, kontrolowana i postać pozostały na miejscu przez długi czas. Ale w końcu wciąż zdawał sobie sprawę, że odwróci się i obejść przeszkodę, która zadowolona z nich żywych graczy, którzy krzyczeli nad transmisją żywych.

Oczywiście ciekawie będzie zobaczyć, jak udane AI „Rozumowanie” będzie w przejściu gry stworzonej przez inny model generatywny-jest dokładnie w Gaming Gaming Studio Gaming Studio, które zostało ogłoszone w lutym, Ilon Musk). Deweloperzy z nowo wypranego studia zademonstrowali już projekt pilotażowy bezpośrednio podczas prezentacji modelu GROK-3-nowa generatywna sztuczna inteligencja stworzyła grę podobną do tetris w języku programowania Pythona, a także odtworzyli podstawową wersję problemów z bańką z prawidłowym uwzględnieniem fizyki łączących obiektów. Do tej pory GROK-3 nie wychodzi płynnie, więc nie mógł wybrać odpowiednich efektów dźwiękowych w grze na żądanie użytkownika, ale jest to raczej uczenie się na odpowiednim szeregu danych. Główne wyzwanie dla siebie, XAI Gaming Studio nazywa „tworzeniem dynamicznie generowanych gier z fotorealistyczną grafiką” i jak dotąd nie ma fundamentalnych przeszkód w osiągnięciu tego celu. Ale czy ktoś będzie zainteresowany graniem w grę generowaną przez grę-być może inną sztuczną inteligencją?

„Nie idź tutaj, skórzane torby – Internet jest zamknięty!” (Źródło: generacja AI oparta na modelu strumienia.1))

⇡#Kolejna prognoza na temat końca Internetu

Personalizowani asystenci cyfrowymi, przeszkoleni (aby nie powiedzieć „wyblakły”) dla skrupulatnych, z absolutnym minimum halucynacji, wydajnością stosunkowo wąskiego kręgu zadań, które coraz częściej przyciągają uwagę ekspertów i entuzjastów. Tak więc analitycy Bernstein zasugerowali, że „jeśli Jeenety naprawdę staną się przydatne, Internet zanurzy się w ciemności”-w sensie, że nikt nie przekroczy linków, wiadomości lub stron informacyjnych, osobiście zastosuje się do wyszukiwarek za pośrednictwem interfejsu internetowego itp. I tak naprawdę, jeśli wszyscy użytkownicy zawsze zrobi dla niego całego użytkownika. Prace przygotowawcze-poszukiwanie źródeł, ich weryfikacja, podsumowanie informacji przedstawionych w nich, sprawdzanie ich pod kątem konsumenta, kompilacja CV, prezentacja wniosków, a nawet z przypisami, jeśli to konieczne, w razie potrzeby, AI-agentami?

Ponadto agenci mogą wchodzić w interakcje dla osoby z interaktywnymi witrynami – na przykład planować i organizować podróże; Do rezerwacji hoteli i kupowania biletów (komunikowanie się ze sobą na GibberLink lub jego analogach, tak). Wirtualna kampania na rzecz produktów z ich późniejszą dostawą kuriera dla inteligentnych botów-z przy okazji wsparcie samowystarczalnych robelów, nie jest również wiązką Newtona: Ponadto po uzyskaniu statystyk zakupionych towarów w ciągu dwóch do trzech tygodni (dłużej) model generatywny będzie doskonale zoptymalizować kolejne rozkazy. Zarówno Operator Openai Development, jak i zaawansowane Google Project Mariner, stworzone przez model antropiczny Claude 3.7 Sonnet, mogą stać się podstawą tworzenia tak wysoce określonych systemów. To prawda, że ​​globalny przemysł reklamowy internetowej po tak tektonicznym przesunięciu paradygmatu surfowania w Internecie wyraźnie doświadczy poważnych opłat za wstrząs, ponieważ zwiększenie prawdopodobieństwa uwzględnienia na liście zakupów towarów tej konkretnej marki dokładnie będą kumulować programiści Ai-Ai-Agents.

Ale w każdym razie, na początek, ci bardzo programiści będą musieli przezwyciężyć dość silną nieufność masowego konsumenta do generatywnej sztucznej inteligencji – jest to właśnie jako poważne narzędzie, a nie online rysunek kotów w zabawnych czapkach lub kompilacji streszczeń, które są również wymagane do podwójnego sprawdzania. I taka zmiana w masowej świadomości nie jest w żadnym wypadku prosta: według przeprowadzonego Centrum Badań Pew, nawet w USA, większość „białego kołnierza”, zatrudniona w dość nowoczesnych firmach, rzadko lub nigdy nie zwraca się do botów czatowych w kwestiach roboczych, a 29% nie słyszało o jakimś rodzaju i botach, które mogą być przydatne do rozwiązania prawdziwych Zadania (po raz kolejny są to Stany Zjednoczone, a próbka obejmuje wiek od 18 do 65 lat, a edukacja do szkoły ukończenia studiów!) Czy tych ludzi powierzono Ai-Agentom, aby zapłacić za siebie w supermarketach i zaplanować wycieczki wakacyjne-wielkie pytanie. Tak więc programiści modeli generatywnych będą musieli podjąć wiele wysiłków, aby na ich korzyść naprawdę szeroko szerokie opinia publiczna.

    ⇣ Treść Kto zaśpiewał co i kto rządzi Prawa strona to miejsce, w którym jest otwarta Dziewczyno, jesteś z chmury jako usługa – czy potrzebujesz lokalnych zasobów? Mieć i nie mam Zrób tańszą! Opór (demon) jest przydatny Ludzie, zabawiaj nas Najmądrzejszy tutaj, czy co? Czekam na aplikację Killer. Uczyń mocniej! AI może zagrać w tę grę Kolejna prognoza na koniec Internetu Komentarz () Materiały na ten temat Warsztaty na temat AI-Riseise, część ósmy: Więcej życia! Warsztaty na temat AI-Risise, część siódmowa: OpenPose dla Controlnet Najlepsze usługi AI według 3DNews. Część 1: Setty AI, zdjęcia i generatory wideo, wyszukiwarki Warsztaty na temat Rission, część to dziesiąta: Niech będzie strumień! Jitogs z marca 2024 r.: Czy czas generatywnych freemenów? Niezeneratywa AI

Udostępnij ten artykuł
Dodaj komentarz