Użytkownik nie jest już potrzebny – nowy model AI firmy Anthropic steruje samym komputerem

Redaktor NetMaster
Redaktor NetMaster
7 min. czytania

Wiosną ubiegłego roku Anthropic ogłosił zamiar stworzenia „samouczącego się algorytmu AI nowej generacji”, który mógłby samodzielnie wykonywać większość zadań biurowych, automatyzując w ten sposób dużą część gospodarki. Dzisiaj firma wypuściła wersję 3.5 swojego modelu Claude Sonnet, który może wchodzić w interakcję z dowolną aplikacją komputerową za pośrednictwem interfejsu API Computer Use, symulując naciśnięcia klawiszy, kliknięcia i gesty myszy, całkowicie emulując osobę.

„Szkoleliśmy Claude’a, aby widział, co dzieje się na ekranie, a następnie korzystał z dostępnych narzędzi programowych do wykonywania zadań” – mówi Anthropic. „Kiedy programista przydziela Claude’owi korzystanie z oprogramowania komputerowego i zapewnia mu niezbędny dostęp, Claude przegląda zrzuty ekranu tego, co widzi użytkownik, a następnie oblicza, ile pikseli w pionie lub w poziomie potrzebuje, aby przesunąć kursor, aby kliknąć we właściwym miejscu .”

Takie narzędzie, tzw. „agent AI”, który może automatyzować zadania na komputerze PC, nie jest nowym pomysłem. Termin agent AI pozostaje niejasno zdefiniowany, ale ogólnie odnosi się do sztucznej inteligencji, która może zautomatyzować pracę z oprogramowaniem na komputerze PC. Wiele firm oferuje dziś podobne narzędzia, od Microsoft, Salesforce i OpenAI po nowych graczy, takich jak Relay, Induced AI i Automat.

Startup zajmujący się gadżetami konsumenckimi Rabbit wprowadził agenta, który może samodzielnie kupić bilety online. Adept, niedawno przejęty przez Amazon, szkoli modele do przeglądania stron internetowych i poruszania się po oprogramowaniu. Twin Labs wykorzystuje gotowe modele, w tym GPT-4o z OpenAI, do automatyzacji procesów na komputerach stacjonarnych.

Niektórzy analitycy uważają, że agenci sztucznej inteligencji mogliby ułatwić firmom zarabianie na miliardach dolarów inwestowanych w sztuczną inteligencję. Według niedawnego badania Capgemini 10% organizacji korzysta już z agentów AI, a 82% planuje ich integrację w ciągu najbliższych trzech lat.

Anthropic nazywa swoją koncepcję agenta AI „warstwą wykonywania akcji”, która umożliwia wykonywanie poleceń na poziomie komputera. Dzięki możliwości przeglądania Internetu, Claude 3.5 Sonnet może korzystać z dowolnej witryny i dowolnej aplikacji.

„Ludzie kontrolują ten proces za pomocą podpowiedzi, które kierują działaniami Claude’a, np. „użyj danych z mojego komputera i sieci, aby wypełnić ten formularz” – wyjaśnia rzecznik Anthropic. — Ludzie umożliwiają dostęp i ograniczają go, jeśli to konieczne. Claude dzieli podpowiedzi użytkownika na polecenia komputerowe (np. przesuwanie kursora, klikanie, pisanie), aby wykonać określone zadanie.

Czym Claude 3.5 Sonnet różni się od innych agentów AI? Anthropic twierdzi, że jest to po prostu mocniejszy, bardziej niezawodny model, który radzi sobie z zadaniami kodowania lepiej niż nawet flagowy model OpenAI o1, zgodnie z benchmarkiem SWE-bench Verified. Claude samodzielnie dostosowuje i powtarza zadania w obliczu przeszkód i może pracować nad celami wymagającymi dziesiątek lub setek kroków.

To powiedziawszy, Anthropic przyznaje, że zaktualizowany model ma trudności z podstawowymi czynnościami, takimi jak przewijanie i powiększanie, i może pomijać krótkotrwałe zdarzenia i powiadomienia ze względu na sposób, w jaki robi zrzuty ekranu i je łączy. Podczas testu rezerwacji lotu Claude 3.5 Sonnet był w stanie pomyślnie wykonać mniej niż połowę zadań. W zadaniu zwrotu biletów nowy model zawiódł w około jednej trzeciej przypadków.

Wyniki testów porównawczych modeli AI firmy Anthropic

Jeśli chodzi o bezpieczeństwo, niedawne badanie wykazało, że nawet modele niemające możliwości korzystania z aplikacji komputerowych, takich jak GPT-4o OpenAI, mogą być zaangażowane w złośliwe „wieloetapowe zachowanie agenta”, takie jak zamawianie fałszywego paszportu w ciemnej sieci . Podobne wyniki uzyskali badacze stosujący techniki jailbreakowania, co zaowocowało wysokim odsetkiem pomyślnych szkodliwych zadań, nawet w przypadku chronionych modeli.

Można sobie wyobrazić, że model z dostępem do kontroli komputera może spowodować znacznie większe szkody — na przykład poprzez wykorzystanie luk w zabezpieczeniach aplikacji w celu naruszenia bezpieczeństwa danych osobowych (lub zapisywania rozmów w postaci zwykłego tekstu). Oprócz dostępnych narzędzi programowych, połączenia sieciowe i aplikacyjne modelu mogą otworzyć przed atakującymi szerokie możliwości.

Anthropic nie zaprzecza, że ​​korzystanie z Claude 3.5 Sonnet naraża użytkownika na dodatkowe ryzyko. Jednak według firmy „znacznie lepiej jest udostępnić komputery dzisiejszym, bardziej ograniczonym, stosunkowo bezpiecznym modelom – w ten sposób będziemy mogli zacząć obserwować i wyciągać wnioski z wszelkich potencjalnych problemów pojawiających się na tym niższym poziomie, stopniowo i jednocześnie zwiększając liczbę komputerów wykorzystanie i środki łagodzące.” zagrożenia bezpieczeństwa.”

Anthropic twierdzi, że podjęła pewne kroki, aby zapobiec niewłaściwemu użyciu, takie jak nieuczenie nowego modelu na podstawie zrzutów ekranu i monitów użytkownika oraz niedopuszczenie do połączenia modelu z Internetem podczas szkolenia. Firma opracowała klasyfikatory, które zapobiegają działaniom wysokiego ryzyka, takim jak publikowanie postów w sieciach społecznościowych, tworzenie kont i interakcja z zasobami rządowymi.

Anthropic twierdzi, że ma możliwość ograniczenia dostępu do dodatkowych funkcji „jeśli to konieczne”, takich jak ochrona przed spamem, oszustwami i dezinformacją. Jako środek ostrożności firma przechowuje wszystkie zrzuty ekranu wykonane przez Computer Use przez co najmniej 30 dni, co może stwarzać dodatkowe ryzyko dla bezpieczeństwa i prywatności. Firma Anthropic nie podała, w jakich okolicznościach mogłaby udostępnić zrzuty ekranu stronom trzecim (np. organom ścigania).

„Nie ma niezawodnej metody i będziemy stale oceniać i udoskonalać nasze środki bezpieczeństwa, aby zrównoważyć możliwości Claude’a z odpowiedzialnym użytkowaniem” – stwierdza Anthropic. „Osoby korzystające z komputerowej wersji Claude powinny podjąć odpowiednie środki ostrożności, aby zminimalizować takie ryzyko, w tym odizolować Claude od bardzo wrażliwych danych na swoim komputerze”.

Wraz z wypuszczeniem modelu Claude 3.5 Sonnet, firma Anthropic ogłosiła rychłe wydanie zaktualizowanej wersji Claude 3.5 Haiku. „Dzięki dużej szybkości, lepszej kontroli i bardziej precyzyjnemu wykorzystaniu narzędzi, Claude 3.5 Haiku doskonale nadaje się do produktów przeznaczonych dla użytkownika, wyspecjalizowanych zadań podagentów i tworzenia spersonalizowanych doświadczeń na podstawie ogromnych ilości danych, takich jak historia zakupów, ceny lub dane o inwentarzu” – czytamy w blogu Anthropic. Haiku będzie początkowo dostępne jako model tekstowy, a później jako część pakietu multimodalnego, który może analizować zarówno tekst, jak i obrazy.

W związku z wydaniem zaktualizowanego Claude 3.5 Opus rzecznik Anthropic powiedział: „Wszystkie modele z rodziny Claude 3 mają swoją własną, indywidualną aplikację dla klientów. Claude 3.5 Opus znajduje się w naszym planie działania i z pewnością udostępnimy Ci więcej szczegółów tak szybko, jak to możliwe.

Programiści mogą już testować użytkowanie komputera za pośrednictwem Anthropic API, Amazon Bedrock i platformy Vertex AI firmy Google Cloud.

Udostępnij ten artykuł
Dodaj komentarz