Amazon podłączył duży model językowy o tej samej nazwie do swojego asystenta głosowego Alexa, przeszkolonego pod kątem sterowania inteligentnym domem. Pomoże to asystentowi lepiej zrozumieć wypowiadane frazy, skuteczniej interpretować kontekst i wykonywać wiele operacji na jednym poleceniu. Jednak w przyszłości niektóre funkcje Alexy mogą stać się płatne.
Model dużego języka Alexa LLM zasadniczo różni się od platform leżących u podstaw chatbotów Bard i ChatGPT – jest zoptymalizowany pod kątem asystentów głosowych i inteligentnego sterowania domem, powiedział The Verge starszy wiceprezes Amazon ds. urządzeń i usług Dave Limp (Dave Limp). Potrzeba fundamentalnych zmian na rynku asystentów głosowych narastała już od dawna: dziesięć lat temu, kiedy pojawiły się po raz pierwszy, wiązano z nimi duże nadzieje, jednak przez ostatni czas innowacji prawie nie było, a ulepszenia były raczej ewolucyjny, bardzo niespieszny. Przełomem może być tu generatywna sztuczna inteligencja.
Po wydaniu ChatGPT giganci technologiczni Microsoft i Google pospieszyli z wdrożeniem generatywnej sztucznej inteligencji w większości swoich usług i popełnili błędy, więc Amazon zdecydował się postępować ostrożnie. Biorąc pod uwagę, że Alexa LLM zdecydowała się na bezpośrednie połączenie z inteligentnym domem, dla firmy ważne było zminimalizowanie incydentów związanych z halucynacjami AI. Będzie wprowadzany stopniowo w ramach wstępnego programu przez kilka miesięcy i tylko dla użytkowników amerykańskich. Wniosek możesz złożyć bezpośrednio przez asystenta głosowego, wydając mu polecenie: „Alexa, porozmawiajmy! (Alexa, porozmawiajmy).”
Biorąc pod uwagę zaawansowane możliwości, jakie generatywna sztuczna inteligencja obiecuje asystentowi głosowemu, platforma nie może pozostać bezpłatna na zawsze. W obecnej formie – wyjaśnił Limp – pozostanie bezpłatna, ale „nadludzki” asystent głosowy, który będzie w stanie wykonywać skomplikowane zadania, stanie się usługą płatną. Na początkowym etapie Alexa nauczy się lepiej rozumieć to, co mówi mu użytkownik i przestanie wymagać konkretów. Konieczność powtarzania słów lub nadawania unikalnych nazw elementom inteligentnego domu to jedna z najczęstszych przyczyn niezadowolenia z asystentów głosowych.
Użytkownik będzie mógł poskarżyć się nowej Alexie, że jest mu zimno, a ona podniesie temperaturę w systemie grzewczym. Po wydaniu polecenia „Alexa, rozświetl ten pokój Seahawkiem” sztuczna inteligencja dowie się, na jaki kolor jest pomalowany helikopter Seahawk, określi, w którym pokoju znajduje się właściciel domu i wykona odpowiednie żądania API. Duży model językowy obsługuje ponad dwieście narzędzi API inteligentnego domu – w połączeniu z kontekstem rozmowy z inteligentnym głośnikiem Echo i listą inteligentnych urządzeń, pomoże Ci to efektywniej nimi zarządzać. Po zainstalowaniu w domu nowego źródła światła możesz wydać asystentowi głosowemu polecenie włączenia „nowego światła”, a on poprawnie zinterpretuje polecenie.
Generatywna sztuczna inteligencja pomoże Alexie zinterpretować sekwencje poleceń w jednej frazie – skrypty można ustawiać bez konieczności konfigurowania ich w aplikacji. Wiceprezydent Amazona Dave Limp podał przykład zwykłego scenariusza, który dał zaktualizowanemu asystentowi głosowemu w swoim domu: „Alexa, każdego ranka o godzinie 8 włączaj światła i muzykę w sypialni dziecka, aby je obudzić, i włącz ekspres do kawy w kuchni.” Takie scenariusze, pomimo swojej złożoności, od razu pojawiają się w aplikacji na liście zwykłych. Na początkowym etapie funkcja wielu poleceń będzie działać tylko na niektórych urządzeniach inteligentnego domu, ale w przyszłości ich zestaw będzie się rozszerzał.
Twórcy kompatybilnego sprzętu innych firm będą mogli również korzystać z funkcji kognitywnych Alexy za pomocą narzędzi Dynamic Controller i Action Controller. Narzędzia te pomogą im ustawić polecenia, których nie ma w podstawowym zestawie asystentów głosowych. Dynamic Controller pozwoli np. na ustawienie gotowych schematów oświetlenia. Instalując w pomieszczeniu wielokolorowe lampy GE Cync, możesz wydać polecenie „Alexa, spójrz tutaj strasznie”, a system poprawnie to zinterpretuje, bez konieczności dodatkowych manipulacji. A Action Controller pomoże asystentowi głosowemu poprawnie zareagować na uwagę: „Alexa, podłoga jest brudna” – i robot odkurzający zacznie działać. Według Amazona tymi narzędziami zainteresowali się już GE Cync, Philips, GE Appliances, iRobot, Roborock i Xiaomi, a w przyszłości do programu dołączą kolejni programiści.
Podłączenie dużego modelu językowego do Alexy to dopiero początek nowego etapu w rozwoju asystenta głosowego. Firma chce ułatwić użytkownikom codzienne zadania, ale na razie nie mówi o dalszych planach.