Google stale poszerza swoją linię modeli sztucznej inteligencji Gemini. Na rozpoczętej wczoraj konferencji Google I/O firma ogłosiła nowy model nastawiony na zadania wymagające dużej szybkości – Gemini 1.5 Flash. Model jest w stanie przetwarzać dane niemal błyskawicznie, bez opóźnień.
Według wiceprezesa Google Labs, Josha Woodwarda, Gemini 1.5 Flash jest zoptymalizowany pod kątem „wąskich zadań o wysokim priorytecie, gdzie wymagane jest małe opóźnienie”. Sieć neuronowa może przetwarzać tekst, obrazy i wideo z dużą szybkością. Dzięki temu idealnie nadaje się do zastosowań wymagających natychmiastowej reakcji w czasie rzeczywistym, takich jak komunikacja z użytkownikami lub klientami lub natychmiastowe generowanie prostych obrazów – raportuje The Verge.
Jednocześnie do zadań, które nie wymagają błyskawicznej reakcji, lepiej sprawdzi się zaktualizowany model Gemini 1.5 Pro. Potrafi analizować duże objętości tekstu, dokonywać uogólnień i tłumaczeń. Gemini 1.5 Pro otrzymał także ulepszone możliwości maszynowego logicznego wnioskowania i pisania kodu programu. Obydwa modele wykorzystują okno kontekstowe o pojemności 1 miliona tokenów, co pozwala na uwzględnienie większej ilości informacji podczas generowania odpowiedzi. Dla porównania okno kontekstowe GPT-4 to 128 000 tokenów.
Oprócz AI Studio, Gemini 1.5 Pro wkrótce będzie dostępne w Google Workspace. Użytkownicy będą mogli korzystać z możliwości modelu w Gmailu i dokumentach PDF. A abonenci wersji Gemini Advanced będą mieli dostęp do modelu w 35 językach.
Obydwa modele będą dostępne za pośrednictwem Google AI Studio i Gemini API w ponad 200 krajach, w tym w Unii Europejskiej, Wielkiej Brytanii i Szwajcarii.