Według Financial Times Meta✴ planuje przedstawić ulepszone funkcje głosowe w kolejnym flagowym modelu LLAMA LLAMA 4, którego uruchomienie jest oczekiwane za kilka tygodni. Deweloperzy zwrócili szczególną uwagę na możliwość przerwania i przerywania modelu w procesie dialogowym, podobnie jak tryb głosowy Openai dla Chatgpt i Gemini na żywo z Google.
W tym tygodniu Meta✴ Chris Cox, główny dyrektor produktu, powiedział, że LLAMA 4 będzie „kompleksowym” modelem, który może interpretować i wyprowadzać mowę, a także tekst i inne typy danych.
Sukces otwartych modeli chińskiego i głębokiego laboratorium chińskiego, który wykazał imponujące wyniki, sprawiło, że programiści LLAMA znacznie przyspieszyli. Według plotek Meta✴ zorganizował nawet centra operacyjne, aby dowiedzieć się, jak Deepseek był w stanie radykalnie obniżyć koszty szkolenia, uruchomić i wdrażać modele AI.