OpenAI boryka się z wysokimi kosztami i niedoborami danych podczas szkolenia modelu AI Orion nowej generacji

Redaktor NetMaster
Redaktor NetMaster
2 min. czytania

OpenAI ma problemy z opracowaniem nowego flagowego modelu sztucznej inteligencji o nazwie kodowej Orion. Ten model sztucznej inteligencji wykazał znaczny sukces w zadaniach związanych z przetwarzaniem języka naturalnego, ale jego skuteczność w programowaniu pozostaje niska. Ograniczenia te, w połączeniu z niedoborem danych szkoleniowych i zwiększonymi kosztami operacyjnymi, stawiają pod znakiem zapytania rentowność i atrakcyjność biznesową wspomnianego modelu AI.

Jednym z wyzwań jest koszt uruchomienia Oriona w centrach danych OpenAI, który jest znacznie wyższy niż w modelach AI poprzedniej generacji, takich jak GPT-4 i GPT-4o. Znaczący wzrost kosztów zagraża relacji jakości do ceny i może zmniejszyć zainteresowanie Orionem wśród klientów korporacyjnych i abonentów skupionych na opłacalnych rozwiązaniach AI. Wysoki koszt eksploatacji rodzi pytania o ekonomiczną wykonalność modelu AI, zwłaszcza biorąc pod uwagę umiarkowany wzrost jego produktywności.

Oczekiwania co do przejścia z GPT-4 na Orion były duże, jednak skok kwantowy nie był tak znaczący, jak przejście z GPT-3 na GPT-4, co nieco rozczarowało rynek. Podobny trend obserwuje się wśród innych twórców sztucznej inteligencji: Anthropic i Mistral również odnotowują umiarkowane ulepszenia swoich modeli sztucznej inteligencji. Na przykład wyniki testów modelu sztucznej inteligencji Claude 3.5 Sonnet firmy Anthropic pokazują, że poprawa jakości w każdym nowym podstawowym modelu sztucznej inteligencji ma coraz większy charakter. Jednocześnie konkurenci próbują odwrócić uwagę od tego ograniczenia, koncentrując się na opracowywaniu nowych funkcji, takich jak agenci AI. Sygnalizuje to zmianę punktu ciężkości z poprawy ogólnej wydajności sztucznej inteligencji na tworzenie jej unikalnych możliwości.

Aby zrekompensować słabości nowoczesnej sztucznej inteligencji, firmy dostrajają wyniki za pomocą dodatkowych filtrów. Jednak takie podejście pozostaje jedynie rozwiązaniem tymczasowym i nie eliminuje głównych ograniczeń związanych z architekturą modeli AI. Problem pogłębiają ograniczenia w dostępie do danych licencjonowanych i publicznie dostępnych, co zmusiło OpenAI do powołania specjalnego zespołu, którego zadaniem było znalezienie sposobu na rozwiązanie problemu braku danych szkoleniowych. Nie jest jednak jasne, czy zespół będzie w stanie zgromadzić wystarczającą ilość danych, aby poprawić wydajność modelu sztucznej inteligencji Oriona i spełnić wymagania klientów.

Udostępnij ten artykuł
Dodaj komentarz