Open Source Initiative (OSI), która od dziesięcioleci definiuje standardy otwartego oprogramowania, wprowadziła definicję pojęcia „otwarta sztuczna inteligencja”. Obecnie, aby model sztucznej inteligencji można było uznać za prawdziwie otwarty, OSI wymaga dostępu do danych wykorzystywanych do jego trenowania, pełnego kodu źródłowego oraz wszystkich parametrów i wag określających jego zachowanie. Te nowe warunki mogą mieć znaczący wpływ na branżę technologiczną, ponieważ modele sztucznej inteligencji, takie jak Lama Meta✴, nie spełniają tych standardów.
Nic dziwnego, że Meta✴ jest innego zdania, uważając, że podejście OSI nie uwzględnia cech współczesnych systemów AI. Rzeczniczka firmy Faith Eischen podkreśliła, że Meta✴, choć wspiera wiele inicjatyw OSI, nie zgadza się z proponowaną definicją, ponieważ, jej zdaniem, „nie ma jednego standardu dla otwartej sztucznej inteligencji”. Dodała również, że Meta✴ będzie nadal współpracować z OSI i innymi organizacjami, aby zapewnić „odpowiedzialne poszerzanie dostępu do sztucznej inteligencji” niezależnie od kryteriów formalnych. Jednocześnie Meta✴ podkreśla, że jej model Llama ma ograniczone zastosowanie komercyjne w aplikacjach z widownią liczącą ponad 700 milionów użytkowników, co stoi w sprzeczności ze standardami OSI, które zakładają całkowitą swobodę użytkowania i modyfikacji.
Zasady OSI, które definiują standardy oprogramowania open source, są uznawane i aktywnie wykorzystywane przez społeczność programistów od 25 lat. Dzięki tym zasadom programiści mogą swobodnie korzystać z twórczości innych osób, bez obawy przed roszczeniami prawnymi. Nowa definicja OSI dla modeli AI sugeruje podobne zastosowanie zasad otwartości, jednak dla gigantów technologicznych takich jak Meta✴ może to stanowić poważne wyzwanie. Ostatnio do dyskusji włączyła się także organizacja non-profit Linux Foundation, proponując swoją interpretację „otwartej sztucznej inteligencji”, co podkreśla rosnące znaczenie tego tematu dla całej branży IT.
Dyrektor wykonawczy OSI Stefano Maffulli zauważył, że opracowanie nowej definicji „otwartej sztucznej inteligencji” trwało dwa lata i obejmowało konsultacje z ekspertami z zakresu uczenia maszynowego (ML) i przetwarzania języka naturalnego (NLP), filozofami, przedstawicielami Creative Commons i inni specjaliści. Proces ten pozwolił OSI stworzyć definicję, która może stać się podstawą do zwalczania tzw. „otwartego prania”, w ramach którego firmy deklarują się jako otwarte, ale w rzeczywistości ograniczają sposób wykorzystania i modyfikowania swoich produktów.
Meta✴ swoją niechęć do ujawniania danych szkoleniowych AI tłumaczy względami bezpieczeństwa, ale krytycy wskazują na inne motywy, w tym minimalizację ryzyka prawnego i utrzymanie przewagi konkurencyjnej. Wiele modeli sztucznej inteligencji jest prawdopodobnie szkolonych na materiałach chronionych prawem autorskim. I tak wiosną „The New York Times” podał, że Meta✴ rozpoznała obecność takich treści w swoich danych treningowych, ponieważ filtrowanie ich jest prawie niemożliwe. Podczas gdy Meta✴ i inne firmy, w tym OpenAI i Perplexity, stoją w obliczu procesów sądowych za możliwe naruszenie praw autorskich, model sztucznej inteligencji Stable Diffusion pozostaje jednym z niewielu przykładów otwartego dostępu do danych szkoleniowych AI.
Maffulli postrzega działania Meta✴ jako zbieżne ze stanowiskiem Microsoftu z lat 90., kiedy postrzegał oprogramowanie open source jako zagrożenie dla swojej działalności. Zdaniem Maffulliego Meta✴ podkreśla wielkość swoich inwestycji w model Lamy, sugerując, że takie rozwiązania wymagające dużych zasobów są w zasięgu nielicznych. Według Maffulliego wykorzystywanie przez Meta✴ zastrzeżonych danych szkoleniowych stało się „tajnym sosem”, który pozwala korporacjom utrzymać przewagę konkurencyjną i chronić swoją własność intelektualną.