Tradycyjne strony masowo tracą publiczność z powodu botów czatowych i agentów z AI

Redaktor NetMaster
Redaktor NetMaster
5 min. czytania

Firmy specjalizujące się w sztucznej inteligencji obiecały właścicielom witryn, które wyszukiwarki nowej generacji zapewnią im napływ odwiedzających poprzez ruch polecający. Nowy raport platformy licencjonowania treści Tollbit pokazał, że w rzeczywistości tak nie jest.

Wcześniej Openai i zakłopotanie wydały wysokie oświadczenia, że ​​ich wyszukiwarki z AI, które zbierają materiały z sieci, zapewnią właścicielom witryn do wzrostu liczby odwiedzających i nowych źródeł dochodów. W rzeczywistości wyszukiwarki z sztucznej inteligencji są wysyłane na strony informacyjne i blogi o 96 % mniej ruchu polecającego niż tradycyjne wyszukiwanie Google to raport Tollbit, który firma udostępniła Forbesowi. Jednocześnie w ostatnich miesiącach ilość informacji zebranych informacji ze stron wzrosła ponad dwukrotnie. Openai, zakłopotanie, Meta✴ i inne kompanie AI za kwartał IV 2024 zeskanowanych witryn Około 2 milionów razy data zostały dostarczone przy przykładzie 160 witryn, w tym krajowych i lokalnych zasobów informacyjnych poświęconych stronom technologii konsumenckich i blogach poświęconych zakupom. Każda strona na nich skanowała średnio siedem razy.

Tollbit oferuje witrynom sposób wykrywania skanowania sztucznej inteligencji-każdy czas to się zdarza, firma pobiera opłatę od deweloperów z platform na rzecz zasobów zarejestrowanych na platformie analitycznej. Daje to Tollbitowi wyobrażenie o ruchu i aktywności mechanizmów skanowania. W Openai, meta✴ i zakłopotaniu dane przedstawione w raporcie nie skomentowały danych, ale zakłopotanie zauważyły, że ich system powinien być dyrektywami w plikach robots.txt – wskazują, które sekcje witryn mają dostęp.

W lutym analitycy Gartner opublikowali prognozę, zgodnie z którą do 2026 r. Ruch z tradycyjnych wyszukiwarek z powodu botów i agentów z AI spadnie o 25 %. Proces już minął: ostatnio specjalizując się w technologiach edukacyjnych, Chegg postanowił wysuszyć Google w poszukiwaniu raportów danych pokazanych w wynikach wyszukiwania; W II kwartału ubiegłego roku, kiedy właśnie zaczęły się pojawiać, ruch Chegg opadł o 8 %, aw styczniu tego roku zawiódł o 49 %. Według powoda nośniki AI w wyszukiwaniu zawierali materiały ze strony internetowej ChEGG bez określenia źródła. Spadek ruchu wpłynął na Chegg do tego stopnia, że ​​teraz firma rozważa możliwość przejścia na prywatną własność lub nawet sprzedaż swoich aktywów. Roszczenie Google Chegg zostało nazwane „bezpodstawnymi” i stwierdziło, że różnorodność witryn wzrosła w wynikach wyszukiwania.

Sytuacja komplikuje fakt, że skanowanie zasobów i gromadzenia danych, programiści AI wskazują w swoich systemach, że linie agentów użytkowników, które w rzeczywistości nie odpowiadają rzeczywistości, a to nie pozwala właścicielom witryn identyfikować skanerów i zrozumienie, w jaki sposób kompanie ii-kompanitmy wykorzystują dostęp do materiałów zasobów. Google, według jednej wersji, używa tych samych botów do różnych celów – indeksuje witryny i gromadzą z nich dane dla sztucznej inteligencji. Działania zakłopotania, które mówią o szacunku dla dyrektyw Robots.txt, są jeszcze bardziej nieprzewidywalne: nawet gdy zasoby blokują dostęp do serwera WWW, skanowanie rzekomo się nie kończy, ponieważ ruch polecający nadal robi. Jednym z zasobów, według oficjalnych wskaźników, było skanowanie 500 razy, po czym 10 000 odwiedzających przybyło do niego z zakłopotania. Można to wyjaśnić tylko pracą niezidentyfikowanego bota skanującego.

W ubiegłym roku zakłopotanie została skazana za kopiowanie, a następnie prawie dosłowne cytowanie materiałów, w tym płatne popularne agencje informacyjne, w tym Forbes, CNBC i Bloomberg, bez linku do źródła. Usługa firmy często odnosiła się również do tworzonych blogów o niskiej jakości i sieci społecznościowych zawierających niedokładne informacje. New York Post i Dow Jones złożyli pozew przeciwko zakłopotaniu, oskarżając firmę o naruszenia praw autorskich. Niekontrolowane skanowanie materiałów witryn prowadzi również do faktu, że ich właściciele zwiększają koszty zasobów serwerów. Openai i zakłopotanie wprowadzili agentów Jean, którzy niezależnie szukają niezbędnych informacji na stronach i składają szczegółowe raporty, które z pewnością pogorszy problem.

Jednym z oczywistych sposobów rozwiązania konfliktu jest bezpośrednie licencjonowanie materiałów. Associated Press, Axel Springer i Financial Times zawarły odpowiednie umowy z Openai. Istnieją nowe firmy, które pobierają opłatę od właścicieli systemów AI za każdym razem, gdy kopiują materiały ze stron – raport raportowania Tollbit działa zgodnie z tym modelem.

Udostępnij ten artykuł