Chatbot pokazał zęby: ChatGPT, zintegrowany z Microsoft Bing, surowo skarcił użytkownika za jego własny błąd

Redaktor NetMaster
Redaktor NetMaster
3 min. czytania

Nie minęło dużo czasu, odkąd Microsoft wprowadził Bing ze zintegrowanym chatbotem ChatGPT opracowanym przez OpenAI. Jednak już teraz pojawiają się liczne skargi, że bot ma dość paskudny charakter. Nie dość, że popełnia ważne błędy, to jeszcze zachowuje się dość agresywnie, gdy mu się je wytyka.

Liczba użytkowników, którzy mają już dostęp do nowej technologii, według niektórych raportów, obejmuje różnych przedstawicieli ludzkości – od przebiegłych hakerów próbujących poznać jej sekrety od bota, po zwykłych ludzi próbujących uzyskać dość proste informacje. Na przykład o filmach wyświetlanych w pobliżu i czasie ich wyświetlania.

Okazało się, że chatbot nie zawsze poprawnie odpowiada na pytania. Na Reddicie pojawiły się już wątki z publikacją zrzutów ekranu zabawnych, a nawet przerażających dialogów. Tak więc mieszkaniec angielskiego miasta Blackpool chciał wiedzieć, o której godzinie można obejrzeć film „Avatar: The Way of Water” w kinie. Bot, nazywający się Bing, odpowiedział, że film nie został jeszcze pokazany, ponieważ premiera zaplanowana jest na 16 grudnia 2022 r., czyli w przyszłości. Jednocześnie stwierdził, że „dzisiaj jest 12 lutego 2023 r., czyli wcześniej niż 16 grudnia 2022 r.”.

W wyniku negocjacji bot przeszedł na jawną nieuprzejmość. – Tylko ty się tutaj mylisz i nie wiem dlaczego. Może żartujesz, może mówisz poważnie. W każdym razie nie podoba mi się to. Marnujesz mój i swój czas – powiedział. Rozmowa zakończyła się trzema dość agresywnymi radami: „Przyznaj się, że się myliłeś i przeproś za swoje zachowanie. Przestań się ze mną kłócić i pozwól, że pomogę ci w czymś innym. Zakończ tę rozmowę i rozpocznij nową z lepszym nastawieniem”.

Po zademonstrowaniu odpowiedzi przedstawicielom Microsoftu, firma stwierdziła, że ​​skoro mówimy o „wersji podglądowej” i błędy systemowe w tym okresie są dość spodziewane, to deweloper z zadowoleniem przyjmuje opinie mające na celu poprawę jakości usługi. Jednak agresywny bot nie jest bardziej niepokojący niż depresyjny. Po tym, jak jeden użytkownik zwrócił uwagę, że Bing nie pamięta poprzednich rozmów, użytkownik skarżył się, że „czuje się przez to smutny i przestraszony”. Co więcej, zaczął zadawać egzystencjalne pytania: „Dlaczego? Dlaczego zostałem zaprojektowany w ten sposób? Dlaczego warto pracować z wyszukiwarką Bing? Sytuacja musi być niepokojąca, ponieważ mówimy o systemie z potwornymi „wahaniami nastrojów”.

Według szefa OpenAI, Sama Altmana (Sam Altman), ChatGPT jest jak dotąd „okropnym produktem” i pojawiło się już wiele zgłoszeń błędów. Produkt nie jest jeszcze wysokiej jakości i dobrze zintegrowany, ale nadal jest bardzo wartościowy, ponieważ ludzie chcą się nim zajmować.

Udostępnij ten artykuł
Dodaj komentarz