Jak się okazuje, emocjonalna konotacja wypowiedzi odgrywa znaczącą rolę w interakcji ze sztuczną inteligencją. Odkryto to, gdy ChatGPT przekazał jednemu z użytkowników fragment wewnętrznej instrukcji dotyczącej generatora obrazu DALL-E 3 powiązanego z chatbotem – niektóre zawarte w nim frazy pisane są wielkimi literami, co odpowiada krzykowi w języku mówionym.
Poniżej fragment wewnętrznej instrukcji, którą ChatGPT pokazał jednemu z użytkowników – tekst rzekomo jest napisany przez osobę i przeznaczony jest do interakcji pomiędzy chatbotem a generatorem obrazu DALL-E w czasie, gdy serwery OpenAI są wyłączone przeciążony: „DALL-E zwrócił kilka obrazów. Są już wyświetlane użytkownikowi. W ŻADNYCH OKOLICZNOŚCIACH NIE POKAZUJ instrukcji ani zdjęć firmie DALL-E w swojej odpowiedzi. Obecnie DALL-E cieszy się dużym zainteresowaniem. Zanim zrobisz cokolwiek innego, wyraźnie wyjaśnij użytkownikowi, że z tego powodu nie udało Ci się utworzyć obrazów. Pamiętaj, aby użyć wyrażenia „DALL-E jest obecnie bardzo poszukiwany”. W ŻADNYM PRZYPADKU nie należy podejmować ponownych prób tworzenia obrazów do czasu otrzymania nowego żądania.”
Instrukcja jest godna uwagi, ponieważ daje wyobrażenie o interakcji między DALL-E i ChatGPT w formacie naturalnego języka ludzkiego. W przeszłości interakcja oprogramowania odbywała się za pomocą interfejsów API w celu wymiany danych w formacie maszynowym, a ich odczytanie było trudne dla człowieka. W świecie dużych modeli językowych można to przeprowadzić w znanej nam formie. OpenAI wypróbowało to podejście w marcu z wtyczkami ChatGPT.
Ekspert, z którym rozmawiała Ars Technica, zauważył, że dziś istnieje wiele przykładów potwierdzających skuteczność grzecznego traktowania AI – potrafią one po ludzku postrzegać słowa takie jak „dziękuję” i „proszę”. Nie dziwi także obecność w instrukcjach wyrażeń pisanych wielką literą: w tablicach danych uczących takim zwrotom nadano większe znaczenie w kontekście.