ChatGPT był bliski zdania egzaminu na licencję lekarza w USA

Redaktor NetMaster
Redaktor NetMaster
2 min. czytania

Algorytm OpenAI ChatGPT Large Language Model (LLM) prawie zdał egzamin licencyjny amerykańskiego lekarza. To bardzo trudny test dla kandydata-człowieka, ale bot AI był bliski zdania egzaminu bez szkolenia z potwierdzeniem – opartym wyłącznie na wyszukiwaniu informacji w Internecie. Jednak na razie nikt nie będzie leczył ludzi z jego pomocą, choć raczej będzie temu zapobiegać prawna strona problemu niż praktyczna.

Algorytm ChatGPT już nas zaskoczył możliwością pisania kodu, zdania egzaminu do szkoły biznesu i innymi sztuczkami intelektualnymi. Kolejnym osiągnięciem algorytmu maszynowego była próba zdania egzaminu US Medical Licensing Exam (USMLE). Przygotowanie kandydata do zdania tego egzaminu zajmuje od 300 do 400 godzin, co w rzeczywistości składa się z trzech części. Zdolność ChatGPT do uczenia się, jak odpowiadać na pytania egzaminacyjne USMLE w spójny i konkretny sposób, budzi nadzieję, że pewnego dnia sztuczna inteligencja będzie mogła albo sama udzielać porad medycznych, albo, co bardziej prawdopodobne, zostać asystentem lekarza w celu dokładniejszych diagnoz.

„ChatGPT został przeprowadzony na poziomie lub blisko progu zaliczenia wszystkich trzech egzaminów bez żadnego specjalnego szkolenia ani wzmocnienia” – napisali naukowcy w opublikowanym artykule. „Ponadto ChatGPT wykazał się wysokim poziomem spójności i wglądu w swoich wyjaśnieniach”.

Badanie przeprowadzili specjaliści ze startupu Ansible Health. Wcześniej stwierdzono, że w Internecie nie ma bezpośrednich odpowiedzi na pytania USMLE. W ten sposób ChatGPT wygenerował nowe odpowiedzi na podstawie otrzymanych danych na temat pytań.

Z pozytywnym wynikiem około 60% we wszystkich pytaniach, ChatGPT uzyskał wynik między 52,4% a 75% we wszystkich trzech egzaminach. W przypadku 88,9% odpowiedzi algorytm wygenerował co najmniej jedną znaczącą odpowiedź, którą naukowcy zakwalifikowali jako „nową i nieoczywistą, ale klinicznie ważną”.

„Osiągnięcie pozytywnego wyniku w tej niesławnej i wymagającej recenzji wzajemnej, bez wsparcia ze strony ludzi, stanowi znaczący kamień milowy w rozwoju klinicznej sztucznej inteligencji” – napisali autorzy badania w oświadczeniu prasowym.

Co więcej, pod względem dokładności odpowiedzi ChatGPT przewyższył PubMedGPT, medyczną sztuczną inteligencję specjalnie przeszkoloną do odpowiadania na takie pytania, o 50,3%. Co się stanie, jeśli specjalista od ludzi przeszkoli ChatGPT w celu uzyskania kwalifikacji medycznej?

Udostępnij ten artykuł
Dodaj komentarz