Monday, June 5, 2023

OpenAI ma lek na halucynacje ChatGPT. Oto co zrobi, żeby chatbot przestał kłamać

Source:


"W ogromnym uproszczeniu, owe modele działają w modelu statystycznym, dobierając kolejne słowa o najwyższym prawdopodobieństwu wystąpienia ich w danej sekwencji słów. Halucynacje to efekt zbyt małej ilości danych do treningu – SI nie ma odpowiedniego źródła, więc dobiera kolejne słowa z innego zbioru, byle tylko zrealizować zadane przez użytkownika zadanie.

Zamiast uciszać halucynacje SI, lepiej się ich pozbyć...

OpenAI do tej pory szkolił modele językowe stosując system nagród za udzielenie poprawnej odpowiedzi. A więc SI była szkolona tak, by premiować właściwe działania i na tej podstawie ta jest nauczona jakich odpowiedzi oczekuje użytkownik."




No comments: