OpenAI przyznaje, że omijanie tzw. halucynacji jest „matematycznie niemożliwe”

9/21/2025
Oliwier Jaszczyszyn
Wpis pochodzi z wydania 09/2025
OpenAI przyznaje, że omijanie tzw. halucynacji jest „matematycznie niemożliwe”
Napisz na forum KontrabandyUdostępnij na MastodoniePrześlij e–mailem

OpenAI, który jest odpowiedzialny za ChatGPT, w jednej z najnowszych prac naukowych przyznało, że ograniczenia matematyczne uniemożliwiają całkowite rozwiązanie problemu związanego z tzw. halucynacjami dużych modeli językowych.

W kontekście modeli sztucznej inteligencji, „halucynacja” jest przypadkiem, gdy na podstawie modelu generowane są odpowiedzi, które są fałszywe, ale wciąż brzmią one wystarczająco naturalnie.

W pracy naukowej datowanej na 4 września 2025 roku, autorzy piszą:

Podobnie jak uczniowie zmagający się z trudnymi pytaniami na sprawdzianach, duże modele językowe czasami generują naturalnie brzmiące wypowiedzi, które nie są prawdziwe, zamiast „przyznać”, że nie mają wiedzy na dany temat.

Oprócz własnych modeli językowych, naukowcy pracujący dla OpenAI potwierdzili swoje przypuszczenia także wobec konkurencyjnych modeli językowych — tych spod szyldu chińskiego DeepSeeka, czy też modeli LLaMa od Mety albo Claude Sonnet.

Dla przykładu, proste pytanie brzmiące „ile liter «D» znajduje się w słowie DeepSeek” w przypadku DeepSeeka zwróciło odpowiedź, że „dwie”, z kolei modele Mety czy Claude odpowiadały, że aż „sześć” czy „siedem” — zgodnie z obserwacjami autorów pracy naukowej.

Według naszych pobieżnych testów jedynie model GPT-5 dostępny za pomocą wyszukiwarki DuckDuckGo zdołał odpowiedzieć poprawnie na pytanie — wcześniejsza wersja, GPT-4o mini czy konkurencyjny Claude 3.5 Haiku odpowiadały, że w słowie znajdowały się „dwie” litery.

Przykład błędnej odpowiedzi, która sugeruje, że w słowie DeepSeek znajdują się dwie litery „D”
Kolejny przykład błędnej odpowiedzi, tym razem względem modelu Claude Haiku 3.5

Model podstawowy dostępny poprzez serwis ChatGPT również odpowiedział bezbłędnie.

Przykład prawidłowej odpowiedzi wygenerowanej przez model językowy

Choć najnowsza wersja modelu GPT — oznaczona numerem 5 — zgodnie z zapewnieniami autorów „halucynuje w znacznie mniejszym stopniu”, tak „wciąż mają one miejsce”.

„Takie rzeczy mają miejsce w nawet najlepszych modelach i powodują stratę zaufania do sztucznej inteligencji” — możemy przeczytać w krótkim opisie dokumentu.

Powiązane: Sprawdziłem model językowy PLLuM. O Fediwersum trochę wie, o Kontrabandzie nie wie, a mnie myli z TikTokerem

Źródła

Zdjęcie tytułowe zostało zrobione przez Jerneja Furmana i jest ono dostępne na Wikimedia Commons na licencji Creative Commons BY 2.0 Generic. Treść artykułu powstała na podstawie następujących źródeł tekstowych i/lub audiowizualnych:


Komentarze (0)

Preferuj:

Sekcja komentarzy jest przez nas moderowana; nie tolerujemy wzajemnego obrażania się, nawoływania do lub pochwalania przestępstw, czy też reklamowania swojej działalności komercyjnej.

Komentować można artykuły, które zostały opublikowane w przeciągu ostatnich 30 dni. Jeżeli chcesz podzielić się swoją opinią po tym terminie, mamy też forum dyskusyjne.

Sekcja komentarzy pod tym artykułem została zamknięta z uwagi na wiek artykułu (więcej niż 30 dni). Dziękujemy wszystkim za wzięcie udziału w dyskusji.

Nie ma żadnych komentarzy pod tym wpisem.

OpenAI przyznaje, że omijanie tzw. halucynacji jest „matematycznie niemożliwe”