Halluzinationen: Warum denken sich KI-Modelle einfach Fakten aus?

Laut OpenAI sind Halluzinationen ein inhärentes Problem von LLMs wie GPT-5. Das liegt wohl am Training und verbreiteten Benchmarks. (KI, Wissenschaft)