Peakly Glossar

Begriff «Halluzinationen»

Definition:
  • Halluzinationen sind ein bekanntes Phänomen bei generativen KI-Systemen, bei dem das Modell Inhalte erzeugt, die zwar plausibel klingen, jedoch keinen Bezug zur Realität haben. Diese falschen oder ungenauen Informationen entstehen, weil das Modell keine Unterscheidung zwischen echten und fiktiven Daten treffen kann und seine Antworten auf Basis von Mustern und Wahrscheinlichkeiten generiert, ohne dabei zu „wissen“, ob sie wahr sind.

Anwendung

Das Phänomen der Halluzinationen tritt besonders bei großen Sprachmodellen auf, die eigenständig Texte erzeugen. In Bereichen wie dem Gesundheitswesen, der Finanzberatung oder dem Kundendienst können Halluzinationen problematisch sein, da sie zu Fehlinformationen führen können. Entwickelnde setzen Methoden wie Grounding ein, um Halluzinationen zu reduzieren und die Modelle verlässlicher zu machen.
 

Praktisches Beispiel

Stell dir einen Chatbot vor, der auf eine medizinische Frage antwortet und dabei eine „Halluzination“ hat. Statt einer korrekten Auskunft gibt das Modell eine plausible, aber falsche Information, beispielsweise eine erfundene Medikamentenempfehlung. Ohne Grounding könnte dies zu Missverständnissen und Risiken führen, weshalb Halluzinationen in sicherheitskritischen Anwendungen unbedingt minimiert werden müssen.

Glossar
Fragen? Let's talk!
Fragen? Let's talk!
Fragen? Let's talk!
Hast du Fragen zu PractifAI? 
Hast du Fragen zum Inhalt? Oder hast du Fragen, wie PractifAI bei dir im Unternehmen durchgeführt werden kann, oder wie unser Beratungsansatz für Unternehmen aussieht?  Ich freue mich auf den persönlichen Austausch mit dir!

Herzlich,
Sibylle

So erreichst du uns
+41 (0) 44 558 33 44
email
Telefon*