Zum Inhalt

Nachvollziehbarkeit

Eine fehlende Nachvollziehbarkeit von KI-Entscheidungen kann ein Risiko darstellen, das Anwender:innen bei der Interpretation der Ergebnisse betrifft.

Beschreibung

Wenn Lehrende, Lernende und Studierende die Funktionsweise und die Entscheidungsfindungsprozesse von KI-Tools nicht verstehen, kann dies das Risiko von Fehlinterpretationen der KI-Ergebnisse erhöhen. Modelle wie ChatGPT verwenden komplexe statistische Verfahren, die ihre Reaktionen bis zu einem gewissen Grad unvorhersehbar machen können.

Beispielsweise kann dieselbe Eingabeaufforderung (Prompt) bei wiederholter Verwendung zu unterschiedlichen Antworten führen. Darüber hinaus neigen KI-Modelle dazu, nicht vorhandene Informationen zu „halluzinieren“ oder zu erfinden. Dieser Aspekt, gepaart mit der innewohnenden Unvorhersehbarkeit der Modelle, kann zu Missverständnissen und Fehlinterpretationen bei den Nutzer:innen führen, insbesondere wenn es um die Interpretation von Chatbot-Antworten und anderen KI-generierten Inhalten geht.

Risikominimierung

Es ist wichtig, ein Bewusstsein dafür zu schaffen, dass KI-basierte Werkzeuge nur als unterstützende Instrumente und nicht als vollständiger Ersatz verwendet werden sollten. Diese Sichtweise ermutigt zu einer kritischen Betrachtung der Ergebnisse und bestärkt die Nutzer:innen darin, die generierten Informationen zu überprüfen und zu verifizieren .

In ihrem Paper (Preprint) schlagen Mollick und Mollick Folgendes für den Unterricht vor (1):

  • Lernende und Studierende sollten wissen, dass sie die Ergebnisse oder Ratschläge einer KI akzeptieren, aktiv hinterfragen oder ablehnen können.

  • Lernende und Studierende brauchen klare Richtlinien für die Interaktion mit KI.

  • Lehrende demonstrieren, wie sie selbst Eingabeaufforderungen (z.B. in ChatGPT) verwenden und wie sie ihre Fakten überprüfen oder das Feedback der KI in Frage stellen.


Quellen

  1. Mollick ER, Mollick L. Assigning AI: Seven Approaches for Students, with Prompts [Internet]. Rochester, NY; 2023 [zitiert 28. Juli 2023]. Verfügbar unter: https://papers.ssrn.com/abstract=4475995