TÜV Süd ISO 9001 Zertifiziertes Qualitätsmanagementsystem

📞 089 416126990
Suche schließen

Herausforderungen bei der Nutzung von KI-Sprachmodellen

Keine Artikel mehr verpassen? Jetzt Newsletter abonnieren »

Erschienen in Aug I 2024 | Künstliche Intelligenz
Level: Beginner

Seit über einem Jahr spielen wir auf einem riesigen digitalen Spielplatz, der uns mit faszinierenden KI-Technologien wie ChatGPT, Gemini und Co-Pilot konfrontiert. Viele von uns haben bereits die Vor- und Nachteile dieser generativen Sprach-KI erlebt. Doch so beeindruckend diese Technologien auch sind, stoßen sie immer wieder an ihre Grenzen.

In diesem Artikel wollen wir uns mit den Herausforderungen von LLM auseinandersetzen und dir ihre Charakteristiken, sowie Wege und Mittel, vorstellen, um bestmöglich mit ihnen umzugehen. Als Basis dient uns die Folge 123 des 121WATT-Podcasts mit unserem Experten Kai Spriestersbach.

Die Herausforderung des Halluzinierens

Ein zentrales Problem bei der Nutzung von generativer Sprach-KI ist das Halluzinieren. Das bedeutet, dass es durchaus vorkommen kann, dass sie dir ohne Warnung überzeugende, aber vollkommen falsche Informationen liefern. Diese Halluzinationen entstehen, weil die Modelle ausschließlich auf Wahrscheinlichkeiten basieren und versuchen, das wahrscheinlichste nächste Wort vorherzusagen.

Ein Beispiel aus der Praxis: Ein Mann verklagte eine Fluggesellschaft, da er auf einem Flug von einem Servierwagen angefahren wurde (In welchem Land das wohl war?). Der zuständige Anwalt nutzte ChatGPT, um nach Präzedenzfällen für diesen Rechtsstreit zu suchen. Das KI-System generierte daraufhin mehrere scheinbar relevante Gerichtsentscheidungen, komplett mit Zitaten und sogenannten „docket numbers“ (vergleichbar mit deutschen Aktenzeichen). Der Anwalt hat diese Informationen bei Gericht eingereicht, ohne sie vorher zu überprüfen. Du kannst dir natürlich schon denken, was hier passiert ist: All diese von ChatGPT generierten Gerichtsfälle und Zitate waren völlig erfunden.

Dieser Vorfall verdeutlicht die potenziellen Gefahren von KI-Halluzinationen, insbesondere wenn sie im professionellen Kontext einfach ungeprüft übernommen werden. Dies gilt besonders in Bereichen wie der Justiz, wo Genauigkeit und Wahrheit von entscheidender Bedeutung sind, aber auch bei wichtigen Marketingentscheidungen sollten alle Informationen stets geprüft werden, um keine weitreichenden Fehlentscheidungen zu treffen.

Die Bedeutung des Kontexts

Kurz gesagt kann man die Bedeutung von Kontext folgendermaßen zusammenfassen: Je besser und ausführlicher die Kontextinformationen sind, die du der KI gibst, desto präziser und relevanter sind ihre Antworten.

Wenn du die KI nutzt, um Content für verschiedene Zielgruppen zu erstellen, muss sie genaue Informationen über deren Bedürfnisse und Präferenzen geliefert bekommen. Ein unspezifischer Prompt wie „Erstelle einen Blogbeitrag über unser Produkt X“ wird dir nur zu Frustration, und nicht zu einem verwertbaren Text, verhelfen.

Auf der anderen Seite kann ein spezifischer Prompt wie „Erstelle die Agenda eines Blogbeitrags über die Vorteile unseres Produkts X für kleine und mittelständische Unternehmen im Technologiebereich, die ihre Effizienz steigern möchten und in nachhaltige Technologien investieren. Nach der Finalisierung der Agenda erkläre ich dir das weitere Vorgehen Gliederungspunkt für Gliederungspunkt.“, in Verbindung mit ausführlichen Infos über Zielgruppe, Produkt, Markt und zu verwendende Sprache, zu viel nützlicheren Ergebnissen führen.

Das Kontext-Window

Das Kontext-Window definiert die Anzahl der Tokens (Wörter oder Zeichen), die die KI gleichzeitig verarbeiten kann. Je größer das Kontext-Window des Modells, mit dem du arbeitest, desto mehr Informationen kann die KI berücksichtigen, um eine relevante Antwort zu generieren.

Wie auch Menschen, kommen die Modelle aber bei zu viel Information an ihr Limit. Die großen Kontext-Window-Modelle sind nämlich dafür optimiert, spezifische Informationen in großen Datenmengen zu finden: die Nadel im Heuhaufen. Ob dir dazu auch “Cmd+F” ausreicht? Je nachdem, ob du weißt, was du suchst.

Ein kleines Beispiel um es anschaulicher zu machen: Nehmen wir an, man fügt in einen der Harry Potter Romane ein iPhone ein und fragt die KI, ob etwas Ungewöhnliches im Buch vorkommt. Die KI könnte vermutlich erkennen, dass ein iPhone nicht in die magische Welt von Harry Potter passt. Für ungewöhnliche Vorkommnisse in einem größeren Kontext kannst du das große Kontext-Window also durchaus verwenden. Allerdings kann die KI dir nicht alle sieben Harry Potter Bände auf einmal ins Niederländische übersetzen oder umfassend analysieren.

Das Verständnis über die Kontext-Windows ist somit entscheidend, um sie richtig einzusetzen.

Die Rolle der Temperatur in der Textgenerierung

Ein weiteres wichtiges Konzept in der Arbeit mit generativer Sprach-KI ist die sogenannte „Temperatur“. Dieser Parameter bestimmt, wie viel Zufall in die Generierung der Texte einfließen darf.

In der Praxis bedeutet dies, dass bei einer niedrigen Temperatur (bspw. 0,2) die wahrscheinlichsten Wörter ausgewählt werden, was zu einem eher langweiligen, aber konsistenten Text führen kann. Eine hohe Temperatur (bspw. 0,8) lässt die KI auch weniger wahrscheinliche Wörter wählen, was die Kreativität erhöht, aber auch das Risiko von Halluzinationen und inkohärenten Aussagen steigert.

Nehmen wir an, du möchtest einen kreativen Werbeslogan für ein neues Produkt erstellen. Hier wirst du mit einer höheren Temperatur eher einen geeigneten Vorschlag oder Gedankenanstoss bekommen.

Wie du die Temperatur bei den einzelnen LLMs einstellen kannst, sowie auch welche weiteren Parameter besonders relevant sind, erfährst du im Blogartikel unseres Geschäftsführers Alexander Holl.

Praktische Tipps für die Nutzung

Zusammengefasst solltest du also auf folgende drei Aspekte achten, um die Risiken des Halluzinierens zu minimieren und die Vorteile der generativen LLMs optimal zu nutzen:

  • Überprüfe und Validiere: Verlass dich niemals blind auf die von der KI generierten Informationen. Überprüfe die Fakten und validiere die Daten mit echten, vertrauenswürdigen Quellen.
  • Detaillierte Prompts: Gib der KI so viele Kontextinformationen wie möglich. Je detaillierter der Prompt, desto besser das Ergebnis. Achte aber auch darauf, dass die KI bei zu vielen Informationen das Wesentliche aus den Augen verlieren könnte.
  • Einsatzgebiete: Nutze die KI für Aufgaben, bei denen kreative Inhalte gefragt sind, wie Content-Erstellung und Brainstormings. Sei aber vorsichtig bei der Anwendung in kritischen Bereichen wie der Strategieerstellung und dem Zusammensuchen von Daten und Fakten.

Trotz aller Fortschritte und Fähigkeiten der KI ist es wichtig, die Grenzen zu kennen und deine menschliche Kontrolle nicht zu vernachlässigen. Die KI kann deine echten menschlichen Erfahrungen oder intuitiven Urteile niemals ersetzen. Sie basiert auf Wahrscheinlichkeiten und Mustern, die einfach aus großen Datenmengen gelernt wurden. Ein tiefes Verständnis der Funktionsweise und eine kritische Nutzung sind daher entscheidend für deine Arbeit mit allen Sprach-KI-Modellen.

Die ganze Podcast-Folge kannst du dir bei YouTube oder auf allen gängigen Podcast-Portalen anhören.