asd
- Advertisement -spot_img
HomeKünstliche IntelligenzGute Prompts für die Arbeit mit generativer KI

Gute Prompts für die Arbeit mit generativer KI

- Advertisement -spot_img

Interview mit Verena Weber

Künstliche Intelligenzen und Large Language Modelle (LLM), wie ChatGPT werden bereits vielfältig genutzt. Die Qualität des Ergebnisses wird dabei stark vom Input beeinflusst. Wie schreibt man also gute Prompts, damit die KI brauchbare Ergebnisse bringt ? Um diese Fragen zu klären, hat das SQ Magazin mit Verena Weber, Expertin für Generative KI über den Einsatz von Prompts im Business, gesprochen.

Was macht einen guten Prompt aus? Wie sollte der Prompt strukturiert sein?

Verena Weber: Die klassische Prompt-Struktur, mit der man in der Regel, die besten Ergebnisse erzielt besteht aus fünf Teilen:

  1. Act As: Bestimme eine spezifische Rolle für die KI
  2. Context: Beschreibe nun diese spezifische Rolle und füttere sie mit relevanten Informationen.
  3. Task: Formuliere nun präzise die Aufgabe für die KI
  4. Output: Bestimme das Output-Format. Wenn bereits vorhanden, sollten hier Beispiele gegeben werden.
  5. Conclusion: Am Ende können Restriktionen festgelegt oder eine Belohnung versprochen werden. Es gibt Paper, die sagen, dass Belohnungen, wie ein Trinkgeld oder ein Lob, zu einem besseren Output führen.

Ein Beispiel für eine solche Promptstruktur ist:

  1. Act as: Agiere als ein Lehrer, der mir Grundlagen beibringt
  2. Context: Ich bin Anfänger und möchte die Grundlagen des Schachspiels lernen
  3. Task: Erkläre mir die Schachregeln
  4. Output: Erstelle mir eine Anleitung mit simplen Beispielen und erkläre die Regeln schrittweise
  5. Conclusion: Erläutere die Regeln ohne Fachjargon zu verwenden

Wie beeinflusst die Formulierung eines Prompts die Qualität und Genauigkeit der generierten Antworten von KI-Modellen?

Verena Weber: Durch eine sorgfältige Gestaltung des Prompts können Nutzer:innen die Qualität der Antworten eines KI-Modells erheblich verbessern. Hilfreich ist dabei eine klare und präzise Sprache, mit eindeutigen Angaben von relevanten Details. Die Fragen/Aufgaben sollten ebenso klar und spezifisch gestellt werden, d. h. Mehrdeutigkeiten und Vorurteile sollten vermieden werden. Eigentlich ein Basic, aber auch die Grammatik und Rechtschreibung sollte korrekt sein. Ebenso muss die Länge des Prompts an die Komplexität der Aufgabe angepasst sein.

Also je klarer und präziser man im Prompt ist, desto besser ist auch die Antwort, die man erhält.

Welche Rolle spielt das Testen und Iterieren von Prompts im Prozess des Prompt Engineering?

Verena Weber: Ständiges Testen ist extrem wichtig, um qualitativen Output zu erhalten. Man lernt dabei auch selbst, was die besten Ergebnisse erzielt. Der iterative Prozess des Testens und Anpassens von Prompts ermöglicht schließlich eine fortlaufende Verbesserung der Qualität und Relevanz der generierten Antworten. Außerdem können die Nutzer:innen durch systematisches Experimentieren und Anpassen die Stärken des KI-Modells optimal nutzen und gleichzeitig Schwächen minimieren, was zu einer besseren Gesamtleistung führt. Dabei ist es auch hilfreich, der KI konkretes Feedback zu geben, was in der letzten Antwort gefehlt hat oder was verbessert werden kann.

Dabei kommt es auch durchaus auf den Anwendungsfall an – mit der Zeit entwickelt man ein Gespür dafür, wie man iterieren muss, um zu einem gewünschten Ergebnis zu gelangen.

Es gibt sehr viele Beispiele dafür, wie KIs aufgrund der Trainingsdaten, Vorurteile reproduzieren. (Siehe auch den Artikel von Faulstich/Höhn in dieser Ausgabe.) Wie können dann Prompts angepasst werden, um Bias oder unerwünschte Ausgaben zu minimieren?

Verena Weber: Da ich mich auch sehr stark für Women in Tech und speziell in KI interessiere, ist das eine wichtige Frage. Man sollte schon bei seinen eigenen Prompts darauf achten unvoreingenommen, ausgewogen und neutral zu bleiben. Man kann z. B. geschlechtsneutrale Begriffe, wie Führungskräfte verwenden . Bei Fragen oder Argumenten hilft es, nicht zu schreiben „Warum ist XYZ besser als ABC?“. Eine bessere Formulierung hier wäre „Vergleiche die Vor- und Nachteile von XYZ und ABC.“

Zusätzlich kann man das Modell darauf hinweisen, voreingenommene und diskriminierende Inhalte zu vermeiden und explizit diverse Perspektiven einfordern. Wenn es zum Beispiel um Globalisierung geht, könnte man sagen „Gib mir die Auswirkungen aus Sicht der Entwicklungsländer und aus Sicht der Industrieländer“. Anschließend sollte man die Antwort auf Neutralität und Ausgewogenheit analysieren. Falls man Bias und unerwünschte Ausgaben findet, geht es in die nächste Iteration mit dem Hinweis darauf, was im nächsten Prompt verbessert und formuliert werden soll.

Wie kann man gutes Prompting lernen? Wie beginnt man?

Verena Weber: Um Prompting-Grundlagen zu erlernen, findet man vieles online. Am besten legt man dann einfach los und probiert sich aus. Am besten nach der von mir hier beschriebenen Struktur. Da die Interaktion mit den Generativen KIs mittlerweile sehr intuitiv und einfach geworden ist, gilt wirklich Learning by Doing. Durch das direkte Feedback in den Ergebnissen der KI lernt man selbst auch – großes technisches Wissen ist nicht notwendig.

Man kann sich die Interaktion mit der KI so vorstellen, wie die Kommunikation mit z. B. einem sehr jungen und noch unerfahrenen Praktikanten, der Anweisungen möglichst präzise und lückenlos benötigt. Also Schritt-für-Schritt Anleitungen mit möglichst viel Kontext.

Gutes Prompting zu lernen ist ein kontinuierlicher Prozess, der Übung und Anpassung erfordert – wenn man erstmal angefangen hat, merkt man aber auch schnell, dass es nicht so schwer ist. Die Interaktion ähnelt der mit einem Menschen, von daher kann man ruhig seinem Gefühl vertrauen.

Hilfreich sind zum Beispiel auch der Prompt Engineering Guide1 von DAIR.AI und die Übersicht über verschiedene Prompt Engineering Tools auf Learnprompting2.

Welche Best und Worst Practices hast Du beim Prompt Engineering erlebt?

Verena Weber: Ich fange mal beim Positiven an. Wenn ich sinnvolle Beispiele und Referenzen gebe, erhalte ich auch gute Ergebnisse. Negativ sind Dinge, die auch beim Menschen schlecht ankommen: Man sollte also nicht unhöflich oder gar aggressiv gegenüber dem Tool sein. Des Weiteren sind vage und unklare Prompts, die möglicherweise voreingenommen formuliert sind, schlecht für die Arbeit mit der KI. Auch zu viele Fragen und Auf-gaben in einem Prompt sind extrem hinderlich. Besser man benutzt nur eine Frage bzw. Aufgabe pro Prompt.

Ein Tipp noch: Wenn man regelmäßig Prompts nach demselben Muster benutzt, kann man diese auch als eigene Chatbots z. B. in OpenAi erstellen und abspeichern. Diese Empfehlung habe ich zuletzt auch Kunden aus dem Verbandswesen mitgegeben, da dort das Verfassen von Stellungnahmen oft das Zusammenfassen langer Dokumente erfordert. Dies kann mit LLMs deutlich beschleunigt werden.

Unterscheiden sich Prompts bei unterschiedlichen Tools? Gibt es da unterschiedliche Herangehensweisen oder, Spezifikationen?

Verena Weber: Im Prinzip sollte der Prompt immer an den Anwendungsfall und an das verfolgte Ziel angepasst werden – danach entscheidet man auch welches Modell man nutzt. Für allgemeine Informationen eignen sich Modelle wie GPT-4, Gemini, Mistral LeChat und Claude. Aktuell schwärmen besonders viele von den guten Ergebnissen mit Claude, da dieses Programm auch die besten Guardrails bzw. den besten Integritätsschutz hat. Dieses Programm ist allerdings erst seit diesem Mai auf dem europäischen Markt erhältlich.

Da es meiner Meinung nach schwierig ist, einem einzigen Programm einen klaren Vorzug zu geben, arbeite ich selbst häufig mit zwei Modellen, z. B. GPT 4 und Gemini, gleichzeitig. Damit kann ich mir die jeweils besten Ergebnisse aussuchen und zusammenfügen. Bei all diesen Modellen bzw. Tools gilt, dass die Prompts umfassend und detailliert sein sollten.

Anders verhält es sich bei Tools, wie GitHub Copilot zur Generierung von Code: Hier benötigt man präzise, technische Anweisungen. Die Prompts sollten also spezifisch und technisch präzise sein.

Das gesamte Video-Interview können Sie sich hier ansehen:


1 https://www.promptingguide.ai/de

2 https://learnprompting.org/de/docs/tooling/tools

Artikel teilen
Redaktion
Redaktion
Die SQ-Magazin Redaktion ist Ihr Ansprechpartner für alle Fragen, Anregungen und Ideen rund um das SQ-Magazin. Kontaktieren Sie uns gern unter redaktion@sq-magazin.de Wir freuen uns auf Ihre Nachricht!
- Advertisement -Certified DevOps Portfolio
Neueste Artikel
Weitere interessante Artikel
- Advertisement -spot_img
[js-disqus]