Die Kunst des Prompt Engineerings – So verfeinern Sie Ihre Prompts für präzisere Antworten von der KI

KI-Prompting bezeichnet eine Reihe von Methoden, die entwickelt wurden, um die Leistung und Präzision von Künstlichen Intelligenz-Modellen zu verbessern. Durch gezieltes Prompting erhalten Benutzer die Möglichkeit, klare Anweisungen oder Kontexte bereitzustellen, die das Modell dazu anleiten, spezifische Arten von Informationen oder Antworten zu generieren. Unternehmen können die Kunst des Prompt Engineering nutzen, um Interaktionen mit ChatGPT effizienter zu gestalten, indem sie maßgeschneiderte Prompts entwickeln. Prof. Dr. Matthias Wölfel und Katharina Anderer beleuchten in ihrem LEARNTEC-Workshop, wie gezieltes Prompting die Qualität von ChatGPT verbessern kann und führen in verschiedene Techniken wie „Few-Shot-Prompting“ und „Chain-of-Thought-Prompting“ ein, um falsche Antworten zu minimieren. Der Workshop bietet die Möglichkeit, grundlegende Kompetenzen im Prompt Engineering zu erlernen und zu vertiefen, um die Qualität der Interaktionen mit Large Language Modellen zu steigern.

eLearning Journal: Guten Tag Frau Anderer und Prof. Dr. Wölfel. Können Sie zunächst sich und Ihre Tätigkeiten kurz vorstellen?

Katharina Anderer: Ich arbeite seit vergangenem Jahr als Promotionsstudentin des kooperativen Promotionskollegs „Barrierefreiheit durch KI-Basierte Assistive Technologien“ des Karlsruher Instituts für Technologie und der Hochschule Karlsruhe an der Entwicklung eines Sprachassistenten für Vorlesungsfolien, der in der Lage sein soll, visuelle Inhalte für Menschen mit Seheinschränkung aufzubereiten. Dazu beschäftige ich mich intensiv mit Sprachmodellen wie ChatGPT.

Prof. Dr. Matthias Wölfel: Ich bin Professor für Intuitive und Perzeptive Benutzungsschnittstellen an der Hochschule Karlsruhe in der Fakultät für Informatik und Wirtschaftsinformatik und assoziierter Professor an der Universität Hohenheim in der Fakultät für Wirtschafts- und Sozialwissenschaften. Mein Forschungsinteresse umfasst die Mensch-Maschine und Mensch-Maschine-Mensch-Interaktion, Künstliche Intelligenz, Augmented- und Virtual Reality sowie Digitale Kultur. In diesem Zusammenhang entwickeln wir verschiedene Assistenzsysteme zur Lehr-/Lernunterstützung und Berufsempfehlung sowie einen „VR Campus“, in dem man gemeinsam mittel VR-Brillen Lehren und Lernen kann.

eLearning Journal: In Ihrem Workshop „Die Kunst des Prompt Engineering. Wie man ChatGPT & Co. sinnvoll nutzen kann“ vermitteln Sie grundlegende Kompetenzen und Prompt-Techniken. Inwiefern kann gezieltes Prompting dazu beitragen, die Qualität der generierten Antworten zu verbessern?

Prof. Dr. Matthias Wölfel: Gezieltes Prompting kann die Qualität der generierten Antworten erheblich verbessern, indem es dem Sprachmodell klare Anweisungen oder Kontext liefert, welche Art von Informationen oder Antworten erwartet wird. So kann das Sprachmodell genauere, relevantere und kohärentere Antworten generieren, die besser auf die Anforderungen des Benutzers und der Aufgabe zugeschnitten sind. Es ist zum Beispiel möglich, das Auftreten der sogenannten Halluzinationen (so werden Antworten bezeichnet, die falsch sind, sich aber plausibel und glaubwürdig anhören) zu minimieren und die Antwortlänge zu beeinflussen. Dies gelingt, indem man das Modell anweist, nur relevante, kurze und richtige Informationen zu geben und auf bestimmte Quellen zurückzugreifen, die als Dokumente bereitgestellt werden. Aber die Eingriffsmöglichkeiten reichen noch tiefgreifender: Beispielsweise kann man ein Sprachmodell dazu bewegen, eine bestimmte Rolle, wie Tutor oder Quizmaster, einzunehmen. Eine weitere Möglichkeit ist es Feedbackmechanismen in den Prompt zu integrieren, damit das Sprachmodell aus früheren Interaktionen lernen und so seine Antwort kontinuierlich verbessern kann.

eLearning Journal: Welche konkreten Prompt-Techniken werden in Ihrem Workshop thematisiert und wie können diese helfen, das Auftreten von falschen, aber plausiblen Antworten zu minimieren?

Katharina Anderer: Da gibt es zum Beispiel das sogenannte „Few-Shot-Prompting“. Dabei gibt man dem Sprachmodell ein paar Beispiele mit, die zeigen, wie Antworten auf spezifische Fragen aussehen sollen. Dabei erlernt das Sprachmodell anhand von einigen Beispielen ein gewisses Verhalten, das eine höhere Erwartung aufweist. Des Weiteren gibt es das sogenannte „Chain-of-Thought-Prompting“, bei dem das Sprachmodell gezielt dazu bewegt wird, schrittweise vorzugehen, was die Antwortqualität verbessern kann. Auch bei uns Menschen ist das oft so, dass wir zu besseren Antworten kommen, wenn wir ein Problem in Teilschritte zerlegen. Außerdem werden wir noch ein paar andere Techniken kennenlernen, um Antworten zu generieren, die weniger Fehlinformation beinhalten.

eLearning Journal: Wie können Unternehmen und Organisationen die Kunst des Prompt Engineering nutzen, um die Effizienz und Genauigkeit ihrer Interaktionen mit ChatGPT und ähnlichen Modellen zu steigern?

Prof. Dr. Matthias Wölfel: Das kommt sehr auf den Anwendungsfall an. Allgemein gesprochen können Unternehmen und Organisationen die „Kunst des Prompt Engineering“ nutzen, um die Effizienz und Genauigkeit ihrer Interaktionen mit ChatGPT und ähnlichen Sprachmodellen zu steigern. Durch die Entwicklung maßgeschneiderter Prompts und Strategien, die speziell auf spezifische Anforderungen und Ziele zugeschnitten sind, lassen sich die allgemeingültigen Modelle stark auf eine bestimmte Anwendungsdomäne einschränken. In der Software-Entwicklung kann dadurch besserer und konsistenterer Programmcode generiert werden. In der Marktforschung können gezielte Prompts das Sprachmodell dazu bringen, fundierte Einblicke und Vorhersagen zu liefern, die bei Geschäftsentscheidungen unterstützen.

eLearning Journal: Welche Herausforderungen sehen Sie bei der Implementierung von Prompt-Engineering-Methoden in der Praxis und welche Strategien könnten Unternehmen anwenden, um diese Herausforderungen zu überwinden?

Prof. Dr. Matthias Wölfel: Eine der Herausforderungen bei der Implementierung von Prompt-Engineering-Methoden in der Praxis besteht darin, effektive und effiziente Prompts zu entwickeln, die das Modell optimal lenken und steuern, ohne dabei zu restriktiv oder zu komplex zu sein. Weitere Herausforderungen sind aktuell die rapide Weiterentwicklung von Sprachmodellen und das Black Box Verhalten. Im Falle von Chat-GPT erneuert sich oft das Modell, ohne dass die meisten davon etwas mitbekommen. Ein neues Modell erfordert eventuell eine Anpassung von Prompt-Engineering Techniken oder verändert die Antwort. Durch die Black Box können Anwender und sogar Entwickler von Sprachmodellen nicht genau verstehen, wieso bestimmte Textfolgen generiert werden. Dadurch verliert man Kontrolle über die Ergebnisse.

eLearning Journal: Zum Abschluss: Warum sollte man Ihren Workshop auf der LEARNTEC 2024 auf keinen Fall verpassen?

Katharina Anderer: Unser Workshop auf der LEARNTEC 2024 bietet eine einzigartige Gelegenheit, grundlegende Kompetenzen im Bereich des Prompt Engineerings zu erlernen und zu vertiefen. Durch praxisnahe Beispiele, interaktive Übungen und fundierte Einblicke erhalten die Teilnehmenden wertvolle Fähigkeiten und Strategien, um die Qualität und Effektivität ihrer Interaktionen mit ChatGPT und ähnlichen Modellen zu verbessern. Data-Literacy und der Umgang mit KI-Systemen spielen in unserer heutigen Gesellschaft eine immer wichtigere Rolle. Im Workshop erfahren Sie was hinter diesen Modellen steckt.


Kontakt:

Prof. Dr. Matthias Wölfel
Hochschule Karlsruhe
matthias.woelfel@h-ka.de
www.h-ka.dewww.h-ka.de