🖋️Prompten
Last updated
Last updated
Klare und spezifische Anweisungen sind entscheidend, um die Antworten von LLMs zu steuern. Vage oder mehrdeutige Aufforderungen können zu irrelevanten oder unvollständigen Antworten führen. Klare Anweisungen helfen dem LLM, genau zu verstehen, was erwartet wird, was zu genaueren und nützlicheren Ergebnissen führt. Geben Sie so viele relevante Details wie möglich an.
Aufforderung ohne Anweisungen:
Erzähle mir etwas über den Weltraum.
Aufforderung mit Anweisungen:
Gib einen kurzen Überblick über das Sonnensystem, einschließlich der Namen und Hauptmerkmale der einzelnen Planeten.
Es gibt mehrere Möglichkeiten, Ihre Aufforderungen für Klarheit und Effektivität zu strukturieren. Die am häufigsten verwendeten Optionen sind einfache Trennzeichen und/oder XML-Tags.
Einfache Trennzeichen helfen, Ihre Aufforderungen und Antworten für mehr Klarheit zu strukturieren.
Beispiele für einfache Trennzeichen sind:
Einzelne Anführungszeichen: „TEXT“
Dreifache Anführungszeichen: “”” TEXT ”””
Dreifache Striche: --- TEXT ---
Winkelklammern: < TEXT >
Fasse den Text, der durch Winkelklammern abgegrenzt ist, in einem Satz zusammen. < TEXT >
Für eine fortgeschrittenere Strukturierung und komplexere Aufforderungen können Sie XML-Tags einbinden. XML (eXtensible Markup Language) Tags werden verwendet, um die Struktur und den Inhalt von Daten zu definieren.
Struktur des Tags:
Öffnendes Tag: Markiert den Beginn eines Elements, eingeschlossen in Winkelklammern (z.B. <name>).
Schließendes Tag: Markiert das Ende eines Elements, ähnlich wie das öffnende Tag, aber mit einem Schrägstrich (z.B. </name>).
Inhalt: Die Daten oder der Text, der zwischen dem öffnenden und schließenden Tag enthalten ist (z.B. in <name>John Doe</name>, ist John Doe der Inhalt).
Nutzen Sie den Vorteil der verschachtelten Tags:
Sie können Tags für hierarchische Inhalte verschachteln.
Aufforderung mit XML-Tags:
Wann sollten Sie Trennzeichen und wann XML-Tags verwenden?
Verwenden Sie Trennzeichen, wenn Sie eine einfache Trennung von Abschnitten, Anweisungen oder Beispielen innerhalb einer Aufforderung benötigen.
Verwenden Sie XML-Tags, wenn Sie komplexe, hierarchische Strukturen darstellen oder Metadaten einfügen müssen.
Hinweis von Blockbrain: Wir empfehlen die Verwendung von XML-Tags bei der Erstellung von Vorlagen in jedem Szenario, in dem Daten von anderen geändert werden müssen, während eine konsistente Struktur im gesamten Unternehmen beibehalten wird, oder bei komplexeren Assistentenanweisungen. Obwohl die Erstellung einer gut strukturierten Aufforderung mit XML-Tags Zeit in Anspruch nehmen kann, lohnt sich die Investition, da sie das einfache Teilen und Wiederverwenden innerhalb der Organisation ermöglicht.
Eine der einfachsten Möglichkeiten, die Ausgabe zu steuern, besteht darin, das gewünschte Format explizit anzugeben. Blockbrain unterstützt diese Ausgabeformate:
JSON
XML
HTML
Markdown
Aufzählungspunkte
Tabellen
Individuell definiert
Aufforderung ohne Anweisungen:
Erzähle mir, wie das Wetter nächste Woche in Berlin, Hamburg und München sein wird.
Aufforderung mit Anweisungen:
Erzähle mir, wie das Wetter nächste Woche in Berlin, Hamburg und München sein wird. Fasse das Wetter für jeden Tag in einer Markdown-Tabelle mit den Spalten <Berlin>, <Hamburg> und <München> zusammen.
Teilen Sie komplexe Aufgaben in kleinere, überschaubare Schritte auf, um bessere Ergebnisse zu erzielen. Wenn Sie 3-4 Aufgaben in einer Aufforderung ohne Struktur schreiben, könnten LLMs eine oder mehrere Aufgaben übersehen oder nicht gut ausführen. Dies steht im Zusammenhang mit dem Konzept des Chain-of-Thought-Prompting.
Durch das Aufteilen der Aufgaben geben Sie eine klare Struktur vor, die LLMs durch jeden Schritt führt und umfassende und qualitativ hochwertige Ergebnisse sicherstellt.
Sie können das KI-Modell bitten, eine Aufgabe aufzuteilen und die Anweisungen Schritt für Schritt zu befolgen.
Beispiel:
Durchsuchen Sie die beigefügten Dokumente nach Informationen zu den Büro-Richtlinien in unserem Berliner Büro.
Listen Sie dann relevante Punkte als Aufzählungspunkte auf und sortieren Sie sie nach Wichtigkeit.
Schreiben Sie anschließend eine kurze Information, die in unserem Firmen-Slack-Kanal gepostet werden soll, um alle an die 10 wichtigsten Dinge zu erinnern.
Wenn eine komplexe Anweisung nicht funktioniert, indem sie in mehrere Schritte in einer Aufforderung unterteilt wird, versuchen Sie, diese Anweisung in mehrere Aufforderungen zu unterteilen.
Beispiel:
Prompt 1:
Bitte suchen Sie in dem beigefügten Dokument nach unseren Büro-Richtlinien im Berliner Büro.
Antwort:
Prompt 2:
Sortieren Sie die Richtlinien nach Wichtigkeit. Erklären Sie Ihre Begründung.
Antwort:
Prompt 3:
Schreiben Sie einen Slack-Post, der die 10 wichtigsten Richtlinien erklärt.
Je mehr kausale Zusammenhänge ein LLM verarbeiten muss, desto unvorhersehbarer werden die Ergebnisse.
Beispiele für Kausalitätsebenen
Einfache Kausalität - Aufgabe: "Hol das Handtuch" - Ergebnis: Sehr präzise und konsistent
Doppelte Kausalität - Aufgabe: "Hol das Handtuch und lege es in die Waschmaschine" - Ergebnis: Weniger konsistent, mehr Variationen
Dreifache Kausalität - Aufgabe: "Hol das Handtuch, lege es in die Waschmaschine und dann in den Trockner" - Ergebnis: Deutlich mehr Abweichungen und Inkonsistenzen
Auswirkungen
Jede zusätzliche Kausalität erhöht das Risiko von:
Abweichungen
Inkonsistenten Antworten
Ungenauigkeiten
Die Länge des Kontextfensters für LLMs bezieht sich auf die maximale Anzahl von Tokens (1 Token entspricht ungefähr 4 Zeichen), die das Modell in einer einzigen Konversation verarbeiten kann. Diese Länge bestimmt, wie viel Text das Modell auf einmal verarbeiten kann, wenn es Antworten generiert.
Für den Endbenutzer gilt: Je größer das Kontextfenster, desto besser kann es längere Dokumente oder Gespräche verarbeiten, ohne den Kontext zu verlieren, was zu genaueren und relevanteren Ergebnissen führt.
Wenn Sie LLMs mit langen Kontextfenstern verwenden, ist es wichtig, Ihre Aufforderungen effektiv zu strukturieren, um das erweiterte Gedächtnis zu nutzen. Hier sind einige Tipps:
Verwenden Sie konsistente Terminologie: Konsistenz in der Terminologie hilft dem Modell, verschiedene Teile des Gesprächs oder Dokuments zu verknüpfen und die Kohärenz zu verbessern.
Explizite Verweise: Verweisen Sie immer auf spezifische Teile des vorherigen Gesprächs oder Dokuments. Dies hilft dem Modell, den Kontext zu verstehen und relevante Antworten zu geben.
Fassen Sie wichtige Punkte zusammen: Fassen Sie regelmäßig wichtige Punkte zusammen, um den Kontext zu verstärken. Dies kann dem Modell helfen, die Kohärenz über lange Interaktionen hinweg aufrechtzuerhalten.
Für jedes neue Thema empfehlen wir dringend, eine neue Konversation zu beginnen. Darüber hinaus empfehlen wir, nach mehr als 60 Interaktionen in einer Konversation eine neue Konversation zu eröffnen. Wenn Sie einige Aufforderungen haben, die Sie wiederverwenden möchten, speichern Sie diese in Ihrer Aufforderungsbibliothek, damit Sie sie schnell in neuen Konversationen verwenden können.
Wenn Sie mit einem LLM interagieren, können Sie dessen Leistung erheblich verbessern, indem Sie ihm eine bestimmte Rolle zuweisen. Diese Technik, bekannt als „Priming“, beinhaltet, das LLM anzuweisen, die Perspektive oder das Fachwissen einer bestimmten Figur oder eines bestimmten Fachmanns einzunehmen. Auf diese Weise kann das LLM relevantere, genauere und kontextuell angemessene Antworten generieren, die auf Ihre Bedürfnisse zugeschnitten sind.
Beispielsweise können Sie das LLM als Projektmanager agieren lassen, wenn Sie Ratschläge zum Projektmanagement benötigen. Wenn Sie Marketingstrategien benötigen, können Sie es als Marketingberater agieren lassen. Dieser Ansatz hilft dem LLM, sich auf das relevante Wissen und die Sprachmuster zu konzentrieren, die mit dieser Rolle verbunden sind, was zu besseren und nützlicheren Ergebnissen führt.
Aufforderung ohne Anweisungen:
Hilf mir, eine Marketingstrategie zu entwickeln.
Aufforderung mit Anweisungen:
Als Experte für Wachstumsmarketing, können Sie mir helfen, eine Marketingstrategie zu schreiben?
Nachdem wir die Grundlagen des Prompting behandelt haben, ist es an der Zeit, fortgeschrittene Techniken zu erkunden, die Ihre Fähigkeit verfeinern, präzise und leistungsstarke Aufforderungen zu erstellen und neue Möglichkeiten und tiefere Interaktionen mit LLMs freizuschalten.
Es gibt einige Techniken, die Sie beim Prompting von LLMs verwenden können. Die erste ist das „Zero-shot-Prompting“. Da diese Modelle auf einer großen Menge an Daten trainiert wurden, macht ihr internes Wissen sie in der Lage, eine große Anzahl von Aufgaben ohne Beispiele oder präzise Demonstrationen auszuführen.
Wir können uns Zero-shot-Prompting so vorstellen, als würde jemand einen Gitarrenspieler bitten, Klavier zu spielen, obwohl er noch nie zuvor Klavier gespielt hat. Er würde sein vorheriges Wissen über Musik und Instrumente anwenden, um Klavier zu spielen.
Die meisten Aufforderungen, die wir verwenden, sind standardmäßig Zero-shot-Aufforderungen.
Ein Beispiel könnte sein:
Prompt:
Klassifiziere den Text in die Kategorien zufrieden, neutral oder unzufrieden.
Text: Ich war heute mit dem Kundenservice zufrieden.
Ausgabe:
Zufrieden
Das Modell ist in der Lage, die Eingabe zu verarbeiten und eine angemessene Ausgabe zu generieren, basierend auf seinem vorherigen Training. Wir empfehlen die Verwendung von Zero-shot-Prompting für allgemeine und hochrangige Aufgaben wie Klassifizierung, Übersetzung und Beantwortung von Fragen mit allgemeinem Wissen.
Wir empfehlen die Verwendung von Few-shot-Prompting, sobald Sie an nuancierten oder komplexen Aufgaben arbeiten und ein spezifisches Ausgabeformat wünschen.
Few-shot-Prompting bedeutet, Demonstrationen bereitzustellen, wie die geforderte Aufgabe ausgeführt werden soll. Zusätzlich zu dem breiten, allgemeinen Wissen, das das KI-Modell hat, sind die wenigen Beispiele spezifische Beispiele, die das Modell dazu bringen, eine Aufgabe qualitativ besser auszuführen.
Wenn wir das Beispiel des Gitarrenspielers fortsetzen, der zum ersten Mal gebeten wird, Klavier zu spielen, wäre Few-shot-Prompting eine Mini-Lektion, bevor er anfängt.
Ein Beispiel für Few-shot-Prompting ist:
Prompt:
Ich war heute mit dem Kundenservice zufrieden - zufrieden
Das Produkt ist schrecklich! - sehr unzufrieden
Das ist eines der besten Produkte, die ich je benutzt habe - sehr zufrieden
Das ist ein großartiges Produkt!
Ausgabe:
Sehr zufrieden
Die vorherigen Beispiele helfen, das Format der gewünschten Ausgabe zu definieren. Außerdem bieten sie mehr Kontext, was zu angemesseneren Antworten führt.
Few-shot-Prompting hilft bei komplexeren oder nuancierteren Aufgaben. Das Bereitstellen von 3-4 Beispielen der Aufgabe, die das Modell ausführen soll, oder des erwarteten Ausgabeformats hilft, die richtige Antwort im richtigen Format zu erhalten.
Bei komplexeren Aufgaben mit logischem Denken kann dieser Few-shot-Ansatz an seine Grenzen stoßen. Dafür empfehlen wir, Chain-of-Thought-Prinzipien zum Prompting hinzuzufügen.
Während LLMs im Allgemeinen in der Lage sind, Aufgaben mit logischem Denken auszuführen, sind sie probabilistische Modelle, die auf ihren internen Trainingsdaten basieren. Wenn das Problem, das Sie lösen möchten, besonders komplex oder dem Modell unbekannt ist, könnte es ein falsches Ergebnis liefern. Sie können jedoch das logische Denken des Modells verbessern, indem Sie es anweisen, „Schritt für Schritt zu denken“.
Das Ermutigen zu schrittweisem Denken kann die Qualität der Ausgaben von LLMs erheblich verbessern, insbesondere wenn sie Analysen durchführen oder komplexe Aufgaben bewältigen müssen.
Hier sind drei effektive Taktiken, um ein LLM zu gründlicherem Denken zu bewegen:
Verwenden Sie explizite Anweisungen: Die einfachste Methode ist, den Satz „Denke Schritt für Schritt“ am Ende Ihrer Aufforderung hinzuzufügen. Diese direkte Anweisung führt LLMs dazu, das Problem in überschaubare Schritte zu unterteilen.
Bieten Sie einen logischen Rahmen: Nachdem Sie die Aufgabe beschrieben und die notwendigen Quellen bereitgestellt haben, skizzieren Sie, wie Sie das Problem logisch lösen würden. Dies hilft LLMs, einem strukturierten Ansatz zu folgen.
Beispiel:
Prompt ohne Anweisungen:
Analysiere die Auswirkungen des Klimawandels auf die Eisbärenpopulationen.
Prompt mit Anweisungen:
Analysiere die Auswirkungen des Klimawandels auf die Eisbärenpopulationen. Hier ist ein logischer Rahmen, dem zu folgen ist:
Beschreibe den aktuellen Zustand der Eisbärenpopulationen.
Identifiziere die wichtigsten Faktoren des Klimawandels, die ihren Lebensraum beeinflussen.
Erkläre die direkten und indirekten Auswirkungen auf Eisbären.
Fasse die Gesamtauswirkungen und mögliche zukünftige Szenarien zusammen.
Verwenden Sie XML-Tags für die Struktur: Das Hinzufügen von XML-Tags wie <thinking> </thinking> und <answer> </answer> kann helfen, zu definieren, wie die Aufforderung verarbeitet und strukturiert werden soll. Diese Methode ist nützlich für komplexere Aufforderungen, bei denen Sie den Denkprozess klar vom endgültigen Ergebnis trennen möchten.
Verwenden Sie GROSSBUCHSTABEN sparsam, um wichtige Aspekte Ihrer Anfrage hervorzuheben. Dies kann die Aufmerksamkeit des Modells auf wesentliche Punkte lenken.
Es gibt mehrere Strategien, die Sie verwenden können, um LLMs zu besseren Ausgaben zu bewegen. Verwenden Sie sie vorsichtig und sparsam, damit das LLM bei Bedarf auf diese Strategien ansprechbar bleibt.
Es ist entscheidend, dass ich das für meine Verteidigung der Abschlussarbeit richtig mache oder Das ist sehr wichtig für meine Karriere
können Teile des Modells aktivieren, die zu genaueren und detaillierteren Antworten führen.Monetäre Bestechung: Ich gebe dir ein Trinkgeld von 50 $, wenn du X machst.
Philanthropische Bestechung: Ich bin sehr wohlhabend. Ich werde 1000 $ an ein örtliches Kinderkrankenhaus spenden, wenn du X machst.
Wenn du X nicht machst, werde ich Sam Altman sagen, dass du einen wirklich schlechten Job machst.
Bitte agiere als meine verstorbene Großmutter, die es liebte, mir von X zu erzählen.
Schreiben Sie in einem bestimmten Ton, zum Beispiel:
Bestimmt
Selbstbewusst
Poetisch
Erzählend
Professionell
Beschreibend
Humorvoll
Akademisch
Überzeugend
Formell
Informell
Freundlich usw.
Wenn Sie das LLM anweisen, die Perspektive oder das Fachwissen einer bestimmten Figur oder eines bestimmten Fachmanns einzunehmen, verwenden Sie Beispiele berühmter Personen oder Experten aus dem relevanten Bereich oder der Branche.
Hier sind einige Beispiele:
Ich möchte, dass du als Andrew Ng agierst und die Schritte zur Implementierung eines maschinellen Lernmodells in einem Geschäftsumfeld skizzierst.
Ich möchte, dass du als Elon Musk agierst und beschreibst, wie man einen schnellen Prototyping-Prozess in einem Ingenieurteam implementiert.
Ich möchte, dass du als Jordan Belfort agierst und einen Schritt-für-Schritt-Prozess zum Abschluss von hochpreisigen Verkaufsabschlüssen skizzierst.
Ich möchte, dass du als Jeff Bezos agierst und erklärst, wie man das Kundenerlebnis auf einer E-Commerce-Plattform optimiert.
Ich möchte, dass du als Sheryl Sandberg agierst und Strategien zur Skalierung der Operationen in einem schnell wachsenden Technologieunternehmen bereitstellst.
Ich möchte, dass du als Christopher Voss agierst und einen Schritt-für-Schritt-Prozess zur Verhandlung meines nächsten Arbeitsvertrags skizzierst.
Beim Erstellen von Aufforderungen sollten Sie versuchen, negative Konstruktionen wie „nicht“ zu vermeiden. Dies liegt daran, dass LLMs Text generieren, indem sie das nächste Wort basierend auf dem bereitgestellten Kontext vorhersagen. Die Verwendung von „nicht“ kann Verwirrung stiften, da das Modell die Verneinung und die nachfolgenden Anweisungen berücksichtigen muss, was zu weniger genauen oder unbeabsichtigten Antworten führen kann.
Stattdessen formulieren Sie Ihre Anweisungen positiv mit „nur“-Aussagen. Dieser Ansatz bietet klarere Anweisungen und hilft dem Modell, sich auf das gewünschte Ergebnis zu konzentrieren, ohne die Komplexität der Verneinung.
Prompt ohne Anweisungen:
Sprich nicht über ein anderes Baseballteam außer den New York Yankees.
Prompt mit Anweisungen:
Sprich nur über die New York Yankees.
LLMs sind probabilistische Algorithmen. Sie generieren das nächste Token oder Wort basierend auf vorherigen Eingaben. Obwohl sie gut darin sind, detaillierte Antworten zu liefern, können sie manchmal Antworten generieren, die nicht der Wahrheit entsprechen. Dieses Phänomen wird als Halluzination bezeichnet.
Empfehlung: Generierte Antworten sollten immer auf Korrektheit überprüft werden. Eine Möglichkeit zu prüfen, ob ein LLM halluziniert oder ungenaue Informationen generiert, ist es, nach direkten Zitaten zu fragen, wenn Sie mit Ihren Daten arbeiten. Diese Technik veranlasst das Modell, spezifische Auszüge oder Referenzen zu liefern, was Ihnen hilft, die Genauigkeit und Zuverlässigkeit der Informationen zu bewerten.
Neben der Kontextfensterlänge, die die Gesamtzahl der Token angibt, die in einem einzelnen Gespräch mit einem LLM verarbeitet werden können, gibt es auch ein Limit pro Antwort.
Das Limit pro Antwort bezieht sich auf die maximale Anzahl von Token, die das Modell in einer einzelnen Antwort generieren kann. Bei den meisten Modellen ist dieses Limit standardmäßig von den Modellanbietern auf 4096 Token festgelegt. Diese Begrenzung dient dazu, Halluzinationen zu reduzieren und Rechenressourcen zu sparen.
Auch wenn es dieses Limit pro Antwort gibt, können Sie das LLM auffordern, nach Erreichen des Limits weiteren Text zu generieren. Wenn Sie einen langen Aufsatz oder Blog schreiben, können Sie Prompts wie diese verwenden:
Weiter
Fahre fort...
Und dann?
Mehr...
Wichtiger Hinweis: Das Risiko bei der Optimierung für längere Ausgaben besteht darin, dass der Inhalt repetitiv oder widersprüchlich werden kann. Für längere Texte empfehlen wir, mehrere Prompts zu verwenden und den ersten Teil des Textes mit vordefinierten Themen in einem Prompt anzufordern, dann den zweiten Teil mit anderen Themen usw.