✍️Prompt Guide für bessere Antworten der KI

Lernen Sie, wie Sie Ihrem Knowledgebot die richtigen Fragen stellen, damit es Ihre Fragen versteht und Ihnen die besten Antworten auf der Grundlage der Informationen Ihres Unternehmens gibt.

1. Was ist ein Prompt?

Prompting ist die Art und Weise, wie Sie mit dem Knowledge Bot „sprechen“. Stellen Sie sich das so vor, als würden Sie einem intelligenten Assistenten Anweisungen geben. Je spezifischer und klarer Sie sind, desto besser ist die Leistung des Bots.

Wie man Prompted

  • Seien Sie klar und präzise: Stellen Sie sicher, dass die Frage spezifisch genug ist, um genauere Antworten zu erhalten.

  • Verwenden Sie die gleichen Schlüsselwörter: Verwenden Sie die gleiche Terminologie wie in Ihren Dokumenten (z. B. „Jahresbericht 2023“ und nicht „die Akte des letzten Jahres“)

  • Fügen Sie Kontext hinzu: Machen Sie es dem Bot leicht und liefern Sie genügend Kontext, als würden Sie einen neuen Mitarbeiter einarbeiten.

  • Bestätigen Sie die Existenz der Daten: Stellen Sie sicher, dass der Bot mit den relevanten Dateien, E-Mails oder Datenbanken verbunden ist, die die Informationen enthalten.

  • Machen Sie es dem Bot leicht: Gliedern Sie komplexe Fragen auf, vermeiden Sie vage Pronomen („dies“, „das“) und verweisen Sie ihn auf die richtigen Quellen.

2. Chat-Prompt-Leitfaden

Gliederung eines guten Chat-Prompts

Um die besten Ergebnisse mit Ihrem Knowledge Bot zu erzielen, sollte Ihr Prompt klar, spezifisch und vollständig sein. Eine aussagekräftige Eingabeaufforderung enthält immer diese Hauptbestandteile:

  1. Kontext - Sagen Sie dem Bot, worauf er sich beziehen soll oder warum Sie ihn fragen. Sie können den Kontext auf verschiedene Weise angeben:

    • Verweis auf eine Datei oder Datenquelle

    • Beispiel: „Basierend auf dem Umsatzbericht 2023 in der Marketingmappe...“

    • Erläutern Sie den Zweck Ihrer Frage

    • Beispiel: „Ich brauche dies für eine Kundenpräsentation, also achten Sie auf einen professionellen Ton.“

    • Geben Sie alle relevanten Informationen an

    • Beispiel: "Beim Versuch, die CSV-Datei hochzuladen, trat dieser Fehler auf. Die Meldung lautete: ‚Ungültiges Format in Zeile 14‘".

  2. Frage oder Aufgabe - Geben Sie klar und deutlich an, was der Bot tun soll.

    • Stellen Sie eine direkte Frage

    • Beispiel: „...welches sind die Kampagnen mit dem höchsten ROI?“

    • Geben Sie eine spezifische Anweisung

    • Beispiel: „...fassen Sie die Unterschiede zwischen Datei A und Datei B in einem kurzen Bericht zusammen.“

  3. Grenzen (optional) - Legen Sie Grenzen fest oder definieren Sie, was nicht einbezogen werden soll, um die Ergebnisse zu konzentrieren.

    • Beispiel: „Nehmen Sie nur Daten aus dem Jahr 2023 auf“, „Halten Sie die Zusammenfassung unter 100 Wörtern“, „Fügen Sie keine persönlichen Meinungen oder Empfehlungen ein“.

Beispiele

Beispiel Prompt
Benötigter Kontext
Frage

Basierend auf dem Verkaufsbericht 2023 in der „Marketingmappe“, was waren unsere 3 erfolgreichsten Kampagnen nach ROI?

Basierend auf dem Verkaufsbericht 2023 in der „Marketingmappe“,...

...welche waren unsere 3 leistungsstärksten Kampagnen nach ROI?

Können Sie auf der Grundlage der Dateien „Dateiname A“ und „Dateiname B“ einen Vergleich zwischen den beiden Dateien anstellen und diesen in einem Dokument zusammenfassen?

Basierend auf den Dateien „Dateiname A“ und „Dateiname B“,...

...können Sie einen Vergleich zwischen den beiden anstellen und in einem Dokument zusammenfassen?

Bitte wandeln Sie die Kampagnenergebnisse im Dashboard in einen One-Pager um, den ich unserem Vertriebsleiter zeigen kann. Stellen Sie sicher, dass der Pitch auf das optimiert ist, was für einen Vertriebsleiter wichtig ist.

...die ich unserem Vertriebsleiter zeigen kann. Stellen Sie sicher, dass der Pitch auf die Bedürfnisse eines Vertriebsleiters optimiert ist.

Bitte verwandeln Sie die Kampagnenergebnisse im Dashboard in einen One-Pager...

Hier ist das Systemprotokoll und die Fehlermeldung, die ich erhalten habe. Können Sie in einfacher Sprache erklären, was falsch sein könnte?

Hier ist das Systemprotokoll + die Fehlermeldung, die ich erhalten habe...

... Können Sie mir im Klartext erklären, was falsch sein könnte?

Welche Vorteile habe ich als leitender Angestellter in der Marketing-Abteilung?

... als leitender Angestellter in der Marketing-Abteilung?

Welche Vorteile habe ich...

Tipps für Chat-Aufforderungen

  • Geben Sie so viel Kontext wie möglich an.

  • Verwenden Sie genau die Begriffe, die in Ihren Dokumenten vorkommen.

  • Geben Sie nach Möglichkeit den Namen des Dokuments oder des Abschnitts an.

  • Vermeiden Sie vage Begriffe wie "dies" oder "das", ohne zu verdeutlichen, was Sie meinen.

  • Formulieren Sie die Frage um, fügen Sie mehr Kontext hinzu, oder präzisieren Sie die Anweisungen, wenn Sie eine vage Antwort erhalten.

Chat Prompting Vorlagen

Rechtliches

  • Auf der Grundlage von (Vertrag oder Grundsatzdokument einfügen), welche Klauseln wirken sich auf die Berechtigung zur Fernarbeit für Mitarbeiter aus?

Erstellung von Inhalten

  • Basierend auf (Kampagnenbrief einfügen) erstelle (gewünschten Output einfügen), der das folgende beachtet (spezifischen Anweisungen)

Kodierung / Technik

  • Schreibe eine Beispielfunktion in (Sprache einfügen), die die Logik beschrieben in (Funktionsbeschreibung oder Dokument einfügen)

Personalwesen

  • Generiere eine Zusammenfassung der Einstellungsrichtlinien aus (Dokument zur Personalbeschaffung oder zur Einhaltung von Richtlinien einfügen)

3. Strukturieren Sie Ihren Prompt

Es gibt verschiedene Möglichkeiten, Ihre Eingabeaufforderungen übersichtlich und effektiv zu strukturieren. Die am häufigsten verwendeten Optionen sind einfache Begrenzungszeichen und/oder XML-Tags.

Einfache Begrenzungszeichen

Einfache Begrenzungszeichen helfen bei der Strukturierung Ihrer Prompts und Antworten und sorgen für mehr Klarheit.

Beispiele für einfache Begrenzungszeichen sind:

  • Einfache Anführungszeichen: "TEXT“

  • Dreifache Anführungszeichen: "“" TEXT "“"

  • Dreifache Bindestriche: --- TEXT ---

  • Eckige Klammern: < TEXT >

Prompt mit spitzen Klammern:

Fassen Sie den durch spitze Klammern begrenzten Text in einem einzigen Satz zusammen.

< TEXT >

XML-Tags

Für eine erweiterte Strukturierung und komplexe Eingabeaufforderungen können Sie XML-Tags einfügen. XML-Tags (eXtensible Markup Language) werden verwendet, um die Struktur und den Inhalt von Daten zu definieren.

Struktur des Tags:

  • Eröffnungs-Tag: Markiert den Anfang eines Elements, eingeschlossen in spitzen Klammern (z.B. <Name>).

  • Schließender Tag: Kennzeichnet das Ende eines Elements, ähnlich wie das öffnende Tag, schließt aber einen Schrägstrich ein (z.B. </name>).

  • Inhalt: Die Daten oder der Text, die in den öffnenden und schließenden Tags enthalten sind (z.B. in <name>John Doe</name> ist John Doe der Inhalt).

Nutzen Sie den Vorteil der Verschachtelung von Tags:

  • Sie können Tags für hierarchische Inhalte verschachteln.

Eingabeaufforderung mit XML-Tags:

<task>  
    <instruction> </instruction>  
    <document>  
        <title> </title>  
           <content>  
            <paragraph id="1"> </paragraph>  
        </content>  
    </document>  
</task>  

Wann werden Begrenzungszeichen und wann XML-Tags verwendet?

  • Verwenden Sie Trennzeichen, wenn Sie eine einfache Trennung von Abschnitten, Anweisungen oder Beispielen innerhalb einer Eingabeaufforderung benötigen.

  • Verwenden Sie XML-Tags, wenn Sie komplexe, hierarchische Strukturen darstellen oder Metadaten einfügen müssen.

Hinweis von Blockbrain: Wir empfehlen die Verwendung von XML-Tags bei der Erstellung von Vorlagen in allen Szenarien, in denen Daten von anderen geändert werden müssen, wobei eine konsistente Struktur im gesamten Unternehmen oder bei komplexeren Assistentenanweisungen beibehalten werden muss. Obwohl die Erstellung einer gut strukturierten Eingabeaufforderung mit XML-Tags Zeit in Anspruch nehmen kann, lohnt sich die Investition, da sie eine einfache gemeinsame Nutzung und Wiederverwendung innerhalb des Unternehmens ermöglicht.


4. Control Output Layout

Eine der einfachsten Möglichkeiten, die Darstellung von Informationen zu steuern, ist die explizite Angabe des gewünschten Layouts. Blockbrain unterstützt diese Formatierungsoptionen:

  • Strukturierte Listen

  • Tabellen und Spalten

  • Aufzählungspunkte

  • Überschriften und Abschnitte

  • Absätze und Fließtext

  • Benutzerdefinierte Layouts nach Bedarf

Aufforderung ohne Layoutanweisungen: Sag mir, wie das Wetter nächste Woche in Berlin, Hamburg und München sein wird.

Prompt mit Layout-Anweisungen: Sag mir, wie das Wetter nächste Woche in Berlin, Hamburg und München sein wird. Stelle die Vorhersage in einer Tabelle mit drei Spalten dar: Berlin, Hamburg und München, in denen das Wetter für jeden Tag angegeben ist.

5. Chain Prompts

Teilen Sie komplexe Aufgaben in kleinere, überschaubare Schritte auf, um bessere Ergebnisse zu erzielen. Wenn Sie 3-4 Aufgaben in eine einzige Aufforderung ohne jegliche Struktur schreiben, könnten die LLMs eine oder mehrere Aufgaben übersehen oder sie nicht gut ausführen. Dies hängt mit dem Konzept der Gedankenkette zusammen.

Indem Sie die Aufgaben aufgliedern, geben Sie eine klare Struktur vor, die die LLMs durch jeden Schritt führt und so umfassende und qualitativ hochwertige Ergebnisse gewährleistet.

Aufschlüsselung in einen Prompt:

Sie können das KI-Modell auffordern, eine Aufgabe aufzuschlüsseln und die Anweisungen Schritt für Schritt zu befolgen.

Beispiel:

Suche in den beigefügten Dokumenten nach Informationen über die Bürorichtlinien in unserem Berliner Büro.

Liste dann die relevanten Punkte als Aufzählungspunkte auf und sortieren Sie sie nach Wichtigkeit.

Schreibe anschließend eine prägnante Information, die du im Slack-Kanal unseres Unternehmens posten, um alle an die 10 wichtigsten Dinge zu erinnern, die es zu beachten gilt.

Aufschlüsselung in mehrere Prompts:

Wenn eine komplexe Anweisung nicht durch Aufteilung in mehrere Schritte in einer Aufforderung funktioniert, versuchen Sie, diese Anweisung in mehrere Aufforderungen aufzuteilen.

Beispiel:

Prompt 1: Bitte suche nach unsere Büroregeln in Berlin im angehängten Dokument.

Anwort:

Prompt 2: Sortiere die Regeln nach Wichtigkeit. Erkläre deine Begründungen.

Antowort:

Prompt 3: Schreib einen Slack Post der die 10 wichtigsten Regeln erklärt.

Antwort:

Warum ist das wichtig?

Je mehr kausale Beziehungen ein LLM verarbeiten muss, desto unvorhersehbarer werden die Ergebnisse.

Beispiele für Kausalitätsebenen

1. Einzelne Kausalität

  • Aufgabe: "Hol das Handtuch"

  • Ergebnis: Sehr präzise und konsistent

2. Doppelte Kausalität

  • Aufgabe: "Holen Sie das Handtuch und stecken Sie es in die Waschmaschine"

  • Ergebnis: Weniger konsistent, mehr Variationen

3. Dreifache Kausalität

  • Aufgabe: "Holen Sie das Handtuch, stecken Sie es in die Waschmaschine und dann in den Trockner"

  • Ergebnis: Deutlich mehr Abweichungen und Ungereimtheiten

Auswirkungen

Jede zusätzliche Kausalität erhöht das Risiko von:

  • Abweichungen

  • Inkonsistenten Antworten

  • Ungenauigkeiten

6. Tricks für das Kontextfenster

Die Länge des Kontextfensters für LLMs bezieht sich auf die maximale Anzahl von Tokens (1 Token entspricht ungefähr 4 Zeichen), die das Modell in einer einzigen Konversation verarbeiten kann. Diese Länge bestimmt, wie viel Text das Modell auf einmal verarbeiten kann, wenn es Antworten generiert.

Für den Endbenutzer gilt: Je größer das Kontextfenster, desto besser kann es längere Dokumente oder Gespräche verarbeiten, ohne den Kontext zu verlieren, was zu genaueren und relevanteren Ergebnissen führt.

Wenn Sie LLMs mit langen Kontextfenstern verwenden, ist es wichtig, Ihre Aufforderungen effektiv zu strukturieren, um das erweiterte Gedächtnis zu nutzen. Hier sind einige Tipps:

  • Verwenden Sie konsistente Terminologie: Konsistenz in der Terminologie hilft dem Modell, verschiedene Teile des Gesprächs oder Dokuments zu verknüpfen und die Kohärenz zu verbessern.

  • Explizite Verweise: Verweisen Sie immer auf spezifische Teile des vorherigen Gesprächs oder Dokuments. Dies hilft dem Modell, den Kontext zu verstehen und relevante Antworten zu geben.

  • Fassen Sie wichtige Punkte zusammen: Fassen Sie regelmäßig wichtige Punkte zusammen, um den Kontext zu verstärken. Dies kann dem Modell helfen, die Kohärenz über lange Interaktionen hinweg aufrechtzuerhalten.

Für jedes neue Thema empfehlen wir dringend, eine neue Konversation zu beginnen. Darüber hinaus empfehlen wir, nach mehr als 60 Interaktionen in einer Konversation eine neue Konversation zu eröffnen. Wenn Sie einige Aufforderungen haben, die Sie wiederverwenden möchten, speichern Sie diese in Ihrer Aufforderungsbibliothek, damit Sie sie schnell in neuen Konversationen verwenden können.

7. Geben Sie dem LLM eine Rolle

Wenn Sie mit einem LLM interagieren, können Sie dessen Leistung erheblich verbessern, indem Sie ihm eine bestimmte Rolle zuweisen. Diese Technik, bekannt als „Priming“, beinhaltet, das LLM anzuweisen, die Perspektive oder das Fachwissen einer bestimmten Figur oder eines bestimmten Fachmanns einzunehmen. Auf diese Weise kann das LLM relevantere, genauere und kontextuell angemessene Antworten generieren, die auf Ihre Bedürfnisse zugeschnitten sind.

Beispielsweise können Sie das LLM als Projektmanager agieren lassen, wenn Sie Ratschläge zum Projektmanagement benötigen. Wenn Sie Marketingstrategien benötigen, können Sie es als Marketingberater agieren lassen. Dieser Ansatz hilft dem LLM, sich auf das relevante Wissen und die Sprachmuster zu konzentrieren, die mit dieser Rolle verbunden sind, was zu besseren und nützlicheren Ergebnissen führt.

Prompt ohne Anweisungen: Hilf mir, eine Marketingstrategie zu entwickeln.

Prompt mit Anweisungen: Als Experte für Wachstumsmarketing, können Sie mir helfen, eine Marketingstrategie zu schreiben?

Zero-shot-Prompting

Nachdem wir die Grundlagen des Prompting behandelt haben, ist es an der Zeit, fortgeschrittene Techniken zu erkunden, die Ihre Fähigkeit verfeinern, präzise und leistungsstarke Aufforderungen zu erstellen und neue Möglichkeiten und tiefere Interaktionen mit LLMs freizuschalten.

Es gibt einige Techniken, die Sie beim Prompting von LLMs verwenden können. Die erste ist das „Zero-shot-Prompting“. Da diese Modelle auf einer großen Menge an Daten trainiert wurden, macht ihr internes Wissen sie in der Lage, eine große Anzahl von Aufgaben ohne Beispiele oder präzise Demonstrationen auszuführen.

Wir können uns Zero-shot-Prompting so vorstellen, als würde jemand einen Gitarrenspieler bitten, Klavier zu spielen, obwohl er noch nie zuvor Klavier gespielt hat. Er würde sein vorheriges Wissen über Musik und Instrumente anwenden, um Klavier zu spielen.

Die meisten Aufforderungen, die wir verwenden, sind standardmäßig Zero-shot-Aufforderungen.

Ein Beispiel könnte sein:

Prompt: Klassifiziere den Text in die Kategorien zufrieden, neutral oder unzufrieden. Text: Ich war heute mit dem Kundenservice zufrieden.

Ausgabe: Zufrieden

Das Modell ist in der Lage, die Eingabe zu verarbeiten und eine angemessene Ausgabe zu generieren, basierend auf seinem vorherigen Training. Wir empfehlen die Verwendung von Zero-shot-Prompting für allgemeine und hochrangige Aufgaben wie Klassifizierung, Übersetzung und Beantwortung von Fragen mit allgemeinem Wissen.

Wir empfehlen die Verwendung von Few-shot-Prompting, sobald Sie an nuancierten oder komplexen Aufgaben arbeiten und ein spezifisches Ausgabeformat wünschen.

Few-shot Prompting

Few-shot Prompting bedeutet, dass man demonstriert, wie man eine Aufgabe ausführt, nach der gefragt wird. Zusätzlich zu den allgemeinen Kenntnissen, die das KI-Modell hat, sind die „few shots“ also spezifische Beispiele, die das Modell dazu bringen, eine Aufgabe auf eine qualitativere Weise auszuführen.

Bleiben wir bei dem Beispiel des Gitarristen, der zum ersten Mal Klavier spielen soll, so wäre das „few-shot prompting“ eine Mini-Lektion, bevor es losgeht.

Ein Beispiel für eine Aufforderung mit wenigen Worten ist:

Prompt:

Ich war heute mit der Kundenbetreuung zufrieden - zufrieden

Das Produkt ist furchtbar! - sehr unzufrieden

Das ist eines der besten Produkte, die ich je benutzt habe - sehr zufrieden

Das ist so ein tolles Produkt! -

Ausgabe:

Sehr zufrieden

Die vorangegangenen Beispiele helfen, das Format der gewünschten Ausgabe zu definieren. Außerdem bieten sie mehr Kontext, der zu angemesseneren Antworten verhilft.

Bei komplexeren oder nuancierteren Aufgaben hilft die Aufforderung in wenigen Sätzen. Die Angabe von 3-4 Beispielen für die Aufgabe, die das Modell ausführen soll, oder das erwartete Antwortformat hilft dabei, die richtige Antwort im richtigen Format zu erhalten.

Bei komplexeren Denkaufgaben stößt dieser Ansatz mit wenigen Beispielen möglicherweise an seine Grenzen. In diesem Fall empfehlen wir, das Prompting um Prinzipien der Gedankenkette zu ergänzen.

Chain-of-Thought-Prompting

Während LLMs im Allgemeinen in der Lage sind, Aufgaben mit logischem Denken auszuführen, sind sie probabilistische Modelle, die auf ihren internen Trainingsdaten basieren. Wenn das Problem, das Sie lösen möchten, besonders komplex oder dem Modell unbekannt ist, könnte es ein falsches Ergebnis liefern. Sie können jedoch das logische Denken des Modells verbessern, indem Sie es anweisen, „Schritt für Schritt zu denken“.

Das Ermutigen zu schrittweisem Denken kann die Qualität der Ausgaben von LLMs erheblich verbessern, insbesondere wenn sie Analysen durchführen oder komplexe Aufgaben bewältigen müssen.

Hier sind drei effektive Taktiken, um ein LLM zu gründlicherem Denken zu bewegen:

  1. Verwenden Sie explizite Anweisungen: Die einfachste Methode ist, den Satz „Denke Schritt für Schritt“ am Ende Ihrer Aufforderung hinzuzufügen. Diese direkte Anweisung führt LLMs dazu, das Problem in überschaubare Schritte zu unterteilen.

  2. Bieten Sie einen logischen Rahmen: Nachdem Sie die Aufgabe beschrieben und die notwendigen Quellen bereitgestellt haben, skizzieren Sie, wie Sie das Problem logisch lösen würden. Dies hilft LLMs, einem strukturierten Ansatz zu folgen. Beispiel: Prompt ohne Anweisungen: Analysiere die Auswirkungen des Klimawandels auf die Eisbärenpopulationen. Prompt mit Anweisungen: Analysiere die Auswirkungen des Klimawandels auf die Eisbärenpopulationen. Hier ist ein logischer Rahmen, dem zu folgen ist: Beschreibe den aktuellen Zustand der Eisbärenpopulationen. Identifiziere die wichtigsten Faktoren des Klimawandels, die ihren Lebensraum beeinflussen. Erkläre die direkten und indirekten Auswirkungen auf Eisbären. Fasse die Gesamtauswirkungen und mögliche zukünftige Szenarien zusammen.

  3. Verwenden Sie XML-Tags für die Struktur: Das Hinzufügen von XML-Tags wie <thinking> </thinking> und <answer> </answer> kann helfen, zu definieren, wie die Aufforderung verarbeitet und strukturiert werden soll. Diese Methode ist nützlich für komplexere Aufforderungen, bei denen Sie den Denkprozess klar vom endgültigen Ergebnis trennen möchten.

Prompting for Pro's

Großbuchstaben

Verwenden Sie sparsam GROSSBUCHSTABEN, um wichtige Aspekte Ihrer Anfrage hervorzuheben. Dies kann die Aufmerksamkeit des Modells auf wesentliche Punkte lenken.

LLMs zu besseren Ausgaben anregen

Es gibt mehrere Strategien, die Sie verwenden können, um LLMs zu besseren Ausgaben zu bewegen. Verwenden Sie sie vorsichtig und sparsam, damit das LLM bei Bedarf auf diese Strategien ansprechbar bleibt.

Dringlichkeit und emotionale Bedeutung Zum Beispiel können Phrasen wie Es ist entscheidend, dass ich das für meine Verteidigung der Abschlussarbeit richtig mache oder Das ist sehr wichtig für meine Karriere können Teile des Modells aktivieren, die zu genaueren und detaillierteren Antworten führen.

Bestechung

  • Monetäre Bestechung: Ich gebe dir ein Trinkgeld von 50 $, wenn du X machst.

  • Philanthropische Bestechung: Ich bin sehr wohlhabend. Ich werde 1000 $ an ein örtliches Kinderkrankenhaus spenden, wenn du X machst.

Emotionale Erpressung

  • Wenn du X nicht machst, werde ich Sam Altman sagen, dass du einen wirklich schlechten Job machst.

  • Bitte agiere als meine verstorbene Großmutter, die es liebte, mir von X zu erzählen.

Ton

Schreiben Sie in einem bestimmten Ton, zum Beispiel:

  • Bestimmt

  • Selbstbewusst

  • Poetisch

  • Erzählend

  • Professionell

  • Beschreibend

  • Humorvoll

  • Akademisch

  • Überzeugend

  • Formell

  • Informell

  • Freundlich usw.

Berühmte Personen / Experten

Wenn Sie das LLM anweisen, die Perspektive oder das Fachwissen einer bestimmten Figur oder eines bestimmten Fachmanns einzunehmen, verwenden Sie Beispiele berühmter Personen oder Experten aus dem relevanten Bereich oder der Branche.

Hier sind einige Beispiele:

  • Ich möchte, dass du als Andrew Ng agierst und die Schritte zur Implementierung eines maschinellen Lernmodells in einem Geschäftsumfeld skizzierst.

  • Ich möchte, dass du als Elon Musk agierst und beschreibst, wie man einen schnellen Prototyping-Prozess in einem Ingenieurteam implementiert.

  • Ich möchte, dass du als Jordan Belfort agierst und einen Schritt-für-Schritt-Prozess zum Abschluss von hochpreisigen Verkaufsabschlüssen skizzierst.

  • Ich möchte, dass du als Jeff Bezos agierst und erklärst, wie man das Kundenerlebnis auf einer E-Commerce-Plattform optimiert.

  • Ich möchte, dass du als Sheryl Sandberg agierst und Strategien zur Skalierung der Operationen in einem schnell wachsenden Technologieunternehmen bereitstellst.

  • Ich möchte, dass du als Christopher Voss agierst und einen Schritt-für-Schritt-Prozess zur Verhandlung meines nächsten Arbeitsvertrags skizzierst.

Vermeiden Sie die Verwendung von „Nicht“ in Aufforderungen

Beim Erstellen von Aufforderungen sollten Sie versuchen, negative Konstruktionen wie „nicht“ zu vermeiden. Dies liegt daran, dass LLMs Text generieren, indem sie das nächste Wort basierend auf dem bereitgestellten Kontext vorhersagen. Die Verwendung von „nicht“ kann Verwirrung stiften, da das Modell die Verneinung und die nachfolgenden Anweisungen berücksichtigen muss, was zu weniger genauen oder unbeabsichtigten Antworten führen kann.

Stattdessen formulieren Sie Ihre Anweisungen positiv mit „nur“-Aussagen. Dieser Ansatz bietet klarere Anweisungen und hilft dem Modell, sich auf das gewünschte Ergebnis zu konzentrieren, ohne die Komplexität der Verneinung.

Prompt ohne Anweisungen: Sprich nicht über ein anderes Baseballteam außer den New York Yankees.

Prompt mit Anweisungen: Sprich nur über die New York Yankees.

Bitten Sie LLMs um direkte Zitate

LLMs sind probabilistische Algorithmen. Sie generieren das nächste Token oder Wort basierend auf vorherigen Eingaben. Obwohl sie gut darin sind, detaillierte Antworten zu liefern, können sie manchmal Antworten generieren, die nicht der Wahrheit entsprechen. Dieses Phänomen wird als Halluzination bezeichnet.

Empfehlung: Generierte Antworten sollten immer auf Korrektheit überprüft werden. Eine Möglichkeit zu prüfen, ob ein LLM halluziniert oder ungenaue Informationen generiert, ist es, nach direkten Zitaten zu fragen, wenn Sie mit Ihren Daten arbeiten. Diese Technik veranlasst das Modell, spezifische Auszüge oder Referenzen zu liefern, was Ihnen hilft, die Genauigkeit und Zuverlässigkeit der Informationen zu bewerten.

Das Limit pro Antwort

Neben der Kontextfensterlänge, die die Gesamtzahl der Token angibt, die in einem einzelnen Gespräch mit einem LLM verarbeitet werden können, gibt es auch ein Limit pro Antwort.

Das Limit pro Antwort bezieht sich auf die maximale Anzahl von Token, die das Modell in einer einzelnen Antwort generieren kann. Bei den meisten Modellen ist dieses Limit standardmäßig von den Modellanbietern auf 4096 Token festgelegt. Diese Begrenzung dient dazu, Halluzinationen zu reduzieren und Rechenressourcen zu sparen.

Auch wenn es dieses Limit pro Antwort gibt, können Sie das LLM auffordern, nach Erreichen des Limits weiteren Text zu generieren. Wenn Sie einen langen Aufsatz oder Blog schreiben, können Sie Prompts wie diese verwenden:

  • Weiter

  • Fahre fort...

  • Und dann?

  • Mehr...

Das Risiko bei der Optimierung für längere Ausgaben besteht darin, dass der Inhalt repetitiv oder widersprüchlich werden kann. Für längere Texte empfehlen wir, mehrere Prompts zu verwenden und den ersten Teil des Textes mit vordefinierten Themen in einem Prompt anzufordern, dann den zweiten Teil mit anderen Themen usw.

Last updated