Mehr zu Knowledgebot-Einstellungen & Verwaltung

Knowledge Bot Einstellungen

In der oberen linken Ecke des Knowledge Bots finden Sie das Zahnradsymbol, das die Bot-Einstellungen öffnet. Hier können Sie verschiedene Funktionen anpassen und aktivieren, um den Bot an Ihre Bedürfnisse anzupassen.

  1. Fähigkeiten & Fertigkeiten: Passen Sie Suchmethoden an und aktivieren Sie erweiterte Funktionen

  2. LLM-Modelle: Wählen Sie das Sprachmodell, das die Antworten Ihres Bots steuert, und sorgen Sie für ein ausgewogenes Verhältnis zwischen Leistung, Genauigkeit und Kosten.

  3. Datenbank: Wählen Sie die Standarddatenbank für alle Datenräume

  4. Agenten: Einrichten oder Aktivieren von anpassbaren Eingabeaufforderungen für eine effizientere Nutzung

  5. Automatisierungen: Einrichten von Workflows für eine effizientere Eingabeaufforderung

  6. Aktionseinstellungen: Fügt der Knowledge-Bot-Navigation Schnellzugriffsschaltflächen hinzu und aktiviert erweiterte Funktionen wie Intent Agent und System Agent für eine verbesserte Suche und Automatisierung

Hinweis: Wenn Sie keine Bot-Einstellungen sehen, haben Sie möglicherweise keinen Zugriff auf diese Einstellungen. Erkundigen Sie sich beim Administrator des Bots nach dessen Zugriff.

Large Language Models (LLMs)

Blockbrain ermöglicht es den Benutzern, aus einer Vielzahl von großen Sprachmodellen (LLMs) zu wählen, die auf ihre spezifischen Bedürfnisse zugeschnitten sind. Jedes Modell hat einzigartige Stärken in Bezug auf Antwortqualität, Geschwindigkeit, Kosteneffizienz und spezielle Fähigkeiten. Einige andere Faktoren, die zu berücksichtigen sind, sind: Größe des Kontextfensters, Leistung und Hosting-Standort.

Im Folgenden finden Sie einen umfassenden Leitfaden, der Sie bei der Auswahl des besten LLM für Ihre Arbeitsabläufe unterstützt:

Modell
Am Besten für
Unique Selling Point (USP)

Claude 3.5 Sonnet (Smartest, US)

Komplexe Problemlösung, fortgeschrittene KI-Agenten, Softwaretechnik

Bestes logisches Denken und Problemlösen Claude

Claude 3.5 Sonnet (Empfohlen, EU)

Wie Smartest, aber EU-gehostet für Benutzer, die sich auf die Einhaltung von Vorschriften konzentrieren

Bestes EU-gehostetes Claude-Modell für Unternehmen

Claude 3.5 Sonnet (Kreativ, EU)

Kreatives Schreiben, Brainstorming, Inhaltserstellung

Optimiert für Storytelling und Marketing

Claude 3.5 Haiku (Effizient, US)

Schnelle Antworten, Chatbots, leichte KI-Aufgaben

Schnellstes und günstigstes Claude-Modell

GPT-4 Omni (Logisch, EU)

Textstrukturierung, logiklastige Aufgaben, multimodale KI

Am besten geeignet für strukturierte, multimodale Aufgaben

Mistral Large (Kodierung, EU)

Fortgeschrittene KI-gestützte Kodierung, Softwareentwicklung

Hochmoderne Kodierungsfähigkeiten

Mistral Nemo (Kodierung, EU)

Entwickler, KI-unterstützte Programmierung, Automatisierung

Leichtgewichtiges, aber leistungsstarkes Kodierungsmodell

Gemini 1.5 Pro (Großer Kontext, EU)

Groß angelegte KI-Verarbeitung, multimodale Analyse, Forschung

1 Mio. Kontextfenster für tiefgehende Analysen

Gemini 1.5 Flash (Schnell, EU)

Hochvolumige KI-Aufgaben, schnelle Verarbeitung im großen Maßstab

Optimiert für Geschwindigkeit und Kosteneffizienz

Llama 3.2 90B (US)

KI für allgemeine Zwecke, wissensbasierte Schlussfolgerungen

Neuestes Llama-Modell mit verbesserter Leistung

Llama 3.1 405B (US)

KI im Unternehmensmaßstab, Wissensabfrage

Vorzeige-Meta-LLM mit umfassenden Fähigkeiten

Llama 3.1 70B (US)

Standard-KI-Workloads, NLP und Automatisierung

Ausgewogene Leistung vs. Rechenleistung

Llama 3.1 8B (US)

Leichte KI-Aufgaben, kosteneffiziente Inferenz

Bestes Llama-Modell für kleinere KI-Projekte

GPT-4 Omni (Strukturiert, US)

Multimodale Eingabe, Wissensorganisation, KI-Strukturierung

Bestes GPT-Modell für komplexe Logikaufgaben

GPT-4 Turbo (Altbestand, US)

Allgemeine KI-Aufgaben, ausgewogene Intelligenz und Geschwindigkeit

Günstigere GPT-4-Variante

GPT-4 Vision (US)

KI-gestütztes Bildverständnis, multimodale Aufgaben

Am besten geeignet für visuelle Verarbeitung in GPT-Modellen

GPT-4o Mini (Effizient, US)

Erschwingliche KI-Workloads, kostengünstige Intelligenz

Optimiert für preisbewusste Nutzer

GPT-3.5 Turbo (Älter, EU)

Einfache Textaufgaben, leichtgewichtige KI-Anwendungen

Das günstigste GPT-Modell

GPT-4 Turbo (Vorgängermodell, EU)

Fortgeschrittenes logisches Denken, KI auf Unternehmensniveau

Zuverlässiges GPT-4-Modell für strukturierte Aufgaben

Claude 3 Opus (Kreativ, US)

Kreative Inhalte, KI-Unterstützung auf hohem Niveau

Der leistungsstärkste Claude für kreative Arbeit

Claude 3 Haiku (Effizient, EU)

Schnelle KI-Interaktionen, Reaktionsfähigkeit in Echtzeit

Geschwindigkeitsoptimiertes Claude-Modell

Claude 3 Sonnet (Ausgewogen, US)

Geschäftsanwendungen, KI-Einsatz in Unternehmen

Ausgewogenes Verhältnis von Geschwindigkeit und Intelligenz

Gemini 1.0 Pro (Vorgängermodell, EU)

Allgemeine KI-Anwendungsfälle, multimodale Verarbeitung

Ausgewogenes Gemini-Modell für verschiedene Aufgaben

Mistral Codestral (Codierung, EU)

Code-Vervollständigung, KI-unterstützte Entwicklungswerkzeuge

Zukunftsweisendes Modell für Coding-Workflows

Gemma 2 (Google, US)

Kleine KI-Aufgaben, leichtgewichtige KI-Workloads

Das kompakte KI-Modell von Google für mehr Effizienz

Tipps zur Auswahl eines LLM-Modells

  1. Berücksichtigen Sie das Kontextfenster: Bezieht sich auf die Textmenge (in Token oder Zeichen), die ein LLM auf einmal verarbeiten kann, während Kohärenz und Kontext erhalten bleiben

    • Kleines Kontextfenster (z.B. 16K Token): bedeutet, dass das Modell nur einen begrenzten Teil des Textes auf einmal berücksichtigen kann, wodurch es sich am besten für kürzere Aufforderungen und direkte Antworten eignet.

    • Großes Kontextfenster (z. B. 1 Mio. Token): Das Modell kann längere Dokumente, komplexe Diskussionen und tiefgreifende Analysen verarbeiten, ohne den vorherigen Kontext zu verlieren.

  2. Auswahl auf der Grundlage Ihrer Region: Für eine bessere Genauigkeit und Konformität empfiehlt es sich, ein LLM-Modell auszuwählen, das in Ihrer Region gehostet wird.

  3. Wählen Sie das Standardmodell: Wenn Sie unsicher sind, welches Modell Sie wählen sollen, können Sie die Standard-LLM-Modelle verwenden, die einen ausgewogenen Ansatz bieten, der qualitativ hochwertige Antworten bei gleichzeitiger Kosteneffizienz gewährleistet.

    1. Claude 3.5 Sonnet v2: Gut abgerundet für logisches Denken, Genauigkeit und allgemeine Aufgaben

    2. Azure GPT-4 Omni: Ideal für strukturierte Antworten, logische Schlussfolgerungen und komplexe Abfragen

FAQs

  1. Wie wirkt sich das LLM auf die Genauigkeit der von der KI generierten Antworten aus?

  • Ein fortschrittlicher LLM bietet im Allgemeinen eine bessere Genauigkeit und logische Schlussfolgerungen, aber die Leistung hängt auch von folgenden Faktoren ab:

    • Die Größe des Kontextfensters (größere Fenster speichern mehr Informationen).

    • Die Qualität der Eingabeaufforderung (klarere Aufforderungen führen zu besseren Antworten).

    • Das gewählte Einbettungsmodell (beeinflusst, wie gut die Daten abgerufen werden).

Modellmodifikatoren

Mit den Modellmodifikatoren können Sie das Verhalten Ihres Knowledge Bots feinabstimmen, indem Sie wichtige Parameter anpassen, die beeinflussen, wie er Antworten verarbeitet und generiert. Diese Einstellungen tragen dazu bei, ein Gleichgewicht zwischen Kreativität, Präzision und Relevanz zu schaffen, das auf die Art Ihrer Aufgabe abgestimmt ist.

Warum Modellmodifikatoren verwenden?

Durch die Anpassung von Modellmodifikatoren können Sie:

  • Sicherstellen, dass die Antworten mit den spezifischen Geschäftszielen übereinstimmen

  • Die Ergebnisse für kreative, technische oder forschungsbasierte Aufgaben optimieren

  • Die Effizienz und Konsistenz von KI-generierten Ergebnissen verbessern

Tipps zu den Einstellungen der Modellmodifikatoren

Es ist am besten, bei der Anpassung der Modellmodifikatoren nahe an den Standardeinstellungen zu bleiben, um eine ausgewogene KI-Leistung zu erhalten. So sollte z. B. die kreative Freiheit nicht zu hoch eingestellt werden, da übermäßige Kreativität zu unvorhersehbaren oder zu abstrakten Reaktionen führen kann. Ebenso sollte der Suchbereich zwischen 5 und 8 liegen, um sicherzustellen, dass die KI relevante Informationen ohne unnötiges Rauschen abruft. Passen Sie die Einstellungen schrittweise an, um das Verhalten der KI fein abzustimmen und gleichzeitig Genauigkeit und Konsistenz zu gewährleisten.

Anwendungsfallvorlagen für Modellmodifikatoren

Um die besten Ergebnisse aus den von der KI generierten Antworten zu erzielen, ist es wichtig, die Modellmodifikatoren auf der Grundlage Ihres spezifischen Anwendungsfalls fein abzustimmen. Diese Einstellungen dienen als Ausgangspunkt und ermöglichen es Ihnen, das Verhalten der KI an Ihre Bedürfnisse anzupassen.

Use Case
Empfohlene Einstellungen

Allgemeine Verwendung: Ausgewogene Einstellungen für alltägliche Aufgaben.

  • Kreative Freiheit: Gering → Ermöglicht ansprechende, aber dennoch logische Antworten.

  • Wortschatzumfang: Mittel → Sorgt für vielfältige und dennoch relevante Formulierungen.

  • Themenvielfalt: Mittel → Ermutigt AI, neue Ideen einzubringen und dabei die Kohärenz zu wahren.

  • Wortvielfalt: Mittel → Hält den Wortschatz frisch, ohne die Klarheit zu beeinträchtigen.

  • Suchbereich: Mittel → Sorgt für ein Gleichgewicht zwischen Präzision und Breite der Informationen.

Umsatz- und Unternehmensanalyse: Leichte Kreativität mit starkem Fokus auf strukturierte Erkenntnisse.

  • Kreative Freiheit: Mittel → Hält die Antworten logisch, lässt aber eine leichte Anpassungsfähigkeit zu.

  • Wortschatzumfang: Mittel → Verwendet ein vielfältiges Vokabular für eine ansprechende Geschäftskommunikation.

  • Themenvielfalt: Mittel → Stellt sicher, dass verwandte Geschäftsthemen abgedeckt werden, ohne zu sehr voneinander abzuweichen.

  • Wortvielfalt: Mittel → Fördert überzeugende, klare Geschäftskorrespondenz.

  • Suchbereich: Hoch → Ermöglicht eine breite Palette von Erkenntnissen zur Unterstützung der Entscheidungsfindung.

Technische Analyse & Berichte: Gibt Genauigkeit und Konsistenz den Vorrang vor Kreativität.

  • Kreative Freiheit: Gering → Sorgt für vorhersehbare, faktenbasierte Antworten.

  • Wortschatzumfang: Gering → Verwendet präzise Fachsprache mit minimaler Variation.

  • Themenvielfalt: Gering → Hält die Diskussion auf ein einziges, konzentriertes Thema beschränkt.

  • Wortvielfalt: Gering → Sorgt für terminologische Konsistenz in der technischen Dokumentation.

  • Suchbereich: Mittel → Beschafft zuverlässige Daten und minimiert irrelevante Informationen.

Datengestützte Einblicke: Verwendet strukturierte Abfragen, um wichtige Informationen zu extrahieren.

  • Kreative Freiheit: Am geringsten → KI-Antworten bleiben strukturiert und sachlich.

  • Wortschatzumfang: Mittel → Verwendet eine abwechslungsreiche Sprache, um verschiedene Erkenntnisse klar zu formulieren.

  • Themenvielfalt: Mittel → Deckt verwandte Konzepte ab und bleibt dabei konzentriert.

  • Wortvielfalt: Mittel → Gleichgewicht zwischen Konsistenz und neuen Formulierungen.

  • Suchbereich: Hoch → Gewährleistet, dass die KI einen breiteren Datensatz nach nützlichen Erkenntnissen durchsucht.

Kreatives Schreiben: Maximiert die Kreativität der KI für ausdrucksstarke, fantasievolle Texte.

  • Kreative Freiheit: Hoch → Ermutigt zu originellen, ansprechenden und manchmal unerwarteten Antworten.

  • Wortschatzumfang: Hoch → Erweitert die Wortwahl für einen farbenfrohen und ansprechenden Ton.

  • Themenvielfalt: Hoch → Ermöglicht es AI, neue Konzepte und Ideen vorzustellen.

  • Wortvielfalt: Hoch → Verbessert den Schreibfluss und verhindert Wiederholungen.

  • Suchbereich: Niedrig → Priorisiert Relevanz gegenüber allgemeiner, sachlicher Genauigkeit.

Hinweis: Auch wenn diese Empfehlungen eine solide Grundlage bilden, ist es am besten, verschiedene Einstellungen auf der Grundlage Ihres spezifischen Workflows zu testen. Vermeiden Sie maximale Werte - zu hohe oder zu niedrige Werte können zu unerwarteten oder ineffektiven Ergebnissen führen. Nutzen Sie die Tooltip-Beschreibungen im Einstellungsfenster, um die Grenzen der einzelnen Modifikatoren zu verstehen, und experimentieren Sie innerhalb des vorgeschlagenen Bereichs, um ausgewogene, hochwertige Ergebnisse zu erzielen.

FAQs

  1. Wie kann ich feststellen, ob ich meine Modellmodifikatoren richtig optimiert habe?

    • Testen Sie Ihre Einstellungen, indem Sie KI-Abfragen durchführen und prüfen, ob die Antworten Ihren Erwartungen entsprechen. Wenn die Antworten zu starr oder repetitiv sind, erhöhen Sie die kreative Freiheit und die Wortvielfalt. Wenn sie zu breit gefächert oder uneinheitlich sind, verringern Sie die Themenvielfalt und den Wortschatzumfang.

  2. Sollte ich einen der Modellmodifikatoren maximal ausreizen?

    • Nein, zu hohe Werte (z. B. die kreative Freiheit auf 10) können zu unvorhersehbaren oder ungenauen Ergebnissen führen. Halten Sie sich am besten an den empfohlenen Bereich, der in den Tooltips im Einstellungsfenster angegeben ist.

Einbettungsmodelle

Wenn Sie eine Datenbank in Blockbrain erstellen, werden Sie aufgefordert, ein Einbettungsmodell auszuwählen. Diese Modelle konvertieren Text (z. B. Dokumente, Dateien oder Daten) in numerische Repräsentationen, die als Einbettungen bezeichnet werden. Auf diese Weise kann das System relevante Inhalte auf der Grundlage der Bedeutung suchen, vergleichen und abrufen, und nicht nur basierend auf Schlüsselwörtern.

Modell
Am Besten für
Unique Selling Point (USP)

Texteinbettung 3 Groß (EU)

Komplexe, groß angelegte Texteinbettungsaufgaben

Am besten geeignet für leistungsstarkes, tiefgehendes Textverständnis

Text-Einbettung 3 Groß (US)

Gleiche Version wie die EU-Version, aber in den USA gehostet

Neuestes OpenAI-Einbettungsmodell für umfangreiche Aufgaben

Texteinbettung Ada 002 (US)

Einfache Texteinbettung mit hoher Effizienz

Am meisten optimiert für kostengünstige Einbettungen

Texteinbettung Ada 002 (EU)

Allgemeine Texteinbettungen, geeignet für verschiedene Anwendungen

EU-gehostete Version für Compliance-sensitive Aufgaben

Texteinbettung 3 Small (US)

Ressourcenabhängige Aufgaben mit komplexen Einbettungen

Bestes Gleichgewicht zwischen Effizienz und Leistung

BGE-Einbettung (EU)

Flexible Einbettung für verschiedene ML-Anwendungen

Ideal für selbst gehostete, anpassbare Einsätze

Englische Einbettung 4 (EU)

Einbettungsaufgaben für englischsprachige Inhalte

Bestes Einbettungsmodell für rein englischen Text

Mehrsprachige Einbettung 2 (EU)

Einbettung für die Verarbeitung mehrsprachiger Inhalte

Bestes Modell für die Verarbeitung gemischtsprachiger Einbettungen

Warum Einbettungsmodelle wichtig sind

Einbettungsmodelle ermöglichen eine semantische Suche, die Ihrem Wissensbot hilft:

  • Verstehen von Kontext und Bedeutung über große Mengen von Dokumenten hinweg

  • Genauere und relevantere Antworten zu erhalten

  • Abgleich von Benutzeranfragen mit ähnlichen Inhalten, auch wenn diese unterschiedlich formuliert sind

Auswahl des richtigen Modells

Berücksichtigen Sie bei der Auswahl eines Modells:

  • Umfang Ihrer Daten: Größere Modelle können komplexe Texte besser verarbeiten, kosten aber auch mehr.

  • Hosting-Anforderungen: Entscheiden Sie sich je nach Compliance-Anforderungen für ein EU- oder US-Hosting

  • Sprachen: Verwenden Sie mehrsprachige Modelle, wenn Ihre Daten mehrere Sprachen umfassen

Empfehlungen für Einbettungsmodelle

  • Komplexität und Umfang:

    • Verwenden Sie für umfangreiche oder komplexe Aufgaben: → Texteinbettung 3 Large

  • Effizienz und Kosten:

    • Für allgemeine Aufgaben mit geringer Latenz und geringen Kosten: → Texteinbettung Ada 002

  • Sprachunterstützung:

    • Nur Englisch → Englische Einbettung 4

    • Mehrsprachig → Mehrsprachige Einbettung 2

  • Hosting-Anforderungen:

    • EU-gehostete Modelle für GDPR-sensible Daten

    • In den USA gehostete Modelle für eine in den USA ansässige Infrastruktur

FAQs

  1. Was ist der Unterschied zwischen kleinen und großen Einbettungsmodellen?

    • Größere Modelle (z. B. Text Embedding 3 Large) erfassen mehr Kontext und Nuancen, wodurch sie sich besser für komplexe Abfragen eignen.

    • Kleinere Modelle (z. B. Text Embedding 3 Small) legen den Schwerpunkt auf Effizienz und sind besser für einfache Anwendungen geeignet.

Last updated