Mehr zu Knowledgebot-Einstellungen & Verwaltung
Knowledge Bot Einstellungen
In der oberen linken Ecke des Knowledge Bots finden Sie das Zahnradsymbol, das die Bot-Einstellungen öffnet. Hier können Sie verschiedene Funktionen anpassen und aktivieren, um den Bot an Ihre Bedürfnisse anzupassen.
Fähigkeiten & Fertigkeiten: Passen Sie Suchmethoden an und aktivieren Sie erweiterte Funktionen
LLM-Modelle: Wählen Sie das Sprachmodell, das die Antworten Ihres Bots steuert, und sorgen Sie für ein ausgewogenes Verhältnis zwischen Leistung, Genauigkeit und Kosten.
Datenbank: Wählen Sie die Standarddatenbank für alle Datenräume
Agenten: Einrichten oder Aktivieren von anpassbaren Eingabeaufforderungen für eine effizientere Nutzung
Automatisierungen: Einrichten von Workflows für eine effizientere Eingabeaufforderung
Aktionseinstellungen: Fügt der Knowledge-Bot-Navigation Schnellzugriffsschaltflächen hinzu und aktiviert erweiterte Funktionen wie Intent Agent und System Agent für eine verbesserte Suche und Automatisierung
Hinweis: Wenn Sie keine Bot-Einstellungen sehen, haben Sie möglicherweise keinen Zugriff auf diese Einstellungen. Erkundigen Sie sich beim Administrator des Bots nach dessen Zugriff.
Large Language Models (LLMs)
Blockbrain ermöglicht es den Benutzern, aus einer Vielzahl von großen Sprachmodellen (LLMs) zu wählen, die auf ihre spezifischen Bedürfnisse zugeschnitten sind. Jedes Modell hat einzigartige Stärken in Bezug auf Antwortqualität, Geschwindigkeit, Kosteneffizienz und spezielle Fähigkeiten. Einige andere Faktoren, die zu berücksichtigen sind, sind: Größe des Kontextfensters, Leistung und Hosting-Standort.
Im Folgenden finden Sie einen umfassenden Leitfaden, der Sie bei der Auswahl des besten LLM für Ihre Arbeitsabläufe unterstützt:
Claude 3.5 Sonnet (Smartest, US)
Komplexe Problemlösung, fortgeschrittene KI-Agenten, Softwaretechnik
Bestes logisches Denken und Problemlösen Claude
Claude 3.5 Sonnet (Empfohlen, EU)
Wie Smartest, aber EU-gehostet für Benutzer, die sich auf die Einhaltung von Vorschriften konzentrieren
Bestes EU-gehostetes Claude-Modell für Unternehmen
Claude 3.5 Sonnet (Kreativ, EU)
Kreatives Schreiben, Brainstorming, Inhaltserstellung
Optimiert für Storytelling und Marketing
Claude 3.5 Haiku (Effizient, US)
Schnelle Antworten, Chatbots, leichte KI-Aufgaben
Schnellstes und günstigstes Claude-Modell
GPT-4 Omni (Logisch, EU)
Textstrukturierung, logiklastige Aufgaben, multimodale KI
Am besten geeignet für strukturierte, multimodale Aufgaben
Mistral Large (Kodierung, EU)
Fortgeschrittene KI-gestützte Kodierung, Softwareentwicklung
Hochmoderne Kodierungsfähigkeiten
Mistral Nemo (Kodierung, EU)
Entwickler, KI-unterstützte Programmierung, Automatisierung
Leichtgewichtiges, aber leistungsstarkes Kodierungsmodell
Gemini 1.5 Pro (Großer Kontext, EU)
Groß angelegte KI-Verarbeitung, multimodale Analyse, Forschung
1 Mio. Kontextfenster für tiefgehende Analysen
Gemini 1.5 Flash (Schnell, EU)
Hochvolumige KI-Aufgaben, schnelle Verarbeitung im großen Maßstab
Optimiert für Geschwindigkeit und Kosteneffizienz
Llama 3.2 90B (US)
KI für allgemeine Zwecke, wissensbasierte Schlussfolgerungen
Neuestes Llama-Modell mit verbesserter Leistung
Llama 3.1 405B (US)
KI im Unternehmensmaßstab, Wissensabfrage
Vorzeige-Meta-LLM mit umfassenden Fähigkeiten
Llama 3.1 70B (US)
Standard-KI-Workloads, NLP und Automatisierung
Ausgewogene Leistung vs. Rechenleistung
Llama 3.1 8B (US)
Leichte KI-Aufgaben, kosteneffiziente Inferenz
Bestes Llama-Modell für kleinere KI-Projekte
GPT-4 Omni (Strukturiert, US)
Multimodale Eingabe, Wissensorganisation, KI-Strukturierung
Bestes GPT-Modell für komplexe Logikaufgaben
GPT-4 Turbo (Altbestand, US)
Allgemeine KI-Aufgaben, ausgewogene Intelligenz und Geschwindigkeit
Günstigere GPT-4-Variante
GPT-4 Vision (US)
KI-gestütztes Bildverständnis, multimodale Aufgaben
Am besten geeignet für visuelle Verarbeitung in GPT-Modellen
GPT-4o Mini (Effizient, US)
Erschwingliche KI-Workloads, kostengünstige Intelligenz
Optimiert für preisbewusste Nutzer
GPT-3.5 Turbo (Älter, EU)
Einfache Textaufgaben, leichtgewichtige KI-Anwendungen
Das günstigste GPT-Modell
GPT-4 Turbo (Vorgängermodell, EU)
Fortgeschrittenes logisches Denken, KI auf Unternehmensniveau
Zuverlässiges GPT-4-Modell für strukturierte Aufgaben
Claude 3 Opus (Kreativ, US)
Kreative Inhalte, KI-Unterstützung auf hohem Niveau
Der leistungsstärkste Claude für kreative Arbeit
Claude 3 Haiku (Effizient, EU)
Schnelle KI-Interaktionen, Reaktionsfähigkeit in Echtzeit
Geschwindigkeitsoptimiertes Claude-Modell
Claude 3 Sonnet (Ausgewogen, US)
Geschäftsanwendungen, KI-Einsatz in Unternehmen
Ausgewogenes Verhältnis von Geschwindigkeit und Intelligenz
Gemini 1.0 Pro (Vorgängermodell, EU)
Allgemeine KI-Anwendungsfälle, multimodale Verarbeitung
Ausgewogenes Gemini-Modell für verschiedene Aufgaben
Mistral Codestral (Codierung, EU)
Code-Vervollständigung, KI-unterstützte Entwicklungswerkzeuge
Zukunftsweisendes Modell für Coding-Workflows
Gemma 2 (Google, US)
Kleine KI-Aufgaben, leichtgewichtige KI-Workloads
Das kompakte KI-Modell von Google für mehr Effizienz
Tipps zur Auswahl eines LLM-Modells
Berücksichtigen Sie das Kontextfenster: Bezieht sich auf die Textmenge (in Token oder Zeichen), die ein LLM auf einmal verarbeiten kann, während Kohärenz und Kontext erhalten bleiben
Kleines Kontextfenster (z.B. 16K Token): bedeutet, dass das Modell nur einen begrenzten Teil des Textes auf einmal berücksichtigen kann, wodurch es sich am besten für kürzere Aufforderungen und direkte Antworten eignet.
Großes Kontextfenster (z. B. 1 Mio. Token): Das Modell kann längere Dokumente, komplexe Diskussionen und tiefgreifende Analysen verarbeiten, ohne den vorherigen Kontext zu verlieren.
Auswahl auf der Grundlage Ihrer Region: Für eine bessere Genauigkeit und Konformität empfiehlt es sich, ein LLM-Modell auszuwählen, das in Ihrer Region gehostet wird.
Wählen Sie das Standardmodell: Wenn Sie unsicher sind, welches Modell Sie wählen sollen, können Sie die Standard-LLM-Modelle verwenden, die einen ausgewogenen Ansatz bieten, der qualitativ hochwertige Antworten bei gleichzeitiger Kosteneffizienz gewährleistet.
Claude 3.5 Sonnet v2: Gut abgerundet für logisches Denken, Genauigkeit und allgemeine Aufgaben
Azure GPT-4 Omni: Ideal für strukturierte Antworten, logische Schlussfolgerungen und komplexe Abfragen
FAQs
Wie wirkt sich das LLM auf die Genauigkeit der von der KI generierten Antworten aus?
Ein fortschrittlicher LLM bietet im Allgemeinen eine bessere Genauigkeit und logische Schlussfolgerungen, aber die Leistung hängt auch von folgenden Faktoren ab:
Die Größe des Kontextfensters (größere Fenster speichern mehr Informationen).
Die Qualität der Eingabeaufforderung (klarere Aufforderungen führen zu besseren Antworten).
Das gewählte Einbettungsmodell (beeinflusst, wie gut die Daten abgerufen werden).
Modellmodifikatoren
Mit den Modellmodifikatoren können Sie das Verhalten Ihres Knowledge Bots feinabstimmen, indem Sie wichtige Parameter anpassen, die beeinflussen, wie er Antworten verarbeitet und generiert. Diese Einstellungen tragen dazu bei, ein Gleichgewicht zwischen Kreativität, Präzision und Relevanz zu schaffen, das auf die Art Ihrer Aufgabe abgestimmt ist.
Warum Modellmodifikatoren verwenden?
Durch die Anpassung von Modellmodifikatoren können Sie:
Sicherstellen, dass die Antworten mit den spezifischen Geschäftszielen übereinstimmen
Die Ergebnisse für kreative, technische oder forschungsbasierte Aufgaben optimieren
Die Effizienz und Konsistenz von KI-generierten Ergebnissen verbessern
Tipps zu den Einstellungen der Modellmodifikatoren
Es ist am besten, bei der Anpassung der Modellmodifikatoren nahe an den Standardeinstellungen zu bleiben, um eine ausgewogene KI-Leistung zu erhalten. So sollte z. B. die kreative Freiheit nicht zu hoch eingestellt werden, da übermäßige Kreativität zu unvorhersehbaren oder zu abstrakten Reaktionen führen kann. Ebenso sollte der Suchbereich zwischen 5 und 8 liegen, um sicherzustellen, dass die KI relevante Informationen ohne unnötiges Rauschen abruft. Passen Sie die Einstellungen schrittweise an, um das Verhalten der KI fein abzustimmen und gleichzeitig Genauigkeit und Konsistenz zu gewährleisten.
Anwendungsfallvorlagen für Modellmodifikatoren
Um die besten Ergebnisse aus den von der KI generierten Antworten zu erzielen, ist es wichtig, die Modellmodifikatoren auf der Grundlage Ihres spezifischen Anwendungsfalls fein abzustimmen. Diese Einstellungen dienen als Ausgangspunkt und ermöglichen es Ihnen, das Verhalten der KI an Ihre Bedürfnisse anzupassen.
Allgemeine Verwendung: Ausgewogene Einstellungen für alltägliche Aufgaben.
Kreative Freiheit: Gering → Ermöglicht ansprechende, aber dennoch logische Antworten.
Wortschatzumfang: Mittel → Sorgt für vielfältige und dennoch relevante Formulierungen.
Themenvielfalt: Mittel → Ermutigt AI, neue Ideen einzubringen und dabei die Kohärenz zu wahren.
Wortvielfalt: Mittel → Hält den Wortschatz frisch, ohne die Klarheit zu beeinträchtigen.
Suchbereich: Mittel → Sorgt für ein Gleichgewicht zwischen Präzision und Breite der Informationen.
Umsatz- und Unternehmensanalyse: Leichte Kreativität mit starkem Fokus auf strukturierte Erkenntnisse.
Kreative Freiheit: Mittel → Hält die Antworten logisch, lässt aber eine leichte Anpassungsfähigkeit zu.
Wortschatzumfang: Mittel → Verwendet ein vielfältiges Vokabular für eine ansprechende Geschäftskommunikation.
Themenvielfalt: Mittel → Stellt sicher, dass verwandte Geschäftsthemen abgedeckt werden, ohne zu sehr voneinander abzuweichen.
Wortvielfalt: Mittel → Fördert überzeugende, klare Geschäftskorrespondenz.
Suchbereich: Hoch → Ermöglicht eine breite Palette von Erkenntnissen zur Unterstützung der Entscheidungsfindung.
Technische Analyse & Berichte: Gibt Genauigkeit und Konsistenz den Vorrang vor Kreativität.
Kreative Freiheit: Gering → Sorgt für vorhersehbare, faktenbasierte Antworten.
Wortschatzumfang: Gering → Verwendet präzise Fachsprache mit minimaler Variation.
Themenvielfalt: Gering → Hält die Diskussion auf ein einziges, konzentriertes Thema beschränkt.
Wortvielfalt: Gering → Sorgt für terminologische Konsistenz in der technischen Dokumentation.
Suchbereich: Mittel → Beschafft zuverlässige Daten und minimiert irrelevante Informationen.
Datengestützte Einblicke: Verwendet strukturierte Abfragen, um wichtige Informationen zu extrahieren.
Kreative Freiheit: Am geringsten → KI-Antworten bleiben strukturiert und sachlich.
Wortschatzumfang: Mittel → Verwendet eine abwechslungsreiche Sprache, um verschiedene Erkenntnisse klar zu formulieren.
Themenvielfalt: Mittel → Deckt verwandte Konzepte ab und bleibt dabei konzentriert.
Wortvielfalt: Mittel → Gleichgewicht zwischen Konsistenz und neuen Formulierungen.
Suchbereich: Hoch → Gewährleistet, dass die KI einen breiteren Datensatz nach nützlichen Erkenntnissen durchsucht.
Kreatives Schreiben: Maximiert die Kreativität der KI für ausdrucksstarke, fantasievolle Texte.
Kreative Freiheit: Hoch → Ermutigt zu originellen, ansprechenden und manchmal unerwarteten Antworten.
Wortschatzumfang: Hoch → Erweitert die Wortwahl für einen farbenfrohen und ansprechenden Ton.
Themenvielfalt: Hoch → Ermöglicht es AI, neue Konzepte und Ideen vorzustellen.
Wortvielfalt: Hoch → Verbessert den Schreibfluss und verhindert Wiederholungen.
Suchbereich: Niedrig → Priorisiert Relevanz gegenüber allgemeiner, sachlicher Genauigkeit.
FAQs
Wie kann ich feststellen, ob ich meine Modellmodifikatoren richtig optimiert habe?
Testen Sie Ihre Einstellungen, indem Sie KI-Abfragen durchführen und prüfen, ob die Antworten Ihren Erwartungen entsprechen. Wenn die Antworten zu starr oder repetitiv sind, erhöhen Sie die kreative Freiheit und die Wortvielfalt. Wenn sie zu breit gefächert oder uneinheitlich sind, verringern Sie die Themenvielfalt und den Wortschatzumfang.
Sollte ich einen der Modellmodifikatoren maximal ausreizen?
Nein, zu hohe Werte (z. B. die kreative Freiheit auf 10) können zu unvorhersehbaren oder ungenauen Ergebnissen führen. Halten Sie sich am besten an den empfohlenen Bereich, der in den Tooltips im Einstellungsfenster angegeben ist.
Einbettungsmodelle
Wenn Sie eine Datenbank in Blockbrain erstellen, werden Sie aufgefordert, ein Einbettungsmodell auszuwählen. Diese Modelle konvertieren Text (z. B. Dokumente, Dateien oder Daten) in numerische Repräsentationen, die als Einbettungen bezeichnet werden. Auf diese Weise kann das System relevante Inhalte auf der Grundlage der Bedeutung suchen, vergleichen und abrufen, und nicht nur basierend auf Schlüsselwörtern.
Texteinbettung 3 Groß (EU)
Komplexe, groß angelegte Texteinbettungsaufgaben
Am besten geeignet für leistungsstarkes, tiefgehendes Textverständnis
Text-Einbettung 3 Groß (US)
Gleiche Version wie die EU-Version, aber in den USA gehostet
Neuestes OpenAI-Einbettungsmodell für umfangreiche Aufgaben
Texteinbettung Ada 002 (US)
Einfache Texteinbettung mit hoher Effizienz
Am meisten optimiert für kostengünstige Einbettungen
Texteinbettung Ada 002 (EU)
Allgemeine Texteinbettungen, geeignet für verschiedene Anwendungen
EU-gehostete Version für Compliance-sensitive Aufgaben
Texteinbettung 3 Small (US)
Ressourcenabhängige Aufgaben mit komplexen Einbettungen
Bestes Gleichgewicht zwischen Effizienz und Leistung
BGE-Einbettung (EU)
Flexible Einbettung für verschiedene ML-Anwendungen
Ideal für selbst gehostete, anpassbare Einsätze
Englische Einbettung 4 (EU)
Einbettungsaufgaben für englischsprachige Inhalte
Bestes Einbettungsmodell für rein englischen Text
Mehrsprachige Einbettung 2 (EU)
Einbettung für die Verarbeitung mehrsprachiger Inhalte
Bestes Modell für die Verarbeitung gemischtsprachiger Einbettungen
Warum Einbettungsmodelle wichtig sind
Einbettungsmodelle ermöglichen eine semantische Suche, die Ihrem Wissensbot hilft:
Verstehen von Kontext und Bedeutung über große Mengen von Dokumenten hinweg
Genauere und relevantere Antworten zu erhalten
Abgleich von Benutzeranfragen mit ähnlichen Inhalten, auch wenn diese unterschiedlich formuliert sind
Auswahl des richtigen Modells
Berücksichtigen Sie bei der Auswahl eines Modells:
Umfang Ihrer Daten: Größere Modelle können komplexe Texte besser verarbeiten, kosten aber auch mehr.
Hosting-Anforderungen: Entscheiden Sie sich je nach Compliance-Anforderungen für ein EU- oder US-Hosting
Sprachen: Verwenden Sie mehrsprachige Modelle, wenn Ihre Daten mehrere Sprachen umfassen
Empfehlungen für Einbettungsmodelle
Komplexität und Umfang:
Verwenden Sie für umfangreiche oder komplexe Aufgaben: → Texteinbettung 3 Large
Effizienz und Kosten:
Für allgemeine Aufgaben mit geringer Latenz und geringen Kosten: → Texteinbettung Ada 002
Sprachunterstützung:
Nur Englisch → Englische Einbettung 4
Mehrsprachig → Mehrsprachige Einbettung 2
Hosting-Anforderungen:
EU-gehostete Modelle für GDPR-sensible Daten
In den USA gehostete Modelle für eine in den USA ansässige Infrastruktur
FAQs
Was ist der Unterschied zwischen kleinen und großen Einbettungsmodellen?
Größere Modelle (z. B. Text Embedding 3 Large) erfassen mehr Kontext und Nuancen, wodurch sie sich besser für komplexe Abfragen eignen.
Kleinere Modelle (z. B. Text Embedding 3 Small) legen den Schwerpunkt auf Effizienz und sind besser für einfache Anwendungen geeignet.
Last updated