📚Glossar
Willkommen in unserem Glossar, das Ihnen hilft, die Welt der KI, Chatbots und LLMs zu verstehen. Es bietet klare Erklärungen zu den wichtigsten Begriffen und Konzepten.
1. Künstliche Intelligenz
Künstliche Intelligenz (KI) bezieht sich auf die Simulation menschlicher Intelligenzprozesse durch Maschinen, insbesondere Computersysteme. Diese Prozesse umfassen Lernen (das Erwerben von Informationen und Regeln zur Nutzung der Informationen), Schlussfolgern (Verwenden von Regeln, um ungefähre oder endgültige Schlussfolgerungen zu ziehen) und Selbstkorrektur. KI wird in verschiedenen Anwendungen eingesetzt, einschließlich Expertensystemen, natürlicher Sprachverarbeitung, Spracherkennung und maschinellem Sehen.
2. Large Language Models (LLM)
Große Sprachmodelle (LLMs) sind fortschrittliche KI-Systeme, die darauf ausgelegt sind, menschliche Texte auf der Grundlage großer Datenmengen zu verstehen und zu generieren. Blockbrain ist ein modellunabhängiges KI-Tool, das sicherstellt, dass wir immer die besten verfügbaren KI-Modelle in einer DSGVO-konformen Umgebung in der EU anbieten, unabhängig vom Modellanbieter. Sie können aus den führenden Modellen von OpenAI, Anthropic, Meta, Mistral usw. wählen.
Das Training eines großen Sprachmodells (LLM) umfasst die Verwendung großer Datensätze, um dem Modell die Wahrscheinlichkeiten beizubringen, mit denen Wörter zusammen auftreten. Während dieser Phase lernt das Modell, das nächste Wort in einer Sequenz vorherzusagen, indem es semantische Verbindungen zwischen Wörtern versteht. Sobald das Training abgeschlossen ist, kann das Modell keine neuen Informationen mehr lernen, und dies wird als "Wissensstichtag" bezeichnet – der Zeitpunkt, bis zu dem das Modell trainiert wurde.
3. Chatbot
Ein Chatbot ist ein Programm, das künstliche Intelligenz (KI) nutzt, um menschenähnliche Gespräche zu führen. Es kann Fragen beantworten, Aufgaben ausführen und Informationen bereitstellen. Diese Chatbots verwenden natürliche Sprachverarbeitung (NLP), um Benutzereingaben zu verstehen und in einer kohärenten und kontextuell angemessenen Weise zu antworten. Sie werden häufig im Kundenservice, als virtuelle Assistenten und auf verschiedenen Online-Plattformen eingesetzt, um die Benutzerinteraktion zu verbessern und Routineaufgaben zu automatisieren.
4. Natürliche Sprachverarbeitung (NLP)
NLP ist die Technologie, die es Chatbots ermöglicht, menschliche Sprache zu verstehen und zu verarbeiten. Sie hilft dem Chatbot, die Bedeutung hinter Ihren Worten zu erkennen, sodass er genau und kontextuell antworten kann. NLP umfasst verschiedene Techniken wie Tokenisierung, Sentiment-Analyse und Entitätserkennung, die zusammen die Fähigkeit des Chatbots verbessern, menschliche Antworten zu interpretieren und zu generieren.
5. Maschinelles Lernen
Maschinelles Lernen ist eine Methode, bei der Computer aus Daten lernen und ihre Leistung verbessern, ohne explizit programmiert zu werden. Chatbots nutzen diese Technik, um ihre Antworten basierend auf früheren Interaktionen zu verbessern. Dies umfasst Algorithmen, die Muster erkennen und Vorhersagen treffen, wodurch Chatbots im Laufe der Zeit genauer und effizienter werden. Durch die kontinuierliche Analyse von Benutzereingaben und Feedback ermöglicht maschinelles Lernen Chatbots, sich anzupassen und relevantere und personalisierte Antworten zu liefern.
6. Absicht und Entität
Absicht: Der Zweck oder das Ziel hinter einer Benutzereingabe. Absichten repräsentieren, was der Benutzer erreichen oder erfragen möchte. Zum Beispiel ist in der Anfrage "Wie ist das Wetter?" die Absicht, eine Wettervorhersage zu erhalten. Das Erkennen der Absicht hilft dem Chatbot, die Anfrage des Benutzers zu verstehen und eine relevante Antwort zu geben.
Entität: Spezifische Informationen, die aus einer Benutzereingabe extrahiert werden und Kontext und Details liefern, die zur Erfüllung der Absicht erforderlich sind. Entitäten sind oft Nomen oder Eigennamen, die zusätzliche Informationen über die Anfrage des Benutzers liefern. Zum Beispiel ist in der Anfrage "Wie ist das Wetter in Berlin?" "Berlin" die Entität. Das Erkennen von Entitäten ermöglicht es dem Chatbot, seine Antwort präziser auf die Bedürfnisse des Benutzers zuzuschneiden.
7. Halluzination
Definition: Im Kontext von großen Sprachmodellen (LLMs) bezieht sich Halluzination auf die Generierung von Informationen oder Antworten, die nicht auf den Eingabedaten oder der Realität basieren. Dies tritt auf, wenn das Modell Text vorhersagt, der plausibel erscheint, aber faktisch nicht korrekt oder relevant für den gegebenen Kontext ist. Halluzinationen können zu irreführenden oder falschen Ausgaben führen, was die Bedeutung der Überprüfung von KI-generierten Inhalten auf Genauigkeit und Zuverlässigkeit unterstreicht.
8. Tokenisierung
Definition: Tokenisierung ist der Prozess, eine Zeichenkette in kleinere Einheiten, sogenannte Tokens, zu zerlegen. Diese Tokens können Wörter, Phrasen oder sogar Zeichen sein, je nach erforderlichem Granularitätsgrad.
Zweck in Chatbots:
Textverarbeitung: Tokenisierung ist ein grundlegender Schritt in der natürlichen Sprachverarbeitung (NLP), der es Chatbots ermöglicht, Benutzereingaben zu verstehen und zu analysieren.
Kontextverständnis: Durch das Zerlegen von Sätzen in Tokens können Chatbots den Kontext und die Bedeutung jedes Wortes oder jeder Phrase besser verstehen.
Merkmalextraktion: Tokens dienen als Merkmale, die Chatbots verwenden, um Absichten und Entitäten innerhalb eines Gesprächs zu identifizieren.
Beispiel:
Eingabe: "Wie ist das Wetter in Berlin?"
Tokens: ["Wie", "ist", "das", "Wetter", "in", "Berlin", "?"]
Vorteile:
Verbesserte Genauigkeit: Hilft bei der genauen Interpretation von Benutzeranfragen, indem der Fokus auf einzelne Komponenten gelegt wird.
Erhöhte Leistung: Ermöglicht eine effizientere Verarbeitung und Antwortgenerierung.
9. Kontextfenster
Das Kontextfenster bezieht sich auf die maximale Menge an Text, die ein Sprachmodell in einer einzelnen Nachricht verarbeiten kann, die es erhält. Es umfasst die Eingabe des Benutzers, den vorherigen Chatverlauf, angehängte Dokumente und alle Anweisungen des Assistenten. Dieses Fenster bestimmt, wie viele Informationen das Modell bei der Generierung einer Antwort berücksichtigen kann, um sicherzustellen, dass es relevante und kohärente Antworten basierend auf dem gegebenen Kontext liefern kann.
10. Sentiment-Analyse
Sentiment-Analyse ist eine Technik, die in der natürlichen Sprachverarbeitung (NLP) verwendet wird, um den emotionalen Ton hinter einem Textkörper zu bestimmen. Sie umfasst die Analyse von Textdaten, um Meinungen zu identifizieren und zu kategorisieren, die als positiv, negativ oder neutral ausgedrückt werden. Dieser Prozess hilft, die Stimmung des Benutzers zu verstehen, was für Anwendungen wie die Analyse von Kundenfeedback, die Überwachung sozialer Medien und die Verbesserung der Benutzerinteraktionen in Chatbots entscheidend sein kann.
11. Prompting
Prompting bezieht sich auf die Methode, einem Sprachmodell Eingaben oder Anweisungen zu geben, um eine gewünschte Antwort zu erhalten. Es umfasst das Erstellen spezifischer Abfragen oder Aussagen, die das Modell bei der Generierung relevanter und genauer Ausgaben leiten. Effektives Prompting ist entscheidend, um den Nutzen von KI-Modellen zu maximieren, da es hilft, präzise und kontextuell angemessene Antworten zu erhalten.
12. KI-Agenten
Ein KI-Agent ist eine Softwareeinheit, die darauf ausgelegt ist, Aufgaben autonom auszuführen, oft wiederholende, indem sie vordefinierten Regeln oder erlernten Mustern folgt. Diese Agenten können Informationen verarbeiten, Entscheidungen treffen und Aktionen ausführen, was sie ideal für die Automatisierung routinemäßiger Aufgaben und die Steigerung der Effizienz in verschiedenen Anwendungen, wie virtuellen Assistenten und automatisiertem Kundenservice, macht.
13. Workflows
Ein Workflow ist eine Reihe von Aufgaben, die organisiert sind, um ein bestimmtes Ziel zu erreichen, oft unter Einbeziehung automatisierter Systeme oder Agenten, die Aufgaben nacheinander ausführen. Der Output eines jeden Agenten wird zum Input für den nächsten, was Effizienz und Konsistenz sicherstellt. Diese Einrichtung automatisiert wiederholende Aufgaben, verwaltet Abhängigkeiten und ermöglicht skalierbare Operationen.
14. Chunk-Größe
Dieser Parameter bestimmt die Menge an Text, in Zeichen, die die KI in einem einzigen Abschnitt aus den hochgeladenen Dokumenten verarbeitet. Eine kleinere Chunk-Größe fokussiert die Analyse der KI auf ein engeres Textsegment, was zu präziseren und direkt relevanten Antworten führt. Eine größere Chunk-Größe ermöglicht es der KI, einen breiteren Informationsbereich zu berücksichtigen, was potenziell mehr Kontext erfasst, aber auch die Präzision der Erkenntnisse durch weniger direkt relevante Informationen verwässern kann.
Empfohlene Nutzung: Für Anfragen, die hohe Präzision und direkte Antworten erfordern, wählen Sie kleinere Größen (z.B. 1000-2000 Zeichen). Für Fragen, die von einer breiteren Erkundung des Textes profitieren oder wenn der Kontext für das Verständnis entscheidend ist, können größere Größen (z.B. 3000-4000 Zeichen) effektiver sein. Es ist wichtig, das Bedürfnis nach detaillierten Informationen gegen das Risiko abzuwägen, zu viel peripheren Inhalt einzubeziehen.
15. Chunk-Überlappung
Dieser Parameter steuert die Menge an Text, in Zeichen, die zwischen aufeinanderfolgenden Chunks überlappt. Eine erhöhte Überlappung sorgt für bessere Kontinuität und Kontextbeibehaltung über die Chunks hinweg, was die Kohärenz der von der KI generierten Erkenntnisse verbessert. Eine geringere Überlappung kann zu einer fragmentierteren Analyse führen, erhöht jedoch die Verarbeitungseffizienz durch Reduzierung von Redundanzen.
Empfohlene Nutzung: Kleinere Überlappungswerte (z.B. 100-200 Zeichen) sind in der Regel ausreichend für allgemeine Anfragen und helfen, die Verarbeitungsgeschwindigkeit zu erhalten. Für komplexe Analysen, bei denen der Kontext entscheidend ist (insbesondere in nuancierten oder technischen Dokumenten), können höhere Überlappungswerte (z.B. 300-500 Zeichen) genauere und kontextuell reichere Antworten liefern. Passen Sie diese Einstellung basierend auf dem Bedarf an Kontextkontinuität gegenüber Verarbeitungsgeschwindigkeit an.
Wichtig: Die Chunk-Größe sollte größer als die Chunk-Überlappung sein.
16. Intelligente Tabellenverarbeitung
Aktivieren Sie diese Option, um Tabellen in hochgeladenen PDFs automatisch zu erkennen und in ein strukturiertes Textformat zu konvertieren, das für LLMs lesbar ist. Hinweis: Dies führt zu zusätzlichen Kosten und Verarbeitungszeit.
17. Intelligente Bildverarbeitung
Aktivieren Sie diese Option, um Bilder in hochgeladenen PDFs automatisch zu erkennen und in ein strukturiertes Textformat zu konvertieren, das für LLMs lesbar ist. Hinweis: Dies führt zu zusätzlichen Kosten und Verarbeitungszeit.
18. Bilderextraktion
Aktivieren Sie diese Funktion, um Bilder aus hochgeladenen PDFs zu extrahieren. Dies ermöglicht es dem Bot, die Bilder abzurufen und anzuzeigen, was die Antworten verbessert.
19. Suchmethode - Indexsuche
Definition: Traditionelle Volltextsuche, die präzise Übereinstimmungen für einfache Abfragen liefert.
Funktionsweise:
Erstellt einen Index aller Wörter in einem Dokument oder einer Datenbank
Sucht nach exakten Wortübereinstimmungen
Vorteile:
Schnell und effizient für einfache Suchanfragen
Sehr präzise bei der Suche nach spezifischen Begriffen oder Phrasen
Nachteile:
Kann Synonyme oder verwandte Konzepte übersehen
Weniger effektiv bei komplexen oder mehrdeutigen Abfragen
20. Suchmethode - KI-Suche
Definition: Eine semantische Suchfunktion, die Kontext und Bedeutung über exakte Wortübereinstimmungen hinaus versteht.
Funktionsweise:
Nutzt künstliche Intelligenz und maschinelles Lernen
Analysiert den Kontext und die Absicht hinter einer Suchanfrage
Berücksichtigt Synonyme, verwandte Konzepte und Nuancen
Vorteile:
Besonders effektiv für komplexe und nuancierte Abfragen
Kann Benutzerabsichten besser verstehen und interpretieren
Liefert oft relevantere Ergebnisse für unklare Suchanfragen
Nachteile:
Kann weniger präzise bei sehr spezifischen oder technischen Suchen sein
Benötigt mehr Rechenleistung und kann langsamer sein als die Indexsuche
21. Suchmethode - Hybridsuche
Definition: Eine ausgeklügelte Kombination aus Volltext- und semantischer Suche, die das Beste aus beiden Welten bietet.
Funktionsweise:
Kombiniert die Präzision der Indexsuche mit dem kontextuellen Verständnis der KI-Suche
Verwendet Algorithmen, um zu entscheiden, welche Suchmethode für eine bestimmte Abfrage am besten geeignet ist
Vorteile:
Bietet eine ausgewogene Mischung aus präziser Übereinstimmung und kontextuellem Verständnis
Ideal für vielfältige Anwendungsfälle und verschiedene Arten von Suchanfragen
Kann gute Ergebnisse sowohl für einfache als auch für komplexe Suchen liefern
Anwendungsbereiche:
E-Commerce-Plattformen
Digitale Bibliotheken und Archivdienste
Unternehmenssuchsysteme mit vielfältigem Inhalt
Last updated