AI & Quantum Computing Glossary

33 terms explained

Agenten-Workflow Agents
Ein KI-Systemdesign, bei dem LLMs in iterativen Schleifen arbeiten, um Aktionen zu planen, auszuführen und zu bewerten, um komplexe Aufgaben zu bewältigen.
KI-Agent Agents
Ein autonomes KI-System, das seine Umgebung wahrnehmen, Entscheidungen treffen und Aktionen ausführen kann, um mithilfe von Werkzeugen und Schlussfolgerungen vorgegebene Ziele zu erreichen.
Alignment Safety
Das Forschungsfeld, das sicherstellt, dass KI-Systeme sich gemäß menschlichen Werten und Absichten verhalten und schädliche oder unbeabsichtigte Verhaltensweisen vermeiden.
Aufmerksamkeitsmechanismus Fundamentals
Ein Bestandteil in Transformer-Modellen, der es dem Netzwerk ermöglicht, sich bei der Generierung jedes Ausgabe-Tokens auf relevante Teile des Inputs zu konzentrieren.
Chain-of-Thought (CoT) Prompting
Eine Prompting-Technik, die LLMs dazu anregt, komplexe Probleme in Zwischenschritte der Argumentation zu zerlegen, bevor sie zu einer Antwort gelangen.
Segmentierung Architecture
Der Prozess der Aufteilung von Dokumenten in kleinere Segmente für Embedding und Retrieval in RAG-Systemen.
Claude Models
Eine Familie von KI-Assistenten, entwickelt von Anthropic, konzipiert mit dem Schwerpunkt auf Sicherheit, Hilfsbereitschaft und ehrlichem Verhalten.
Codegenerierung Applications
Die Verwendung von LLMs zum automatischen Schreiben, Vervollständigen oder Transformieren von Programmiercode basierend auf natürlicher Sprachbeschreibung oder existierendem Code.
Kontextfenster Fundamentals
Die maximale Anzahl von Token, die ein LLM in einer einzelnen Interaktion verarbeiten kann, welche bestimmt, wie viel Text es während einer Konversation „speichern“ kann.
Einbettung Fundamentals
Eine numerische Vektordarstellung von Text, Bildern oder anderen Daten, die die semantische Bedeutung in einem von neuronalen Netzen verarbeitbaren Format erfasst.
Wenige-Beispiele-Lernen Prompting
Eine Technik, bei der Beispiele im Prompt enthalten sind, um das Antwortformat und den Stil des Modells ohne zusätzliches Training zu steuern.
Feinabstimmung Training
Der Prozess der weiteren Schulung eines vortrainierten Modells auf domänenspezifischen Daten, um seine Leistung für bestimmte Aufgaben oder Domänen zu verbessern.
Funktionsaufruf Agents
Eine LLM-Funktionalität zur Erzeugung strukturierter Outputs, die externe Funktionen oder APIs auslösen und so die Integration mit Tools und Diensten ermöglichen.
Gemini Models
Die Familie multimodaler KI-Modelle von Google, die in der Lage sind, Text, Bilder, Audio und Video zu verstehen und zu generieren.
GPT (Generativer vortrainierter Transformer) Models
Eine Familie großer Sprachmodelle, die von OpenAI entwickelt wurde, darunter GPT-3.5 und GPT-4, bekannt für starke Allzweckfähigkeiten.
Leitplanken Safety
Technische Kontrollen, die das Verhalten von KI-Systemen einschränken, um schädliche Ausgaben zu verhindern, Richtlinien durchzusetzen oder Qualitätsstandards aufrechtzuerhalten.
Halluzination Safety
Wenn ein großes Sprachmodell (LLM) plausibel klingende, aber sachlich falsche oder erfundene Informationen generiert, die nicht in seinen Trainingsdaten verankert sind.
Großes Sprachmodell (LLM) Fundamentals
Ein Typ von Modell Künstlicher Intelligenz, das auf großen Mengen von Textdaten trainiert wurde, um menschenähnlichen Text zu verstehen und zu generieren, fähig zu Aufgaben wie Übersetzung, Zusammenfassung und Konversation.
Llama Models
Eine Familie von Open-Weight LLMs, die von Meta veröffentlicht wurden und es Forschern und Unternehmen ermöglichen, Modelle lokal auszuführen und zu optimieren.
LoRA (Low-Rank Adaptation) Training
Eine effiziente Fine-Tuning-Technik, die kleine trainierbare Matrizen zu einem eingefrorenen Modell hinzufügt, wodurch der Speicherbedarf und die Rechenanforderungen drastisch reduziert werden.
Mistral Models
Ein europäisches KI-Unternehmen und seine Familie effizienter Open-Weight-Modelle, die für ihre starke Leistung im Verhältnis zu ihrer Größe bekannt sind.
Multimodale KI Applications
KI-Systeme, die in der Lage sind, mehrere Arten von Daten, wie Text, Bilder, Audio und Video, gleichzeitig zu verarbeiten und zu generieren.
Prompt Engineering Prompting
Die Praxis, Texteingaben für große Sprachmodelle (LLMs) zu entwerfen und zu optimieren, um gewünschte Ausgaben zu erzielen, einschließlich Techniken wie Few-Shot Learning und Chain-of-Thought.
Prompt Injection Safety
Eine Sicherheitslücke, bei der bösartige Anweisungen, die in Benutzereingaben eingebettet sind, das beabsichtigte Verhalten des Systems überschreiben oder manipulieren.
Quantisierung Training
Eine Technik zur Reduzierung der Modellgröße, indem Gewichte mit geringerer Präzision (z. B. 4-Bit anstelle von 16-Bit) bei minimalem Genauigkeitsverlust dargestellt werden.
RAG (Retrieval Augmented Generation) Architecture
Eine Architektur, die LLM-Antworten verbessert, indem sie relevante Informationen aus externen Wissensquellen abruft, bevor sie eine Antwort generiert.
RLHF (Reinforcement Learning from Human Feedback) Training
Eine Trainingsmethode, die menschliche Präferenzen nutzt, um große Sprachmodelle (LLMs) zu optimieren, wodurch sie hilfreicher, harmloser und ehrlicher werden.
Semantische Suche Applications
Eine Suchtechnik, die die Bedeutung und Absicht hinter Abfragen versteht, anstatt nur Schlüsselwörter abzugleichen, basierend auf Embeddings.
Systemaufforderung Prompting
Anweisungen, die einem LLM anfänglich gegeben werden und dessen Rolle, Verhalten, Einschränkungen und Antwortformat für eine Konversationssitzung definieren.
Temperatur Prompting
Ein Parameter zur Steuerung der Zufälligkeit in LLM-Ausgaben, wobei niedrigere Werte deterministischere Antworten erzeugen und höhere Werte die Kreativität erhöhen.
Token Fundamentals
Die Basiseinheit Text, die LLMs verarbeiten, typischerweise ein Wort, ein Subwort oder ein Zeichen, je nach Tokenisierungsverfahren.
Transformer Fundamentals
Eine 2017 eingeführte neuronale Netzwerkarchitektur, die Selbstaufmerksamkeitsmechanismen zur Verarbeitung sequentieller Daten nutzt und die Grundlage moderner LLMs bildet.
Vektordatenbank Architecture
Eine spezialisierte Datenbank, die für das Speichern und Abfragen hochdimensionaler Embedding-Vektoren optimiert ist und eine schnelle semantische Ähnlichkeitssuche ermöglicht.