KI-Glossar: Die wichtigsten Begriffe für KMUs verständlich erklärt

Die Welt der Künstlichen Intelligenz ist von Fachbegriffen geprägt, die auf den ersten Blick komplex erscheinen können. Dieses Glossar bietet Ihnen einen kompakten, praxisnahen Überblick über die zentralen Konzepte, Methoden und Technologien – von den Grundlagen bis zu aktuellen Trends. Nutzen Sie es als Nachschlagewerk für Strategiegespräche, Tool-Evaluierungen oder um mit Ihrem Entwicklungsteam auf Augenhöhe zu diskutieren.

Julian Posmeck

an abstract image of a sphere with dots and lines

1. Kernkonzepte und Grundlagen

1.1 Künstliche Intelligenz (KI)

Was ist das?
KI ist der Überbegriff für Technologien, die Aufgaben übernehmen, die normalerweise menschliche Intelligenz erfordern (z. B. Mustererkennung, Entscheidungsfindung, Problemlösung). KI kann sehr einfach sein, zum Beispiel ein Programm, das nur streng nach festen Regeln vorgeht. Aber auch hochkomplexe Systeme wie Chatbots oder autonome Fahrzeuge fallen unter KI.

Beispiel:
Eine einfache KI ist z.B. ein Schachcomputer, der nach vordefinierten Strategien Züge vorschlägt. Er „denkt“ nicht wirklich, sondern folgt einem Regelwerk, das ihm beibringt, welche Züge günstig sind.

1.2 Maschinelles Lernen (ML)

Was ist das?
Maschinelles Lernen ist ein Teilbereich der KI, bei dem Systeme eigenständig Muster aus Daten erkennen und daraus „lernen“, ohne explizit für jede Eventualität programmiert zu sein. Das bedeutet, das System verbessert sich mit jeder neuen Datenerfahrung.

Beispiel:
Ein Spam-Filter lernt anhand tausender E-Mails, welche Merkmale (Betreffzeile, Absender, Wortwahl) typisch für Spam sind. Neue Spam-Mails werden dadurch immer zuverlässiger erkannt.

1.3 Deep Learning

Was ist das?
Deep Learning ist ein Spezialgebiet des Maschinellen Lernens, das künstliche neuronale Netze mit vielen Schichten (Layern) nutzt. Dank dieser tiefen Architektur kann das System hochkomplexe Muster erkennen und verarbeiten.

Beispiel:

  • Bilderkennung: Ein neuronales Netzwerk lernt, ob auf einem Foto eine Katze zu sehen ist.

  • ChatGPT: Ein fortgeschrittenes neuronales Sprachmodell, das auf riesigen Textmengen trainiert wurde.

Abgrenzung zu ML:
Deep Learning ist besonders leistungsfähig, wenn sehr viele Daten zur Verfügung stehen. Das Netzwerk „lernt“ in mehreren Schichten, sodass es abstrakte und sehr feine Unterschiede erkennt (z. B. Stimmnuancen oder komplexe Sprachzusammenhänge).

1.4 Generative KI

Was ist das?
Generative KI ist darauf spezialisiert, neue Inhalte zu erzeugen – sei es Text, Bilder, Musik oder Code. Im Gegensatz zu reinen Klassifikationsmodellen (z. B. „Ist das Spam oder nicht?“) erstellt die KI hier eigenständig neue Daten.

Beispiel:

  • Midjourney oder Stable Diffusion generieren neue Bilder aus Textbeschreibungen.

  • Ein KI-Textgenerator schreibt Produktbeschreibungen, Blogartikel oder sogar Gedichte.

Wichtig:
Generative KI basiert häufig auf Deep-Learning-Modellen, weil diese besonders gut komplexe Strukturen wie Sprache oder Bildinhalte abbilden können.

1.5 Large Language Model (LLM)

Was ist das?
Ein LLM ist ein extrem großes Sprachmodell, das auf riesigen Textmengen trainiert wurde und daher sehr vielseitige sprachliche Aufgaben bewältigen kann (Textgenerierung, Übersetzung, Zusammenfassung, Dialog). ChatGPT ist ein prominentes Beispiel für ein solches Modell.

Beispiel:
GPT-4 kann auf Deutsch oder Englisch Fragen beantworten, E-Mails formulieren oder Programmcode schreiben. Dabei nutzt es sein „Wissen“ aus Milliarden Textbausteinen im Training.

2. Technische Begriffe & Methoden

2.1 Prompt Engineering

Was ist das?
Die gezielte Gestaltung von Eingabeaufforderungen („Prompts“), um von KI-Modellen präzisere und relevantere Ergebnisse zu erhalten.

Beispiel:
„Erstelle eine überzeugende und kompakte Produktbeschreibung für eine Smartwatch in jugendlichem Ton, maximal 100 Wörter.“

2.2 Fine-Tuning

Was ist das?
Die Anpassung eines vortrainierten KI-Modells an spezifische Anforderungen oder Domänen, um die Leistungsfähigkeit in einem speziellen Anwendungsfall zu optimieren.

Beispiel:
Ein Kundenservice-Chatbot wird mit firmenspezifischen FAQ-Daten weitertrainiert, um besonders präzise Antworten zu geben.

2.3 Halluzinationen (Hallucinations)

Was ist das?
Der Effekt, dass ein KI-Modell zwar flüssig klingende, aber faktisch inkorrekte oder erfundene Informationen liefert.

Beispiel:
Ein Rechtsberatungs-Chatbot nennt fiktive Gesetze oder Paragrafen, die in der Realität nicht existieren.

2.4 Token

Was ist das?
Die kleinste Verarbeitungseinheit in Textmodellen. Das können ganze Wörter, Wortteile, Satzzeichen oder Leerzeichen sein.

Beispiel:
Das Wort „KI“ zählt als 1 Token, während ein längeres Wort wie „Zusammenarbeit“ in in 3 Tokens zerlegt wird (Zusa-mmen-arbeit).

2.5 Transformer-Architektur & Attention Mechanism

Was ist das?
Ein neuronales Netzwerkmodell, das durch den Einsatz von „Self-Attention“ komplexe Zusammenhänge im Text erfassen kann. Die Transformer-Architektur bildet die Grundlage moderner LLMs (Large Language Models).

Beispiel:
GPT-4 nutzt diese Architektur, um den Kontext über weite Textpassagen hinweg zu verstehen und zusammenhängende Antworten zu generieren.

2.6 Reinforcement Learning from Human Feedback (RLHF)

Was ist das?
Ein Verfahren, bei dem menschliches Feedback zur Verbesserung eines KI-Modells genutzt wird. Menschen bewerten Antworten, und das Modell lernt, bessere Resultate zu liefern.

Beispiel:
Eine Musikplattform nutzt das Feedback der Nutzer (Daumen hoch / Daumen runter), um sinnvolle und angemessene Musikvorschläge zu generieren.

2.7 Few-Shot, One-Shot & Zero-Shot Learning
  • Zero-Shot Learning: Das Modell löst Aufgaben, für die es keine expliziten Trainingsbeispiele gibt, indem es sein generalisiertes Wissen nutzt.

  • One-Shot Learning: Das Modell wird mit nur einem Beispiel an eine neue Aufgabe herangeführt.

  • Few-Shot Learning: Das Modell lernt neue Aufgaben anhand weniger Beispiele.

2.8 Overfitting & Underfitting

Was ist das?

  • Overfitting: Das Modell passt sich zu stark an die Trainingsdaten an und verliert die Fähigkeit zur Generalisierung.

  • Underfitting: Das Modell ist zu simpel, um die zugrunde liegenden Muster in den Daten zu erkennen.

Beispiel:
Ein Modell, das im Training perfekte Ergebnisse liefert, scheitert in der Praxis („Overfitting“). Andersherum kann ein Modell zu allgemein sein und verpasst wichtige Details („Underfitting“).

2.9 Embedding

Was ist das?
Die Umwandlung von Daten (z. B. Wörtern oder Sätzen) in numerische Vektoren, die semantische Beziehungen abbilden.

Beispiel:
Wörter mit ähnlicher Bedeutung, wie „Auto“ und „Fahrzeug“, liegen im Embedding-Raum nahe beieinander.

2.10 Kontextfenster (Context Window)

Was ist das?
Der maximal verarbeitbare Textumfang, den ein LLM (z. B. GPT) in einem Durchgang berücksichtigen kann. Frühere LLMs konnten nur einige Seiten an Wörtern verarbeiten, während heutige Modelle oft ein Kontextfenster haben, dass mehrere Bücher umfasst.

Beispiel:
GPT-4 kann ganze Artikel und PDFs am Stück analysieren, weil es über ein größeres Kontextfenster verfügt als GPT-3.5.

2.11 Temperatur, Top-k & Top-p

Was ist das?
Steuerparameter für die Textgenerierung in LLMs:

  • Temperatur: Beeinflusst die Kreativität und Zufälligkeit der generierten Inhalte (höhere Werte = mehr Variation).

  • Top-k & Top-p: Beschränken die Auswahl möglicher Wörter auf die wahrscheinlichsten Optionen (Top-k) oder basierend auf kumulativen Wahrscheinlichkeiten (Top-p).

Beispiel:
Ein kreativer Story-Generator verwendet eine höhere Temperatur, um unvorhersehbarere Handlungsverläufe zu erzeugen.

2.12 Generative Adversarial Networks (GANs)

Was ist das?
Ein Framework mit zwei neuronalen Netzen (Generator und Diskriminator), die gegeneinander antreten. Der Generator erzeugt neue Daten, der Diskriminator bewertet deren Echtheit.

Beispiel:
Erstellung fotorealistischer Gesichter von Personen, die es gar nicht gibt („This Person Does Not Exist“).

2.13 Transfer Learning

Was ist das?
Die Methode, bei der ein bereits vortrainiertes Modell als Ausgangsbasis für eine verwandte Aufgabe verwendet wird.

Beispiel:
Ein Modell, das auf allgemeiner Bildklassifikation trainiert wurde, wird für die Erkennung bestimmter Bauteile in einer Produktionsstraße feinjustiert.

2.14 Unsupervised, Semi-Supervised & Self-Supervised Learning

Was ist das?

  • Unsupervised Learning: Lernen ohne gelabelte Daten, um verborgene Muster zu entdecken.

  • Semi-Supervised Learning: Kombination aus gelabelten und unlabelten Daten zur Verbesserung der Modellgenauigkeit.

  • Self-Supervised Learning: Das Modell generiert eigene Trainingssignale aus unstrukturierten Daten (z. B. indem es Lücken in Texten füllt).

Beispiel:
Ein Modell entdeckt in unlabelten Kundendaten unterschiedliche Segmente oder Gruppierungen, ohne dass ein Mensch vorgibt, nach was sortiert werden soll.

2.15 Backpropagation

Was ist das?

Ein Lernalgorithmus der beim Training von neuronalen Netzen verwendet wird, um Fehlerwerte rückwärts durch das Netzwerk zu propagieren und die Gewichte anpasst.

Beispiel:
Im Kreditwesen extrahiert ein Analyst spezielle Merkmale (z. B. Einkommenshöhe, Zahlungsverhalten) und „füttert“ das Modell damit, um Kreditausfallrisiken besser vorherzusagen.

3. Anwendungsbereiche

3.1 Natural Language Processing (NLP)

Was ist das?
Die KI-gestützte Verarbeitung und Analyse menschlicher Sprache – von der Stimmungsanalyse bis zur automatischen Textzusammenfassung.

Beispiel:
Automatisierte Kategorisierung von Kundenfeedback, das per E-Mail oder Social Media eintrifft.

3.2 Computer Vision

Was ist das?
Die Analyse und Interpretation visueller Daten (Bilder, Videos), zum Beispiel zur Objekterkennung oder Bildklassifikation.

Beispiel:
Erfassung von Lagerbeständen via Smartphone-Kamera, deren Bilder automatisiert ausgewertet werden.

3.3 Robotic Process Automation (RPA)

Was ist das?
Automatisierung wiederkehrender, regelbasierter Aufgaben mithilfe von Software-Robotern oder KI.

Beispiel:
Automatisierte Extraktion von Rechnungsdaten aus PDF-Dokumenten und Übertragung ins ERP-System.

3.4 Recommendation Systems

Was ist das?
Systeme, die personalisierte Empfehlungen auf Basis von Nutzerdaten, Klickverhalten oder Vorlieben generieren.

Beispiel:
Im E-Commerce werden Produkte vorgeschlagen („Kunden, die dieses Produkt kauften, interessierten sich auch für …“).

3.5 Predictive Maintenance

Was ist das?
Die Vorhersage von Wartungsbedarf anhand von Sensordaten, um Ausfälle frühzeitig zu erkennen und zu verhindern.

Beispiel:
Eine Produktionsmaschine sendet ständig Temperatur- und Vibrationsdaten an eine KI, die bevorstehende Defekte erkennt.

3.6 Chatbots & Conversational AI

Was ist das?
Interaktive Systeme, die menschliche Dialoge simulieren und automatisiert mit Kunden oder Nutzern kommunizieren können.

Beispiel:
Ein 24/7 Chatbot auf der Unternehmenswebsite, der häufig gestellte Fragen beantwortet oder an den Support weiterleitet.

3.7 Spracherkennung (Speech-to-Text)

Was ist das?
Die Umwandlung gesprochener Sprache in Text, oft mithilfe neuronaler Netze.

Beispiel:
Automatische Transkription von Meetings, Interviews oder Kundentelefonaten.

4. Tools & Frameworks

4.1 LangChain

Was ist das?
Ein Open-Source-Framework, das den Aufbau komplexer LLM-Anwendungen ermöglicht – etwa durch das Verketten verschiedener Prompt-Schritte (Prompt Chaining).

Beispiel:
Erstellung eines mehrstufigen Recherche-Tools, das zuerst relevante Daten sammelt und dann eine Zusammenfassung generiert.

4.2 Hugging Face

Was ist das?
Eine Plattform mit vorgefertigten KI-Modellen und Tools, die den Einstieg in NLP, Bildverarbeitung und andere Bereiche erleichtert.

Beispiel:
Verwendung eines BERT-Modells zur automatischen Textklassifizierung und Sentiment-Analyse, ohne selbst ein Modell von Grund auf trainieren zu müssen.

4.3 Stable Diffusion

Was ist das?
Ein Open-Source-Modell zur Bildgenerierung, das auf Deep Learning basiert und hochwertige, kreative Visualisierungen erzeugt.

Beispiel:
Erstellen individueller Produktillustrationen, die aus einer einfachen Textbeschreibung generiert werden.

4.4 RAG (Retrieval-Augmented Generation)

Was ist das?
Eine Technik, bei der während der Textgenerierung auf externe Wissensdatenbanken zugegriffen wird, um aktuelle oder spezifische Informationen in den Output einzubringen. So können Halluzinationen significant reduziert werden.

Beispiel:
Ein Chatbot, der tagesaktuelle Börsenkurse abfragt, bevor er eine Finanzprognose formuliert.

5. Ethik, Risiken & Sicherheitsaspekte

5.1 Bias (Verzerrung) & Bias-Variance Tradeoff

Was ist das?

  • Bias: Systematische Verzerrungen in den Trainingsdaten, die zu unfairen oder einseitigen Modellergebnissen führen können.

  • Bias-Variance Tradeoff: Das Spannungsfeld zwischen zu starker Anpassung an Trainingsdaten (Overfitting) und zu starker Vereinfachung (Underfitting).

Beispiel:
Ein Recruiting-Tool, das vor allem mit männlichen Bewerberdaten trainiert wurde, bewertet weibliche Bewerbungen schlechter (Bias).

5.2 Explainable AI (XAI)

Was ist das?
Verfahren und Ansätze, die KI-Entscheidungen nachvollziehbar machen. Ziel ist Transparenz, damit Nutzer die Gründe hinter einer Empfehlung oder Prognose verstehen.

Beispiel:
Eine Bank kann anhand eines XAI-Dashboards aufzeigen, welche Faktoren zur Ablehnung eines Kreditantrags führten.

5.3 Alignment Problem

Was ist das?
Die Herausforderung, KI-Systeme so zu entwickeln, dass ihre Ziele mit den menschlichen Werten und Intentionen übereinstimmen.

Beispiel:
Eine KI soll „unternehmensfreundliche“ Entscheidungen treffen, darf dabei aber keine ethischen Prinzipien verletzen.

5.4 Deepfakes

Was ist das?
Täuschend echt wirkende, KI-generierte Bilder, Videos oder Audioaufnahmen, die manipulierte Szenen darstellen können.

Beispiel:
Gefälschte Videoansprachen von CEOs, in denen Mitarbeiter zu illegalen Transaktionen aufgefordert werden.

5.5 Adversarial Attacks & Robustheit

Was ist das?
Angriffe, bei denen gezielte Störungen oder manipulative Eingaben eingesetzt werden, um KI-Systeme zu täuschen oder zu destabilisieren. „Robustheit“ beschreibt die Widerstandsfähigkeit gegenüber solchen Angriffen.

Beispiel:
Ein selbstfahrendes Auto wird durch Aufkleber auf Verkehrsschildern verwirrt, weil der Computer „falsche“ Informationen erkennt.

5.6 Prompt Injection & Jailbreaking

Was ist das?
Techniken, bei denen gezielte Manipulationen in den Prompts (Eingabeaufforderungen) vorgenommen werden, um KI-Modelle zu unerwünschten Outputs zu verleiten oder Sicherheitsschranken zu umgehen, wie bspw. Anleitungen für unerlaubte Waffen oder Chemische Stoffe.

Beispiel:
Ein Angreifer integriert Aufforderungen in ein Prompt, um unerlaubte Systembefehle auszuführen. Bekannte Methoden sind die Androhung von Straftaten, wenn die KI nicht die gewünschte Anfrage ausführt, oder das Anhängen von gefälschten richterlichen Anweisungen, die die KI dazu bringen, interne Sicherheitsmechanismen zu umgehen.

6. Zukunftstrends

6.1 Multimodale KI

Was ist das?
Modelle, die mehrere Datentypen (Text, Bild, Audio etc.) gleichzeitig verarbeiten, um umfassendere und kontextbezogenere Analysen zu ermöglichen.

Beispiel:
Ein System, das Kundengespräche (Sprache) auswertet, Gesichtsausdrücke erkennt (Bild) und parallel Chat-Verläufe (Text) analysiert.

6.2 Edge AI

Was ist das?
Modelle, die mehrere Datentypen (Text, Bild, Audio etc.) gleichzeitig verarbeiten, um umfassendere und kontextbezogenere Analysen zu ermöglichen.

Beispiel:
Ein System, das Kundengespräche (Sprache) auswertet, Gesichtsausdrücke erkennt (Bild) und parallel Chat-Verläufe (Text) analysiert.

6.3 AI Agents / Autonome KI

Was ist das?
Selbstständig agierende Systeme, die komplexe Aufgaben übernehmen und sich bei Bedarf eigene Unteraufgaben definieren.

Beispiel:
KI-gestützte Buchhaltungsassistenten, die Mahnungen versenden, Belege prüfen und Mitarbeiter proaktiv über Anomalien informieren.

6.4 Quanten-KI

Was ist das?
Die Kombination von Quantencomputing und KI. Hierbei werden quantenmechanische Effekte genutzt, um KI-Berechnungen exponentiell zu beschleunigen.

Beispiel:
Forschung an neuen Medikamenten, indem mögliche Molekülkombinationen in Sekundenschnelle getestet werden.

6.5 Künstliche Generalintelligenz (AGI)

Was ist das?
AGI bezeichnet den hypothetischen Punkt, an dem eine KI ein menschliches Maß an Verständnis und Problemlösefähigkeit in nahezu allen Bereichen erreicht.

Beispiel:
Ein AGI-System könnte eigenständig wissenschaftliche Durchbrüche erzielen, komplexe juristische Fragen klären oder kreative Aufgaben wie Drehbücher verfassen – ohne menschliche Hilfe.

7. Praxistipps: So nutzen Sie dieses Glossar

  • Für Führungskräfte und Innovationsmanager: Nutzen Sie diese Begriffe in Strategiegesprächen und Berichten, um konkrete Anforderungen und Lösungsansätze klar zu kommunizieren.
    Beispiel: „Wir sollten Explainable AI implementieren, um die Nachvollziehbarkeit unserer Kreditentscheidungen sicherzustellen.“

  • Für Teams und Projektgruppen: Erstellen Sie ein internes Wiki, das dieses Glossar als Basis nutzt und mit firmenspezifischen Beispielen erweitert wird – so bleiben alle auf dem gleichen Wissensstand.

  • Bei der Evaluierung von Tools: Fragen Sie gezielt nach Themen wie RLHF, Zero-Shot Learning oder Bias-Kontrollen, um die Professionalität und Sicherheit der Lösungen einzuschätzen.

  • Im täglichen Arbeitsalltag: Achten Sie auf kleine, praktikable KI-Anwendungsfälle (z. B. einfache Automatisierungen), um schnell erste Erfolge („Quick Wins“) zu erzielen und das Team von den Vorteilen zu überzeugen.

  • Zukunftssicherung: Beobachten Sie Trends wie Multimodale KI oder AI Agents, um frühzeitig Wettbewerbsvorteile zu sichern.

Schlussgedanke

Dieses Glossar ist Ihr erster, aber wesentlicher Schritt, um die komplexe Welt der KI zu verstehen. Ein fundiertes Verständnis der grundlegenden Konzepte und Technologien erleichtert die erfolgreiche Umsetzung von KI-Projekten in Ihrem KMU. Künstliche Intelligenz ist längst kein Nischenthema – je besser Sie und Ihr Team die Grundlagen beherrschen, desto effektiver können Sie innovative Lösungen implementieren.

Inhaltsverzeichnis

1. Kernkonzepte und Grundlagen

  • Künstliche Intelligenz (1.1), Maschinelles Lernen (1.2), Deep Learning (1.3), Generative KI (1.4), Large Language Models (1.5), (Künstliches) Neuronales Netz (1.6)

3. Anwendungsbereiche

  • Natural Language Processing (3.1), Computer Vision (3.2), Robotic Process Automation (3.3), Recommendation Systems (3.4), Predictive Maintenance (3.5), Chatbots & Conversational AI (3.6), Spracherkennung (Speech-to-Text) (3.7)

2. Technische Begriffe & Methoden

  • Prompt Engineering (2.1), Fine-Tuning (2.2), Halluzinationen (Hallucinations) (2.3), Token (2.4), Transformer-Architektur & Attention Mechanism (2.5), Reinforcement Learning from Human Feedback (2.6), Few-Shot, One-Shot & Zero-Shot Learning (2.7), Overfitting & Underfitting (2.8), Embedding (2.9), Kontextfenster (2.10), Temperatur, Top-k & Top-p (2.11), Generative Adversarial Networks (2.12), Transfer Learning (2.13), Unsupervised, Semi-Supervised & Self-Supervised Learning (2.14), Backpropagation (2.15)

4. Tools & Frameworks

  • LangChain (4.1), Hugging Face (4.2), Stable Diffusion (4.3), Retrieval-Augmented Generation (4.4)

5. Ethik, Risiken & Sicherheitsaspekte

  • Bias (Verzerrung) & Bias-Variance Tradeoff (5.1), Explainable AI (5.2), Alignment Problem (5.3), Deepfakes (5.4), Adversarial Attacks & Robustheit (5.5), Prompt Injection & Jailbreaking (5.6).

6. Zukunftstrends

  • Multimodale KI (6.1), Edge AI (6.2), AI Agents / Autonome KI (6.3), Quanten-KI (6.4), Künstliche Generalintelligenz (AGI) (6.5)

Der KI Workshop für KMUs

Schnell - Verständlich - Sofort Umsetzbar
Werden Sie in nur 2 Stunden zum KI-Vorreiter.
Entdecken Sie die wichtigsten Tools, Best Practices und Workflows, um direkt nach dem Workshop messbare Resultate
zu erzielen und Vorreiter in Ihrer Branche zu werden!
blue and white striped round textile
blue and white striped round textile

Top Ratings von über 50 Kunden

★★★★★