Home Glossary

Glossary

Künstliche Intelligenz

Künstliche Intelligenz (KI) bezieht sich auf die Simulation menschlicher Intelligenz in Maschinen, die programmiert sind, um wie Menschen zu denken und zu handeln. Diese intelligenten Maschinen können durch die Verarbeitung großer Datenmengen und das Lernen daraus trainiert werden, verschiedene Aufgaben auszuführen. KI-Systeme können in zwei Hauptkategorien eingeteilt werden: eng oder allgemein. Eng definierte KI-Systeme sind darauf ausgelegt, spezifische Aufgaben auszuführen, während allgemeine KI-Systeme darauf ausgelegt sind, jede intellektuelle Aufgabe auszuführen, die ein Mensch ausführen kann. Das ultimative Ziel der KI-Forschung besteht darin, Systeme zu schaffen, die intelligent verstehen, denken und handeln können, auf eine Art und Weise, die von einem Menschen nicht zu unterscheiden ist.

Handlungsraum

Die Menge aller möglichen Aktionen, die ein Agent in einem Verstärkungslernproblem ausführen kann.

Künstliches neuronales Netzwerk

Ein Typ von Maschinenlernalgorithmus, der nach der Struktur und Funktion des menschlichen Gehirns modelliert ist, bestehend aus Schichten von miteinander verbundenen "Neuronen", die Informationen verarbeiten und übertragen können.

Autoencoder

Ein Typ von neuronalem Netzwerk, der zur Dimensionsreduktion und Merkmalslernen verwendet wird, bestehend aus einem Encoder und einem Decoder, die lernen, Daten jeweils zu komprimieren und zu rekonstruieren.

Bagging

Eine Maschinenlernensemble-Technik, bei der mehrere Modelle auf verschiedenen zufälligen Teilmengen der Trainingsdaten trainiert und kombiniert werden, um Vorhersagen zu treffen, mit dem Ziel, die Varianz zu reduzieren und die Verallgemeinerung des Modells zu verbessern.

Big Data

Große Datenmengen, die analysiert und genutzt werden können, um Erkenntnisse zu gewinnen und fundierte Entscheidungen zu treffen.

Boosting

Eine Maschinenlernensemble-Technik, bei der schwache Lernende kombiniert werden, um einen starken Lernenden zu bilden, mit dem Ziel, die Gesamtvorhersagegenauigkeit zu verbessern.

ChatGPT

Ein Chatbot von OpenAI, der auf ihrem GPT3.5 großen Sprachmodell aufgebaut ist und mit öffentlichen Daten trainiert wurde.

Klassifizierung

Der Prozess der Kategorisierung von Daten in vordefinierte Klassen oder Gruppen.

Clustering

Der Prozess des Gruppierens von Datenpunkten basierend auf Ähnlichkeit oder gemeinsamen Merkmalen.

Kognitive Computing

Die Entwicklung von Computersystemen, die Aufgaben ausführen können, die normalerweise menschenähnliche Intelligenz erfordern, wie z.B. Lernen und Problemlösung.

Computer Vision

Die Fähigkeit eines Computers, visuelle Daten aus der Welt zu interpretieren und zu verstehen, wie Bilder und Videos.

Convolutional Neural Network

Ein Typ von neuronalem Netzwerk, das speziell für Bild- und Videoerkennungsaufgaben entwickelt wurde, indem es Faltungs-Schichten verwendet, um Muster in den Daten zu lernen und zu erkennen.

Kreuzvalidierung

Eine Modellbewertungstechnik, bei der die Trainingsdaten in mehrere Folds aufgeteilt werden, und das Modell auf jedem Fold trainiert und bewertet wird, um eine Schätzung seiner Generalisierungsleistung zu erhalten.

Datamining

Der Prozess der Extraktion nützlicher Muster und Kenntnisse aus großen Datensätzen.

Entscheidungsbaum

Eine flussdiagrammartige Baumstruktur, die zur Entscheidungsfindung auf der Grundlage einer Reihe von binären Splits verwendet wird.

Deep Dream

Eine von Google entwickelte Bildgenerierungstechnik, die ein Convolutional Neural Network verwendet, um traumähnliche Bilder zu generieren, indem es die Merkmale des Netzwerks verstärkt.

Deep Learning

Ein Teilgebiet des maschinellen Lernens, das darin besteht, mehrschichtige neuronale Netze zu trainieren, um selbstständig zu lernen und Entscheidungen zu treffen.

Dimensionsreduktion

Der Prozess der Reduzierung der Anzahl von Merkmalen oder Dimensionen in einem Datensatz, während so viel Information wie möglich erhalten bleibt.

Diskontierungsfaktor

Der Faktor, mit dem zukünftige Belohnungen im Reinforcement Learning-Algorithmus diskontiert werden, um das Gleichgewicht zwischen kurzfristigen und langfristigen Belohnungen auszugleichen.

Dynamische Programmierung

Eine Methode zur Lösung von Optimierungsproblemen, indem sie in kleinere Teilprobleme aufgeteilt und die Lösungen dieser Teilprobleme in einer Tabelle oder einem Array gespeichert werden.

Ensemble-Lernen

Eine maschinelle Lerntechnik, bei der mehrere Modelle trainiert und kombiniert werden, um Vorhersagen zu treffen, mit dem Ziel, die Gesamtleistung des Modells zu verbessern.

Episode

Die Abfolge von Zuständen, Aktionen und Belohnungen, die ein Agent in einem Reinforcement-Learning-Problem erlebt, bevor er einen Terminalzustand erreicht.

Evolutionäre Berechnung

Eine Reihe von Algorithmen, die Prinzipien der natürlichen Evolution wie Fortpflanzung, Mutation und Selektion nutzen, um Lösungen für Probleme zu finden.

Expertensystem

Ein Computerprogramm, das künstliche Intelligenztechniken nutzt, um die Entscheidungsfähigkeiten eines menschlichen Experten in einem bestimmten Bereich zu imitieren.

Exploration-Exploitation-Tradeoff

Die Spannung im Reinforcement Learning zwischen der Erforschung neuer Aktionen und der Ausnutzung bekannter guter Aktionen, um das Lernen und die Belohnungsmaximierung des Agenten auszugleichen.

Gesichtserkennung

Der Prozess der Identifizierung und Verifizierung von Personen anhand ihrer Gesichtsmerkmale.

Feature-Engineering

Der Prozess der Auswahl und Erstellung informativer und relevanter Merkmale aus Rohdaten für die Verwendung in einem maschinellen Lernmodell.

Feature-Auswahl

Der Prozess der Auswahl einer Teilmenge der relevantesten Merkmale aus einer größeren Menge von Merkmalen für die Verwendung in einem maschinellen Lernmodell.

Feinabstimmung

Eine maschinelle Lerntechnik, bei der die Hyperparameter oder Parameter eines vortrainierten Modells auf einem neuen Datensatz angepasst werden, um seine Leistung für eine bestimmte Aufgabe zu optimieren. Die Feinabstimmung wird häufig verwendet, wenn ein vortrainiertes Modell für eine verwandte Aufgabe verfügbar ist, aber die verfügbaren Daten für die neue Aufgabe begrenzt sind oder die Ziel-Aufgabe geringfügig von der Originalaufgabe abweicht.

Funktionsapproximation

Die Verwendung einer Funktion zur Approximation der Wertfunktion oder der Richtlinie in einem Reinforcement-Learning-Problem, wenn der Zustands- oder Aktionsraum zu groß ist, um explizit dargestellt zu werden.

Fuzzy-Logik

Eine Form der mathematischen Logik, die Unsicherheit und Unschärfe in der Eingabe und Ausgabe eines Systems zulässt.

GAN

Ein Typ von generativem Modell, bestehend aus zwei konkurrierenden neuronalen Netzen, einem Generator und einem Diskriminator, die lernen, synthetische Daten zu generieren und zu erkennen.

Generatives adversarielles Netzwerk

Ein Typ von neuronalem Netzwerk, bestehend aus zwei konkurrierenden Netzwerken, einem Generator und einem Diskriminator, die lernen, synthetische Daten zu generieren und zu erkennen.

Generatives Modell

Ein maschinelles Lernmodell, das die zugrunde liegende Verteilung der Daten lernt und neue, synthetische Proben daraus generieren kann.

Genetische Algorithmen

Ein Suchalgorithmus, der Prinzipien der natürlichen Evolution wie Fortpflanzung, Mutation und Selektion verwendet, um Lösungen für Probleme zu finden.

GPT

Ein großes Sprachmodell, das von OpenAI entwickelt wurde und Transformer-Architektur und selbstüberwachtes Lernen verwendet, um menschenähnlichen Text zu generieren.

Heuristiken

Eine Problemlösungsmethode, die darin besteht, eine Lösung durch Versuch und Irrtum zu finden und aus vergangenen Erfahrungen zu lernen.

Hyperparameter-Abstimmung

Der Prozess der Anpassung der Parameter eines maschinellen Lernmodells, die vor dem Training festgelegt werden, um seine Leistung zu verbessern.

Bildbeschriftung

Der Prozess der Generierung einer natürlichen Sprachbeschreibung eines Bildes.

Bildklassifizierung

Der Prozess der Zuordnung eines Bildes zu einer oder mehreren vordefinierten Kategorien oder Klassen.

Bildfarbgebung

Der Prozess des Hinzufügens von Farben zu einem Graustufenbild.

Bildverbesserung

Der Prozess der Verbesserung der visuellen Qualität eines Bildes, wie z.B. Erhöhung des Kontrasts oder Entfernung von Rauschen.

Bildgenerierung

Der Prozess der Erstellung neuer, synthetischer Bilder mithilfe von künstlicher Intelligenztechnologie.

Bildvorverarbeitung

Der Prozess der Vorbereitung von Bildern für die Verwendung in einem maschinellen Lernmodell.

Bildrestaurierung

Der Prozess der Reparatur oder Wiederherstellung eines degradierten oder beschädigten Bildes.

Bildsuche

Der Prozess der Suche nach und Abruf von Bildern aus einer großen Datenbank auf der Grundlage ihres visuellen Inhalts.

Bildsegmentierung

Der Prozess der Aufteilung eines Bildes in mehrere Regionen oder Segmente, die jeweils ein unterschiedliches Objekt oder Hintergrund darstellen.

Bild-zu-Bild-Übersetzung

Der Prozess der Umwandlung eines Bildes von einem Bereich in einen anderen, wie zum Beispiel die Übersetzung eines Fotos in ein Gemälde oder eine Skizze.

Inferenz

Der Prozess des Ableitens von Schlussfolgerungen aus Prämissen mit logischem Denken.

Inpainting

Der Prozess der Reparatur oder Füllung von beschädigten oder fehlenden Teilen eines Bildes.

K-means

Ein unüberwachter Machine-Learning-Algorithmus, der Datenpunkte in eine vordefinierte Anzahl von Clustern gruppiert.

Wissensrepräsentation

Die Art und Weise, wie Wissen in einem Computersystem codiert und gespeichert wird.

Sprachmodell

Ein Sprachmodell in der künstlichen Intelligenz ist ein statistisches Modell, das verwendet wird, um die Wahrscheinlichkeit einer Sequenz von Wörtern oder Tokens in einer Sprache vorherzusagen. Sprachmodelle werden häufig in Aufgaben der natürlichen Sprachverarbeitung verwendet, um zusammenhängenden und angemessenen Text zu generieren.

Großes Sprachmodell

Ein großes Sprachmodell in der künstlichen Intelligenz ist eine Art statistisches Modell, das auf einem sehr großen Datensatz von Text trainiert wird und Machine-Learning-Techniken verwendet, um die Muster und Struktur der Sprache zu erlernen. Große Sprachmodelle werden häufig für Aufgaben wie Sprachgenerierung, maschinelle Übersetzung und Textklassifizierung verwendet und können menschenähnlichen Text mit einem hohen Maß an Kohärenz und Flüssigkeit generieren.

Maschinelles Lernen

Eine Methode zum Trainieren von Algorithmen mit großen Datenmengen und zur Verbesserung auf eigene Faust ohne explizite Programmierung.

Markov-Entscheidungsprozess

Ein mathematisches Framework, das in der Verstärkungslernmethode verwendet wird, um den Entscheidungsprozess eines Agenten in einer sequentiellen, unsicheren Umgebung zu modellieren.

Markov-Eigenschaft

Die Eigenschaft eines Zustands in einem Markov-Entscheidungsprozess, die besagt, dass die Zukunft unabhängig von der Vergangenheit ist, gegeben dem gegenwärtigen Zustand.

Markov-Belohnungsprozess

Ein Markov-Entscheidungsprozess, der nur eine Belohnungskomponente hat, ohne dass Entscheidungen getroffen werden müssen.

Modell

Ein Modell ist eine Darstellung eines Problems oder Systems, das verwendet werden kann, um Vorhersagen, Entscheidungen oder Muster in Daten zu lernen. Modelle sind ein grundlegender Bestandteil des maschinellen Lernens und werden verwendet, um verschiedene Aufgaben wie Klassifizierung, Regression, Clustering oder Dimensionsreduktion auszuführen. Modelle können anhand eines Datensatzes mit verschiedenen maschinellen Lernalgorithmen wie überwachtem Lernen, unüberwachtem Lernen oder Verstärkungslernen trainiert werden, um die Beziehungen und Muster in den Daten zu erlernen und Vorhersagen oder Entscheidungen auf der Grundlage dieser zu treffen.

Modellbereitstellung

Der Prozess, ein maschinelles Lernmodell für die Verwendung in Produktionsumgebungen verfügbar zu machen, wie z.B. die Bereitstellung auf einem Webserver oder die Integration in eine Anwendung.

Modellbewertung

Der Prozess der Messung der Leistung eines maschinellen Lernmodells bei einer bestimmten Aufgabe unter Verwendung von Metriken wie Genauigkeit, Präzision und Recall.

Modellselektion

Der Prozess der Auswahl des besten Modells aus einer Reihe von Kandidatenmodellen für eine bestimmte Aufgabe.

Monte-Carlo-Methode

Ein Verstärkungslernalgorithmus, der zufällige Stichproben verwendet, um die Wertfunktion oder die optimale Richtlinie zu schätzen.

Multi-Armed Bandit

Ein Verstärkungslernproblem, bei dem ein Agent aus einer Reihe von Aktionen wählen muss, von denen jede eine unbekannte Belohnungsverteilung aufweist, und durch Versuch und Irrtum lernen muss, welche Aktionen am meisten belohnend sind.

Naive-Bayes-Klassifikator

Ein maschinelles Lernalgorithmus, der für Klassifikationsaufgaben auf der Bayes-Theorie der Wahrscheinlichkeit basiert.

Natürliche Sprachverarbeitung

Die Fähigkeit eines Computers, menschliche Sprache zu verstehen, zu interpretieren und zu generieren.

Neuronales Netzwerk

Ein Typ von Machine-Learning-Algorithmus, der nach der Struktur und Funktion des menschlichen Gehirns modelliert ist und aus Schichten von miteinander verbundenen "Neuronen" besteht, die Informationen verarbeiten und übertragen können.

Normalisierung

Der Prozess des Skalierens der Werte eines Merkmals oder eines Datensatzes auf einen gemeinsamen Bereich wie [0, 1] oder [-1, 1].

Objekterkennung

Der Prozess der Identifizierung und Lokalisierung von Objekten in einem Bild oder Video.

Ontologie

Ein System, das die Beziehungen und Kategorien innerhalb eines bestimmten Wissensbereichs darstellt.

Optimale Richtlinie

Die Richtlinie, die die erwartete kumulative Belohnung in einem Verstärkungslernproblem maximiert.

Optimale Wertefunktion

Die Wertefunktion, die der optimalen Richtlinie in einem Verstärkungslernproblem entspricht.

Überanpassung

Ein Zustand, bei dem ein maschinelles Lernmodell auf den Trainingsdaten gut abschneidet, aber auf neuen, unbekannten Daten schlecht abschneidet, weil es zu komplex ist und das Rauschen in den Trainingsdaten passt.

Mustererkennung

Die Fähigkeit, Muster oder Regelmäßigkeiten in Daten zu identifizieren.

Planung

Der Prozess der Bestimmung eines Handlungsablaufs, um ein bestimmtes Ziel zu erreichen.

Richtlinieniteration

Eine Verstärkungslernmethode, die sich abwechselnd zwischen der Bewertung der aktuellen Richtlinie und deren Verbesserung auf Basis der gelernten Wertefunktion abspielt.

Vorverarbeitung

Der Prozess der Vorbereitung von Daten für die Verwendung in einem Machine-Learning-Modell, einschließlich Reinigung, Transformation und Skalierung der Daten.

Q-Lernen

Ein Verstärkungslernalgorithmus, der eine Aktionswertfunktion, auch bekannt als Q-Funktion, erlernt, die die erwarteten zukünftigen Belohnungen für jede Aktion in einem gegebenen Zustand schätzt.

Schlussfolgerung

Der Prozess des Ziehens von Schlussfolgerungen auf der Grundlage von Beweisen und logischen Argumenten.

Recurrent Neural Network

Ein Typ von Neural Network, der speziell für die Verarbeitung sequenzieller Daten entwickelt wurde und Feedback-Verbindungen verwendet, um das Netzwerk daran zu erinnern und die Nutzung von vergangenen Informationen zu ermöglichen.

Regression

Eine Machine-Learning-Technik, die verwendet wird, um einen kontinuierlichen numerischen Wert auf Basis einer Reihe von Eingabemerkmale vorherzusagen.

Verstärkungslernen

Ein Typ von Machine Learning, bei dem ein Agent durch Versuch und Irrtum lernt, indem er mit seiner Umgebung interagiert und Belohnungen oder Strafen für seine Handlungen erhält.

Verstärkungslernen aus menschlichem Feedback

Eine Art von Machine-Learning-Technik, bei der ein künstliches Intelligenzsystem (AI) aus dem Feedback oder den Belohnungen lernt, die von einem menschlichen Benutzer oder Trainer bereitgestellt werden.

Belohnungsfunktion

Die Funktion, die die Belohnung oder Bestrafung definiert, die ein Agent für seine Handlungen in einem Verstärkungslernproblem erhält.

Robotik

Die Erforschung und Anwendung von Robotern und Automatisierung.

SARSA

Ein Verstärkungslernalgorithmus, der eine Aktionswertfunktion unter Verwendung der erwarteten Belohnung und des Werts der nächsten Aktion erlernt, anstatt der endgültigen Belohnung wie beim Q-Learning.

Semantisches Web

Eine Erweiterung des World Wide Web, die Maschinen ermöglicht, die Bedeutung der Daten im Web zu verstehen.

Stable Diffusion

Stable Diffusion ist ein Text-zu-Bild-Modell auf Basis von Deep Learning, das hochdetaillierte Bilder auf Basis von Textbeschreibungen generieren kann.

Standardisierung

Der Prozess der Transformation der Werte eines Merkmals oder eines Datensatzes, um einen Mittelwert von Null und eine Einheitsvarianz zu haben.

Zustandsraum

Die Menge aller möglichen Zustände in einem Verstärkungslernproblem.

Zustandsübergang

Die Bewegung des Agenten von einem Zustand zu einem anderen Zustand in einem Verstärkungslernproblem, basierend auf einer Aktion und den Übergangswahrscheinlichkeiten der Umgebung.

Style Transfer

Der Prozess der Übertragung des Stils eines Bildes auf ein anderes Bild, während der Inhalt des zweiten Bildes erhalten bleibt.

Super-Auflösung

Der Prozess der Erhöhung der Auflösung eines Bildes oder Videos durch das Ausfüllen fehlender Details.

Support Vector Machine

Ein Machine-Learning-Algorithmus, der für Klassifikations- und Regressionsaufgaben verwendet wird.

Temporal Difference Learning

Ein Verstärkungslernalgorithmus, der den zeitlichen Differenzfehler, den Unterschied zwischen den geschätzten und tatsächlichen zukünftigen Belohnungen, verwendet, um die Aktionswertfunktion zu aktualisieren.

Text-to-Image-Modell

Ein Machine-Learning-System, das Bilder auf Basis von natürlichsprachlichen Beschreibungen generiert.

Training

Training bezieht sich auf den Prozess des Lernens aus Daten zur Verbesserung der Leistung eines Modells oder Systems. Training ist ein grundlegender Bestandteil des Machine Learnings und beinhaltet das Füttern eines Modells mit einem Datensatz und das Anpassen seiner Parameter oder Gewichte, um seine Leistung für eine bestimmte Aufgabe zu optimieren.

Trajektorie

Die Sequenz von Zuständen und Aktionen, der ein Agent in einem Verstärkungslernproblem folgt.

Transferlernen

Eine Machine-Learning-Technik, bei der ein Modell, das für eine Aufgabe trainiert wurde, für eine verwandte Aufgabe feinabgestimmt oder angepasst wird.

Underfitting

Ein Zustand, bei dem ein Machine-Learning-Modell auf sowohl den Trainings- als auch neuen, nicht gesehenen Daten schlecht abschneidet, weil es zu einfach ist und die zugrunde liegenden Muster in den Daten nicht erfassen kann.

Value Iteration

Ein Verstärkungslernalgorithmus, bei dem die Wertefunktion iterativ verbessert wird, bis sie zur optimalen Wertefunktion konvergiert.

Variational Autoencoder

Ein Typ von generativem Modell, das aus einem Encoder-Netzwerk besteht, das die Eingabedaten auf eine latente Darstellung abbildet, und einem Decoder-Netzwerk, das die latente Darstellung zurück in den ursprünglichen Datensatzraum abbildet.