Scroll Top

Künstliche Intelligenz

Was ist Künstliche Intelligenz /Artificial Intelligence (KI / AI)?

Als Artificial Intelligence (AI/engl.) bzw. Künstliche Intelligenz (KI/dt.) werden bestimmte statistische Verfahren bezeichnet, auf deren Grundlage in Bruchteilen einer Sekunde und trotz unzureichender Informationslage automatisch Entscheidungen gefällt werden können.

Dabei werden große Datenmengen, vielfach auch kontradiktorische Informationen von inhärenter Diskrepanz, verarbeitet. Maschinen müssen anhand von Regeln und Methoden der künstlichen Intelligenz komplexe Entscheidungen treffen, die aus der Gesamtlage der vorliegenden Informationen abgeleitet werden. Sie sollen also nicht „stumpf“ und „unvernetzt“ reagieren, sondern tatsächlich Entscheidungen treffen wie es auch einem Menschen mithilfe von Intuition und Intelligenz möglich wäre. Methoden der künstlichen Intelligenz werden in der Industrie eingesetzt oder optimieren Software und Anwendungsprogramme zum Beispiel auch bei der Entwicklung von Onlineshops.

Big Data

Unter dem Schlagwort Big Data werden alle Techniken der Datenanalyse und der Verarbeitung von Datenquellen subsumiert, bei denen die auszuwertenden Datenmengen zu groß sind, zu schnell wachsen oder nicht hinreichend mit Metadaten versehen sind (unterannotierte Daten), um ihre Quelle oder Relevanz für ihre weitere Verarbeitung auszulesen. Gerade Daten der KMU sind oft nur unzureichend annotiert. Es fehlen strukturierende Elemente wie relevante Metadaten, nach denen die Quelltexte gezielt nach relevanten Metadaten ausgelesen werden können. Weil in diesem Fall klassische Datenbankanalysen und Analyseverfahren versagen oder zu zeitaufwendig wären, werden zur Analyse derartiger Datenquellen künstliche Intelligenz -Methoden und Data Mining verwendet.

Data Science

Die interdisziplinäre Forschung zur Analyse, Nutzung und Verarbeitung von Daten wird als Data Science bezeichnet. Data Science umfasst also die Auseinandersetzung mit den gängigen Programmierparadigmen, den für die Anwendung von künstliche Intelligenz -Verfahren am besten geeigneten statistischen Modellen und Algorithmen (Algorithmic Economy, Approximate Computing).

Algorithmus

Ein Algorithmus ist eine mathematisch-logische Vorschrift, anhand der Berechnungen und Befehle ausgeführt werden. Sie generieren analog des jeweiligen Inputs in direkter Konsequenz einen vorhersehbaren Output. Mit einem prädiktiven Algorithmus lassen sich so beispielsweise anhand eines lediglich durch bestimmte Werte und Eckdaten definierten Users, die zukünftigen Produktkäufe dieses bestimmten „Prototyps“ prognostizieren.

Machine Learning & Künstliche Intelligenz

Werden innere Zusammenhänge innerhalb einer Struktur ohne Einwirkung des Menschen und nur durch Einsatz einer Software erkannt, spricht man von Maschinellem Lernen (Machine Learning). Weil menschliche, ggf. von Vorurteilen verstellte Vorannahmen ausgeschlossen bleiben, gelingt es Maschinen oft, innerhalb vorliegender Informationen und Daten Beziehungen aufzuspüren, die Menschen bislang entgangen waren.

Machine Learning wird mit der Absicht initiiert, einen Classifier (Algorithmus) zu trainieren, der aus bislang unstrukturierten Daten ein Muster ausliest und damit zukünftige Verhaltensmuster vorhersagen lässt. (Unstrukturierte Daten)

Data Mining

Deskriptive analytische Methoden werden mit dem Oberbegriff des Data Mining bezeichnet. Data Mining zielt nicht auf das Generieren von Klassifizierern (Algorithmen) oder Regressionsformeln mit prädikativem Charakter zur Vorhersehbarkeit von Verhalten. Data Mining „schürft“ nach verborgenen Erkenntnissen innerhalb der vorgefundenen Datenbasis, ohne voreilig, durch menschliche Erfahrungen geprägte Vorannahmen, eine Analyse vorzunehmen. So werden Zusammenhänge sichtbar, die zuvor so nicht angenommen und daher auch noch nicht „beschrieben“ wurden: beispielsweise bei der Echtzeitanalyse zur Charakterisierung eines potenziellen Käufers als fluide Persona.

Deep Learning

Die Methoden des Deep Learning stellen einen Teilbereich des Machine Learning dar. Deep Learning greift auf lerntheoretische und biologische Modelle aus den Neurowissenschaften rund um die Entstehung und Entwicklung neuronaler Netzwerke zurück und überträgt diese auf die Arbeit mit künstlichen neuronalen Netzwerken. Deep Learning verfährt hierarchisch. Probleme werden gelöst, indem sie in zeitlicher Abfolge über mehrere Schichten hinweg analysiert werden, um ein optimales Ergebnis zu erzielen. Weil mit dem Durchlaufen jeder Schicht das Problem tiefer erfasst wird, spricht man von „deep learning“. Der Begriff wurde durch Google popularisiert, Methoden des Deep Learning haben aber bereits eine längere Tradition.

(Künstliche) Neuronale Netze & Künstliche Intelligenz

Künstliche Neuronale Netze (KNN) werden zur Modellierung von Vorgängen innerhalb des maschinellen Lernens eingesetzt. Die Bezeichnung der KNN leitet sich von ihrer Ähnlichkeit mit den neuronalen Netzen des menschlichen Gehirns ab, denen sie strukturell nachempfunden sind. KNN lassen sich erfolgreich für viele Anwendungsfälle, bei Regressionen, Clustering und auch als Klassifizierer einsetzen.

Advanced Analytics & Künstliche Intelligenz

Mit dem Begriff der Advanced Analytics werden Methoden der modernen Statistik innerhalb von künstliche Intelligenz -Anwendungen oder des Data Mining von denen der klassischen und linearen Statistik unterschieden. Advanced Analytics lassen dabei auch Analysen in hochdimensionalen Räumen zu, bei denen nicht-lineare Modelle oder multivariate Methoden eingesetzt werden und sich die Daten in starker Abhängigkeit voneinander befinden.

Descriptive Analytics

Deskriptive, also „beschreibende“ Analysetechniken (Descriptive Analytics) werden eingesetzt, um den Ist-Zustand eines zusammenhängenden Datensatzes zu beschreiben. So werden mittels Clustering, durch Hypothesentests oder Nearest Neigbor-Algorithmen Informationen aus unternehmenseigenen Datenbanken analysiert – beispielsweise Daten zu Geräten oder Mitarbeitern, die bei der Produktion zum Einsatz kommen- , um sie besser verstehbar und für zukünftige Anwendungen verwertbar zu machen.

Predictive Analytics

Mit prädikativen Analysetechniken (Predictive Analytics) sollen Vorhersehbarkeiten generiert werden. Ausgehend von bekannten Daten und Ergebnissen werden mit prädikativen Algorithmen Schlüsse auf noch unbekannte Ergebnisse gezogen. Das ist wichtig, um auf eventuelle, zukünftige Ereignisse rechtzeitig reagieren oder präventive Maßnahmen ergreifen zu können. Beispielsweise ist es möglich, mit prädikativen Analysemethoden noch vor einem Kauf die Kundenwünsche oder die Zahlungsbereitschaft möglicher Käufer abzuschätzen.

Prescriptive Analytics

Preskriptive Analysetechniken (Prescriptive Analytics) werden eingesetzt, um mit Vorhersagen der Predictive Analytics auf die Erreichung eines speziellen, gewünschten Ziels einzuwirken. Weil mittels der Vorhersehbarkeit ein konkreter Soll-Zustand erreicht werden soll, spricht man hier auch von normativen Analysemethoden. Ist beispielsweise bereits eine Prognose für die Zahlungsbereitschaft eines Kunden erstellt worden, kann gezielt ein Aktionscode als Verstärker zum Verkaufsabschluss ausgespielt werden, damit der Umsatz steigt.

Strukturierte Daten

Strukturierte Daten sind Daten, für die ein klares Format vorgeben ist und deren Relationen untereinander bekannt sind. Sie sind systematisch und einer bestimmten Ordnung folgend in einer Datenbank gespeichert. Das macht es möglich, innerhalb der Datensätze nach verschiedenen Kriterien zu filtern oder zu sortieren. Eine systematisch geführte CRM-Datenbank wird beispielsweise zulassen, dass Stammdaten der Kunden nach Eigenschaften wie Alter und Geschlecht sortiert werden können. Relationale Datenbanken, die Tabellen, Attribute und Beziehungen verwalten, können strukturierte Daten ohne großen Aufwand zuverlässig verarbeiten.

Unstrukturierte Daten

Daten, für die ihre Relation oder Relevanz hinsichtlich anderer Daten nicht oder nur teilweise bekannt ist, werden als unstrukturierte Daten, beziehungsweise: unterannotierte Daten, bezeichnet. Nach Daten, die unterannotiert sind, kann nicht auf direktem Weg gefiltert oder sortiert werden. Ein Beispiel für unstrukturierte Daten ist medialer Content wie Bilddateien, deren Inhalt oder Referenz im jeweiligen Moment nicht unmittelbar zugänglich ist, nur unzureichend über Metadaten strukturiert ist, und deren Relevanz für den analysierten Kontext im entsprechenden Anwendungsfall anhand höherrangiger Analysemethoden bewertet werden muss.

(Daten-)Clustering

Durch Clustering werden beim Data Mining „ähnliche“ Daten zu größeren Datensätzen zusammengefasst, die ihrer groben Struktur nach Gemeinsamkeiten oder Zusammenhänge aufweisen. Ein Cluster kann Top-Down durch die Unterteilung des Gesamtdatensatzes erzeugt werden oder mittels einer Bottom-Up-Methode erfolgen, wenn einzelne Merkmale zusammengefasst werden. Cluster werden zum Beispiel erstellt, um die Daten übersichtlicher sichten und evaluieren zu können, und im weiteren Verlauf aus der Grobstruktur geeignete Methoden zu ihrer Verwendung und Auslese zu entwickeln.

Classifier

Als Classifier (Klassifizierer) werden mathematische Algorithmen bezeichnet, die gegebene Informationen auf die Zugehörigkeit zu einer bestimmten Klasse abbilden können.
Sind beispielsweise die Webseitenaufrufe eines Nutzers aus der Vergangenheit bekannt, kann anhand eines Classifiers dadurch das Geschlecht des Nutzers errechnet werden. Meist sind die Input-Daten, mit denen Classifier arbeiten, unvollständig, sodass die Ergebnisse der Operationen mit Classifiern in der Regel auf statistischen Analysen basierende „Schätzungen“ sind.

Regression

Auch die Auswertung von Dateninformationen anhand eines Regressionsalgorithmus beruht auf Wahrscheinlichkeitsberechnungen. Eine Regression liefert aus den Input-Daten Output in Form einer oder mehrerer reeller Zahlen. So lässt sich beispielsweise durch eine Regression die Zahlungsbereitschaft eines Users anhand der von ihm zuvor besuchten Webseiten prognostizieren.

Hinweis: Diese Liste stellt keine abschließende Aufzählung aller für die KI relevanten Begriffe dar und verfolgt lediglich die Absicht, eine erste Übersicht über die unterschiedlichen Methoden und Anwendungsgebiete zu geben. Die Technologien, die im individuellen Fall genutzt werden, soll AI zum Einsatz kommen, ist immer von der Datenqualität, dem individuellen Anwendungsfall und der gewünschten Applikation abhängig.