Machine Learning

Was ist Machine Learning?

Funktionsweisen, Bedeutung und erste Schritte

Beim Machine Learning handelt es sich um eine KI-Technik, die Computern beibringt, aus gesammelten Erfahrungen Schlüsse zu ziehen und zu lernen. Die Algorithmen des Machine Learning verwenden rechnergestützte Methoden, um Informationen direkt aus Daten zu „erlernen“, ohne sich auf eine vorher festgelegte Gleichung als Modell zu stützen. Die Algorithmen verbessern ihre Leistung auf adaptive Weise mit steigender Anzahl der für das Lernverhalten verfügbaren Stichproben. Das Deep Learning stellt eine spezielle Form des Machine Learning dar.

Funktionsweise des Machine Learning

Beim Machine Learning kommen zwei unterschiedliche Techniken zum Einsatz: das überwachte Lernen, bei dem ein Modell anhand bekannter Eingabe- und Ausgabedaten trainiert wird, damit es künftige Ergebnisse vorhersagen kann, und das nicht überwachte Lernen, bei dem nach versteckten Mustern oder intrinsischen Strukturen in den Eingabedaten gesucht wird.

Machine-Learning-Techniken: unbeaufsichtigtes Lernen (Clustering) und beaufsichtigtes Lernen (Klassifizierung und Regression).

Abbildung 1. Zu den Techniken des Machine Learning gehören sowohl das nicht überwachte als auch das überwachte Lernen.

Überwachtes Lernen

Beim überwachten Machine Learning wird ein Modell erstellt, das Vorhersagen auf der Grundlage von Indizien unter Berücksichtigung von Unsicherheitsfaktoren trifft. Ein Algorithmus zum überwachten Lernen nimmt also einen bekannten Eingabedatensatz und bekannte Reaktionen auf die Daten (Ausgabe) und trainiert damit ein Modell, um begründete Vorhersagen für die Reaktion auf neue Daten zu erstellen. Das überwachte Lernen wird empfohlen, wenn die Daten für die zu prognostizierende Ausgabe bekannt sind.

Beim überwachten Lernen werden Klassifizierungs- und Regressionsverfahren eingesetzt, um Machine-Learning-Modelle zu entwickeln.

Klassifizierungstechniken ermöglichen die Vorhersage diskreter Reaktionen – etwa ob eine E-Mail authentisch oder Spam ist oder ob ein Tumor bösartig oder gutartig ist. Dabei ordnen Klassifizierungsmodelle die Eingabedaten verschiedenen Kategorien zu. Zu den häufigsten Anwendungsmöglichkeiten gehören beispielsweise die medizinische Bildgebung, Spracherkennung und Bonitätsprüfungen.

Wählen Sie die Klassifizierung, wenn Ihre Daten mit bestimmten Tags versehen, kategorisiert oder in einzelne Gruppen oder Klassen eingeteilt werden können. So nutzen z. B. Anwendungen zur Handschrifterkennung die Klassifizierung, um Buchstaben und Zahlen zu erfassen. In der Bildverarbeitung und bei Computer Vision werden nicht überwachte Mustererkennungsverfahren zur Objekterkennung und Bildsegmentierung eingesetzt. Die am häufigsten verwendeten Klassifizierungsalgorithmen finden Sie hier.

Regressionstechniken sagen kontinuierliche Ausgänge voraus, z. B. schwer zu messende physikalische Größen wie den Ladezustand von Batterien, die Stromlast im Netz oder die Kurse von Finanzanlagen. Zu den gängigsten Anwendungen zählen hier die virtuelle Sensorik, Stromlastprognosen und das algorithmische Trading.

Greifen Sie daher auf Regressionstechniken zurück, wenn Sie mit einem entsprechenden Datenbereich arbeiten oder wenn es sich bei dem Ergebnis um eine reelle Zahl handelt, z. B. die Temperatur oder die Dauer bis zum Ausfall eines Geräts. Die am häufigsten verwendeten Regressionsalgorithmen finden Sie hier.

Erfahren Sie, wie Sie mithilfe von überwachtem Machine Learning ein Modell trainieren können, um Eingaben auf Ausgaben abzubilden und die Ergebnisse für neue Eingaben vorherzusagen.

Nicht überwachtes Lernen

Beim nicht überwachten Lernen werden versteckte Muster oder intrinsische Strukturen in Daten ermittelt. Diese Methode wird verwendet, um Rückschlüsse aus Datensätzen zu ziehen, die aus Eingabedaten ohne gekennzeichnete Ergebnisse bestehen.

Das Clustering ist dabei die am weitesten verbreitete Technik zum nicht überwachten Lernen. Es wird für die explorative Datenanalyse eingesetzt, mit der versteckte Muster oder Gruppierungen in den Daten gefunden werden können. Zu den Anwendungen der Clusteranalyse gehören die beispielsweise die Gensequenzanalyse, die Marktforschung und die Objekterkennung.

Wenn beispielsweise ein Mobilfunkunternehmen die Standorte für den Bau von Mobilfunkmasten optimieren möchte, kann es mithilfe des Machine Learning die Anzahl der Personencluster abschätzen, die auf diese Masten angewiesen sind. Ein Telefon kann immer nur mit einem einzigen Sendemast kommunizieren. Daher verwendet das Team Clustering-Algorithmen, um die bestmögliche Standortwahl für Mobilfunkmasten zu treffen und den Signalempfang für Gruppen oder Cluster ihrer Kunden zu optimieren. Die am häufigsten verwendeten Cluster finden Sie hier.

Clustering ist eine M die verborgene Muster in Ihren Daten ohne Aufsicht findet.achine-Learning-Methode

Abbildung 2. Mithilfe des Clustering werden versteckte Muster in Ihren Daten gefunden.

Sie erhalten einen Überblick über das nicht überwachte Machine Learning, bei dem nach bestimmten Mustern in Datensätzen gesucht wird, die keine ausgewiesenen Werte enthalten. So können Sie Ihre Daten untersuchen, wenn Sie nicht genau wissen, welche Informationen die Daten tatsächlich enthalten.

Wie entscheidet man, welcher Machine-Learning-Algorithmus verwendet werden sollte?

Die Wahl des richtigen Algorithmus kann auf den ersten Blick kompliziert erscheinen – es gibt Dutzende von überwachten und nicht überwachten Algorithmen zum Machine Learning und jeder verfolgt einen anderen Lernansatz.

Dabei gibt es weder die eine richtige Methode noch eine Lösung, die immer geeignet ist. Die Suche nach dem richtigen Algorithmus ist zum Teil eine Herausforderung, die nur durch Ausprobieren zu bewältigen ist – selbst sehr erfahrene Datenwissenschaftler können nicht pauschal sagen, ob ein Algorithmus funktioniert, ohne ihn vorher auszuprobieren. Die Wahl des Algorithmus hängt aber auch von der Größe und Art der verwendeten Daten ab, von den Erkenntnissen, die Sie aus den Daten gewinnen wollen, und der geplanten Nutzung dieser Erkenntnisse.

Diagramm von Machine-Learning-Algorithmen mit Gruppierung in Klassifizierung Regression und Clustering.

Abbildung 3. Techniken des Machine Learning.

Es folgen einige Richtlinien für die Wahl zwischen dem überwachten und dem nicht überwachten Machine Learning:

  • Wählen Sie das überwachte Lernen, wenn Sie ein Vorhersagemodell trainieren müssen, z. B. für den zukünftigen Wert einer kontinuierlichen Variablen wie der Temperatur oder eines Aktienkurses, oder ein Klassifizierungsmodell, z. B. zur Identifizierung von Autoherstellern anhand von Webcam-Videomaterial.
  • Nutzen Sie das nicht überwachte Lernen, wenn Sie Ihre Daten untersuchen und ein Modell trainieren möchten, um eine aussagekräftige interne Repräsentation zu erhalten, z. B. die Aufteilung von Daten in Clustern.

Die Bedeutung von Machine Learning

Mit der steigenden Bedeutung von Big Data hat sich das Machine Learning zu einer der wichtigsten Techniken für die Lösungsfindung in zahlreichen Bereichen entwickelt, darunter:

Automobilindustrie

Automobilindustrie

Luft- und Raumfahrt

Luftfahrt, Raumfahrt und Verteidigung

Metalle, Werkstoffe und Bergbau

Fertigungsanalytik

Medizinische Geräte

Medizinprodukte

Signalverarbeitung

Signalverarbeitung

Mehr Daten, mehr Fragen, bessere Antworten

Mit Algorithmen des Machine Learning lassen sich natürliche Muster in Daten aufspüren, die Erkenntnisse liefern und Ihnen helfen, bessere und fundiertere Entscheidungen und Vorhersagen zu treffen. Tagtäglich kommen sie zum Einsatz, um maßgebliche Entscheidungen in der medizinischen Diagnostik, im Aktienhandel, bei der Vorhersage von Energielasten und vielem mehr zu treffen. So vertrauen beispielsweise Medienangebote auf das Machine Learning, um Millionen von Optionen zu durchforsten und Ihnen Song- oder Filmempfehlungen zu präsentieren. Einzelhandelsunternehmen verschaffen sich damit Einblicke in das Kaufverhalten ihrer Kunden.

Wann empfiehlt sich der Einsatz von Machine Learning?

Ziehen Sie den Einsatz von Machine Learning in Betracht, wenn Sie eine komplexe Aufgabe oder ein Problem mit großen Datenmenge und vielen Variablen lösen müssen, aber keine geeignete Formel oder Gleichung vorliegt.

Was unterscheidet Machine Learning von Deep Learning?

Das Deep Learning stellt eine spezielle Form des Machine Learning dar. Ein Machine-Learning-Workflow beginnt mit der manuellen Extraktion relevanter Merkmale aus Bildern. Anhand dieser Merkmale wird anschließend ein Modell erstellt, das die Objekte im Bild in verschiedene Kategorien einteilt. Mit einem Deep-Learning-Workflow hingegen werden relevante Merkmale automatisch aus Bildern extrahiert. Darüber hinaus wird beim Deep Learning ein „End-to-End-Lernen“ durchgeführt, d. h., ein Netzwerk erhält Rohdaten und eine Aufgabe, etwa eine Klassifizierung, und lernt, wie es diese automatisch ausführen kann.

Abbildung 4. Vergleich von Ansätzen zur Kategorisierung von Fahrzeugen mithilfe von Machine Learning (links) und Deep Learning (rechts).

Beim Machine Learning wählen Sie manuell bestimmte Merkmale und einen Klassifikator aus, um Bilder zu sortieren. Dagegen erfolgen beim Deep Learning die Schritte zur Merkmalsextraktion und Modellierung ganz automatisch.

Die Wahl zwischen Machine Learning und Deep Learning

Das Machine Learning bietet eine Vielzahl von Techniken und Modellen, die Sie entsprechend Ihrer Anwendung, dem Umfang der zu verarbeitenden Daten und der zu lösenden Problematik auswählen können. Dahingegen erfordert eine erfolgreiche Deep-Learning-Anwendung eine sehr große Datenmenge (mehrere Tausend Bilder), um das Modell zu trainieren, sowie Grafikkarten (auch: GPUs), um Ihre Daten möglichst schnell zu verarbeiten.

Bei der Wahl zwischen Machine Learning und Deep Learning ist es wichtig, zu wissen, ob Sie bereits über eine leistungsstarke Grafikkarte und eine Vielzahl von gekennzeichneten Daten verfügen. Sollte keines von beidem vorhanden sein, ist es möglicherweise hilfreicher, Machine Learning anstelle von Deep Learning einzusetzen. Da Deep Learning im Allgemeinen komplexer ist, benötigen Sie hierfür mindestens einige tausend Bilder, um zuverlässige Ergebnisse zu erzielen.

Entscheiden Sie sich für das Machine Learning, haben Sie die Möglichkeit, Ihr Modell mit vielen verschiedenen Klassifikatoren zu trainieren. Sie können auch feststellen, welche Merkmale extrahiert werden müssen, um die besten Ergebnisse zu erzielen. Außerdem haben Sie die volle Flexibilität, eine Kombination aus verschiedenen Ansätzen zu wählen, sowie unterschiedliche Klassifikatoren und Merkmale zu verwenden, um zu ermitteln, welche Anordnung für Ihre Daten am besten geeignet ist.

In diesem MATLAB Tech Talk erfahren Sie mehr über die Unterschiede zwischen Deep Learning und Machine Learning. Sehen Sie sich verschiedene Beispiele an und erfahren Sie, wie Sie entscheiden können, welche Methode am besten zu Ihren Einsatzzwecken passt.

Machine Learning mit MATLAB

Mit MATLAB wird Machine Learning leicht gemacht. Mit Tools und Funktionen für den Umgang mit Big Data sowie Apps, die das Machine Learning leicht zugänglich machen, bietet MATLAB eine ideale Umgebung für die Anwendung von Machine Learning in der Datenanalyse.

Mit MATLAB können Ingenieure und Datenwissenschaftler sofort auf vorgefertigte Funktionen, umfangreiche Toolboxen und spezielle Apps für Klassifizierung (4:34), Regression (3:42) und Clustering (1:50) zugreifen und Daten nutzen, um so fundiertere Entscheidungen zu treffen.

Mit MATLAB ist vieles möglich:

  • Extrahieren von Merkmalen aus Signalen und Bildern mithilfe bewährter manueller und automatischer Methoden sowie automatische Merkmalsauswahl, um die Modelle kompakter zu gestalten
  • Optimieren von Merkmalen durch die Anwendung verschiedener Techniken zur Merkmalserkundung und -extraktion (Feature Engineering)
  • Vergleiche verschiedener Ansätze wie logistische Regression, Klassifikationsbäume, Support Vector Machines, Ensemble-Methoden und Deep Learning
  • Anwendung von AutoML zur Verbesserung von Modellen mithilfe von Hyperparameterabstimmung und Techniken zur Modellordungsreduktion
  • Integration von Machine-Learning-Modellen in Unternehmenssysteme, Cluster und Clouds sowie gezielte Implementierung von Modellen in Echtzeit-Embedded-Hardware
  • Automatische Codegenerierung für Analysen von Embedded-Sensoren
  • Unterstützung integrierter Workflows von der Datenanalyse bis zur Bereitstellung