Künstliche Intelligenz heute: Was ist Hype und was ist real?

Holen Sie sich eine Zeitschrift, blättern Sie durch die technischen Blogs oder chatten Sie einfach mit Ihren Kollegen auf einer Branchenkonferenz. Sie werden schnell feststellen, dass fast alles, was aus der Technologiewelt kommt, ein Element künstlicher Intelligenz oder maschinellen Lernens zu haben scheint. Die Art und Weise, wie künstliche Intelligenz diskutiert wird, klingt fast wie Propaganda. Hier ist die einzig wahre Technologie, die alle Ihre Anforderungen erfüllen kann! AI ist hier, um uns alle zu retten!

Es stimmt zwar, dass wir mit KI-basierten Techniken erstaunliche Dinge tun können, aber wir verkörpern im Allgemeinen nicht die volle Bedeutung des Begriffs „Intelligenz“. Intelligenz impliziert ein System, mit dem Menschen ein kreatives Gespräch führen können - ein System, das Ideen hat und neue entwickeln kann. Es geht um die Terminologie. "Künstliche Intelligenz" beschreibt heute allgemein die Implementierung einiger Aspekte menschlicher Fähigkeiten, wie z. B. Objekt- oder Spracherkennung, aber sicherlich nicht das gesamte Potenzial für menschliche Intelligenz.

Daher ist „künstliche Intelligenz“ wahrscheinlich nicht der beste Weg, um die „neue“ Technologie des maschinellen Lernens zu beschreiben, die wir heute verwenden, aber dieser Zug hat den Bahnhof verlassen. Obwohl maschinelles Lernen noch kein Synonym für maschinelle Intelligenz ist, ist es auf jeden Fall leistungsfähiger, leistungsfähiger und benutzerfreundlicher geworden. KI - das heißt neuronale Netze oder Deep Learning sowie „klassisches“ maschinelles Lernen - ist endlich auf dem Weg, ein Standardbestandteil des Analytics-Toolkits zu werden.

Jetzt, da wir uns weit in der KI-Revolution (oder besser gesagt in der Evolution) befinden, ist es wichtig zu untersuchen, wie das Konzept der künstlichen Intelligenz kooptiert wurde, warum und was es in Zukunft bedeuten wird. Lassen Sie uns tiefer eintauchen, um zu untersuchen, warum künstliche Intelligenz, selbst eine leicht falsch interpretierte Version davon, die gegenwärtige Aufmerksamkeit erregt hat.

Das KI-Versprechen: Warum jetzt?

Im aktuellen Hype-Zyklus werden künstliche Intelligenz oder maschinelles Lernen häufig als relativ neue Technologien dargestellt, die plötzlich ausgereift sind und erst vor kurzem von der Konzeptphase zur Integration in Anwendungen übergegangen sind. Es besteht die allgemeine Überzeugung, dass die Entwicklung eigenständiger Produkte für maschinelles Lernen erst in den letzten Jahren stattgefunden hat. In Wirklichkeit sind die wichtigen Entwicklungen in der künstlichen Intelligenz nicht neu. Die heutige KI ist eine Fortsetzung der Fortschritte, die in den letzten Jahrzehnten erzielt wurden. Die Veränderung, die Gründe, warum künstliche Intelligenz an so vielen weiteren Orten auftritt, betrifft nicht so sehr die KI-Technologien selbst, sondern die Technologien, die sie umgeben - nämlich Datenerzeugung und Verarbeitungsleistung.

Ich werde Sie nicht langweilen, wenn Sie angeben, wie viele Zettabyte Daten wir bald speichern werden (wie viele Nullen hat ein Zettabyte überhaupt?). Wir alle wissen, dass unsere Fähigkeit, Daten zu generieren und zu sammeln, phänomenal wächst. Gleichzeitig haben wir einen umwerfenden Anstieg der verfügbaren Rechenleistung festgestellt. Die Umstellung von Single-Core-Prozessoren auf Multi-Core-Prozessoren sowie die Entwicklung und Einführung von Allzweck-Grafikprozessoren (GPGPUs) bieten genügend Leistung für tiefes Lernen. Wir müssen nicht einmal mehr intern rechnen. Wir können die Rechenleistung einfach irgendwo in der Cloud mieten.

Mit so vielen Daten und Rechenressourcen sind Datenwissenschaftler endlich in der Lage, die in den letzten Jahrzehnten entwickelten Methoden in einem völlig anderen Maßstab anzuwenden. In den neunziger Jahren dauerte es Tage, ein neuronales Netzwerk zu trainieren, um Zahlen auf Zehntausenden von Beispielen mit handschriftlichen Ziffern zu erkennen. Heute können wir ein viel komplexeres (dh „tiefes“) neuronales Netzwerk auf zig Millionen Bildern trainieren, um Tiere, Gesichter und andere komplexe Objekte zu erkennen. Darüber hinaus können wir Deep-Learning-Modelle einsetzen, um Aufgaben und Entscheidungen in gängigen Geschäftsanwendungen zu automatisieren, z. B. die Reife von Produkten zu erkennen und vorherzusagen oder eingehende Anrufe weiterzuleiten.

Dies mag verdächtig klingen, als würde man echte Intelligenz aufbauen, aber es ist wichtig zu beachten, dass wir unter diesen Systemen einfach Parameter einer mathematischen Abhängigkeit einstellen, wenn auch eine ziemlich komplexe. Methoden der künstlichen Intelligenz sind nicht gut darin, „neues“ Wissen zu erwerben. Sie lernen nur aus dem, was ihnen präsentiert wird. Anders ausgedrückt, künstliche Intelligenz stellt keine „Warum“ -Fragen. Systeme funktionieren nicht wie Kinder, die ihre Eltern ständig befragen, während sie versuchen, die Welt um sie herum zu verstehen. Das System weiß nur, was es gefüttert wurde. Es wird nichts erkennen, worauf es zuvor nicht aufmerksam gemacht wurde.

In anderen „klassischen“ Szenarien des maschinellen Lernens ist es wichtig, unsere Daten zu kennen und eine Vorstellung davon zu haben, wie dieses System Muster finden soll. Zum Beispiel wissen wir, dass das Geburtsjahr für unsere Kunden keine nützliche Tatsache ist, es sei denn, wir rechnen diese Zahl in das Alter des Kunden um. Wir kennen auch die Auswirkungen der Saisonalität. Wir sollten nicht erwarten, dass ein System unabhängig von der Saison Kaufmuster für Mode lernt. Darüber hinaus möchten wir möglicherweise ein paar andere Dinge in das System einfügen, um zusätzlich zu dem, was es bereits weiß, zu lernen. Im Gegensatz zu Deep Learning hat sich diese Art des maschinellen Lernens, die Unternehmen seit Jahrzehnten einsetzen, stetig weiterentwickelt.

Jüngste Fortschritte in der künstlichen Intelligenz sind vor allem in Bereichen zu verzeichnen, in denen Datenwissenschaftler menschliche Erkennungsfähigkeiten nachahmen können, z. B. das Erkennen von Objekten in Bildern oder Wörtern in akustischen Signalen. Das Erkennen von Mustern in komplexen Signalen wie Audiostreams oder Bildern ist äußerst leistungsfähig - leistungsfähig genug, dass sich viele Menschen fragen, warum wir nicht überall Deep-Learning-Techniken verwenden. 

Das KI-Versprechen: Was jetzt?

Die organisatorische Führung fragt möglicherweise, wann sie künstliche Intelligenz einsetzen soll. Nun, die KI-basierte Forschung hat massive Fortschritte bei der Lösung neuronaler Netze erzielt, die Probleme lösen, die damit zusammenhängen, was Menschen gut nachahmen (Objekterkennung und Spracherkennung sind die beiden bekanntesten Beispiele). Wann immer man fragt: "Was ist eine gute Objektdarstellung?" und kann keine Antwort finden, dann kann es sich lohnen, ein Deep-Learning-Modell auszuprobieren. Wenn Datenwissenschaftler jedoch in der Lage sind, eine semantisch reiche Objektdarstellung zu erstellen, sind klassische Methoden des maschinellen Lernens wahrscheinlich die bessere Wahl (und ja, es lohnt sich, ein wenig ernsthaft darüber nachzudenken, eine gute Objektdarstellung zu finden).

Am Ende möchte man einfach verschiedene Techniken auf derselben Plattform ausprobieren und sich nicht durch die Wahl der Methoden eines Softwareanbieters oder die Unfähigkeit, mit den aktuellen Fortschritten auf diesem Gebiet Schritt zu halten, einschränken. Aus diesem Grund sind Open Source-Plattformen führend auf diesem Markt. Sie ermöglichen es den Praktikern, aktuelle Technologien mit den neuesten Entwicklungen zu kombinieren.

In Zukunft wird Deep Learning Teil der Toolbox eines jeden Datenwissenschaftlers, wenn die Teams ihre Ziele und Methoden für den Einsatz von maschinellem Lernen aufeinander abstimmen. Für viele Aufgaben bietet das Hinzufügen von Deep-Learning-Methoden zum Mix einen hohen Wert. Denk darüber nach. Wir werden in der Lage sein, die Objekterkennung in ein System einzubeziehen, indem wir ein vorab trainiertes System für künstliche Intelligenz verwenden. Wir können vorhandene Sprach- oder Spracherkennungskomponenten integrieren, da sich jemand anderes die Mühe gemacht hat, genügend Daten zu sammeln und mit Anmerkungen zu versehen. Aber am Ende werden wir erkennen, dass tiefes Lernen, genau wie das klassische maschinelle Lernen zuvor, wirklich nur ein weiteres Werkzeug ist, wenn es Sinn macht.

Das KI-Versprechen: Wie geht es weiter?

Eine der Straßensperren, die wie vor zwei Jahrzehnten auftauchen wird, ist die extreme Schwierigkeit, auf die man stößt, wenn man versucht zu verstehen, was künstliche Intelligenzsysteme gelernt haben und wie sie zu ihren Vorhersagen kommen. Dies ist möglicherweise nicht kritisch, wenn vorhergesagt werden soll, ob ein Kunde ein bestimmtes Produkt mag oder nicht. Es wird jedoch Probleme geben, zu erklären, warum sich ein System, das mit Menschen interagiert, unerwartet verhalten hat. Menschen sind bereit, „menschliches Versagen“ zu akzeptieren - wir erwarten nicht, dass Menschen perfekt sind. Wir werden jedoch kein Versagen eines künstlichen Intelligenzsystems akzeptieren, insbesondere wenn wir nicht erklären können, warum es versagt hat (und es korrigieren).

Wenn wir uns mit Deep Learning vertraut machen, werden wir - genau wie vor zwei Jahrzehnten beim maschinellen Lernen - feststellen, dass trotz der Komplexität des Systems und des Datenvolumens, auf dem es trainiert wurde, das Verstehen von Mustern ohne Domänenwissen unmöglich ist. Die menschliche Spracherkennung funktioniert genauso gut wie sie, weil wir oft eine Lücke füllen können, indem wir den Kontext des aktuellen Gesprächs kennen.

Die heutigen Systeme der künstlichen Intelligenz haben dieses tiefe Verständnis nicht. Was wir jetzt sehen, ist flache Intelligenz, die Fähigkeit, isolierte menschliche Erkennungsfähigkeiten nachzuahmen und Menschen bei diesen isolierten Aufgaben manchmal zu übertreffen. Das Training eines Systems anhand von Milliarden von Beispielen ist nur eine Frage der Daten und des Zugriffs auf genügend Rechenressourcen - kein Deal-Breaker mehr.

Die Chancen stehen gut, dass die Nützlichkeit künstlicher Intelligenz letztendlich irgendwo hinter der Propaganda „Rette die Welt“ zurückbleibt. Vielleicht bekommen wir nur ein unglaubliches Werkzeug, mit dem die Praktizierenden ihre Arbeit schneller und besser erledigen können.

Michael Berthold ist CEO und Mitbegründer von KNIME, einem Open-Source-Datenanalyseunternehmen. Er verfügt über mehr als 25 Jahre Erfahrung in der Datenwissenschaft, arbeitet im akademischen Bereich, zuletzt als ordentlicher Professor an der Konstanz University (Deutschland) und zuvor an der University of California (Berkeley) und Carnegie Mellon sowie in der Industrie bei Intels Neural Network Group. Utopy und Tripos. Michael hat ausführlich über Datenanalyse, maschinelles Lernen und künstliche Intelligenz veröffentlicht. Folgen Sie Michael auf  Twitter , LinkedIn und dem KNIME-Blog .   

- -

Das New Tech Forum bietet einen Ort, an dem Sie neue Unternehmenstechnologien in beispielloser Tiefe und Breite erkunden und diskutieren können. Die Auswahl ist subjektiv, basierend auf unserer Auswahl der Technologien, die wir für wichtig und für die Leser von größtem Interesse halten. akzeptiert keine Marketingmaterialien zur Veröffentlichung und behält sich das Recht vor, alle eingebrachten Inhalte zu bearbeiten. Senden Sie alle Anfragen an  [email protected] .