Eine kurze Geschichte der künstlichen Intelligenz

In den frühen Tagen der künstlichen Intelligenz versuchten Informatiker, Aspekte des menschlichen Geistes im Computer nachzubilden. Dies ist die Art von Intelligenz, die das Zeug der Science-Fiction ist - Maschinen, die mehr oder weniger wie wir denken. Diese Art von Intelligenz wird nicht überraschend als Verständlichkeit bezeichnet. Ein Computer mit Verständlichkeit kann verwendet werden, um zu untersuchen, wie wir mentale Handlungen argumentieren, lernen, beurteilen, wahrnehmen und ausführen.

Frühe Forschungen zur Verständlichkeit konzentrierten sich auf die Modellierung von Teilen der realen Welt und des Geistes (aus dem Bereich der Kognitionswissenschaftler) im Computer. Es ist bemerkenswert, wenn man bedenkt, dass diese Experimente vor fast 60 Jahren stattgefunden haben.

Frühe Intelligenzmodelle konzentrierten sich auf deduktives Denken, um zu Schlussfolgerungen zu gelangen. Eines der frühesten und bekanntesten KI-Programme dieser Art war der Logic Theorist, der 1956 geschrieben wurde, um die Fähigkeiten eines Menschen zur Problemlösung nachzuahmen. Der Logiktheoretiker bewies bald 38 der ersten 52 Sätze in Kapitel zwei der Principia Mathematica und verbesserte dabei tatsächlich einen Satz. Zum ersten Mal wurde klar gezeigt, dass eine Maschine Aufgaben ausführen kann, die bis zu diesem Zeitpunkt Intelligenz und Kreativität erfordern.

Bald wandte sich die Forschung einer anderen Art des Denkens zu, dem induktiven Denken. Induktives Denken ist das, was ein Wissenschaftler verwendet, um Daten zu untersuchen und eine Hypothese zu entwickeln, um sie zu erklären. Um das induktive Denken zu untersuchen, erstellten die Forscher ein kognitives Modell, das auf den in einem NASA-Labor tätigen Wissenschaftlern basiert und ihnen hilft, organische Moleküle anhand ihrer Kenntnisse der organischen Chemie zu identifizieren. Das Dendral-Programm war das erste echte Beispiel für das zweite Merkmal künstlicher Intelligenz, Instrumentalität , einer Reihe von Techniken oder Algorithmen zur Erfüllung einer induktiven Argumentationsaufgabe, in diesem Fall der Molekülidentifikation.

Dendral war einzigartig, da es auch die erste Wissensbasis enthielt, eine Reihe von Wenn / Dann-Regeln, die das Wissen der Wissenschaftler erfassten und neben dem kognitiven Modell verwendet wurden. Diese Form des Wissens wird später als  Expertensystem bezeichnet . Da beide Arten von „Intelligenz“ in einem einzigen Programm verfügbar waren, konnten Informatiker fragen: „Was macht bestimmte Wissenschaftler so viel besser als andere? Haben sie überlegene kognitive Fähigkeiten oder mehr Wissen? “

In den späten 1960er Jahren war die Antwort klar. Die Leistung von Dendral war fast vollständig eine Funktion der Menge und Qualität des von den Experten erhaltenen Wissens. Das kognitive Modell war nur schwach mit Leistungsverbesserungen verbunden.

Diese Erkenntnis führte zu einem großen Paradigmenwechsel in der Gemeinschaft der künstlichen Intelligenz. Knowledge Engineering entwickelte sich zu einer Disziplin zur Modellierung spezifischer Bereiche menschlichen Fachwissens mithilfe von Expertensystemen. Und die von ihnen erstellten Expertensysteme übertrafen oft die Leistung eines einzelnen menschlichen Entscheidungsträgers. Dieser bemerkenswerte Erfolg löste große Begeisterung für Expertensysteme in der Gemeinschaft der künstlichen Intelligenz, im Militär, in der Industrie, bei Investoren und in der populären Presse aus.

Als Expertensysteme kommerziell erfolgreich wurden, wandten sich die Forscher Techniken zur Modellierung dieser Systeme zu und machten sie flexibler in allen Problembereichen. In dieser Zeit wurden objektorientiertes Design und hierarchische Ontologien von der KI-Community entwickelt und von anderen Teilen der Computer-Community übernommen. Heute bilden hierarchische Ontologien das Herzstück von Wissensgraphen, die in den letzten Jahren wieder aufgetaucht sind.

Als sich die Forscher für eine Form der Wissensrepräsentation entschieden, die als „Produktionsregeln“ bekannt ist, eine Form der Prädikatenlogik erster Ordnung, stellten sie fest, dass die Systeme automatisch lernen können. Das heißt, die Systeme können die Regeln selbst schreiben oder neu schreiben, um die Leistung basierend auf zusätzlichen Daten zu verbessern. Dendral wurde modifiziert und erhielt die Fähigkeit, die Regeln der Massenspektrometrie basierend auf den empirischen Daten aus Experimenten zu lernen.

So gut diese Expertensysteme auch waren, sie hatten Einschränkungen. Sie waren im Allgemeinen auf einen bestimmten Problembereich beschränkt und konnten nicht von mehreren plausiblen Alternativen unterscheiden oder Kenntnisse über Struktur oder statistische Korrelation nutzen. Um einige dieser Probleme anzugehen, fügten die Forscher Sicherheitsfaktoren hinzu - numerische Werte, die angeben, wie wahrscheinlich eine bestimmte Tatsache ist.

Der Beginn des zweiten Paradigmenwechsels in der KI erfolgte, als die Forscher erkannten, dass Sicherheitsfaktoren in statistische Modelle eingepackt werden konnten. Statistiken und Bayes'sche Inferenz könnten verwendet werden, um Domänenexpertise aus den empirischen Daten zu modellieren. Ab diesem Zeitpunkt würde die künstliche Intelligenz zunehmend vom maschinellen Lernen dominiert.

Es gibt jedoch ein Problem. Obwohl maschinelle Lerntechniken wie zufällige Wälder, neuronale Netze oder GBTs (gradientenverstärkte Bäume) genaue Ergebnisse liefern, sind sie nahezu undurchdringliche Black Boxes. Ohne verständliche Ausgabe sind Modelle für maschinelles Lernen in mehrfacher Hinsicht weniger nützlich als herkömmliche Modelle. Bei einem traditionellen KI-Modell könnte ein Praktiker beispielsweise fragen:

  • Warum hat das Modell diesen Fehler gemacht?
  • Ist das Modell voreingenommen?
  • Können wir die Einhaltung gesetzlicher Vorschriften nachweisen?
  • Warum stimmt das Modell nicht mit einem Domain-Experten überein?

Die mangelnde Verständlichkeit hat auch Auswirkungen auf das Training. Wenn ein Modell kaputt geht und nicht erklären kann, warum, ist es schwieriger zu reparieren. Weitere Beispiele hinzufügen? Welche Beispiele? Obwohl wir in der Zwischenzeit einige einfache Kompromisse eingehen können, z. B. das Akzeptieren weniger genauer Vorhersagen im Austausch für Verständlichkeit, hat sich die Fähigkeit, Modelle für maschinelles Lernen zu erklären, als einer der nächsten großen Meilensteine ​​herausgestellt, die in der KI erreicht werden müssen.

Sie sagen, dass sich die Geschichte wiederholt. Frühe KI-Forschung konzentrierte sich wie die heutige auf die Modellierung menschlichen Denkens und kognitiver Modelle. Die drei Hauptprobleme, mit denen frühe KI-Forscher konfrontiert sind - Wissen, Erklärung und Flexibilität -, bleiben auch für die aktuelle Diskussion über maschinelle Lernsysteme von zentraler Bedeutung.

Wissen hat jetzt die Form von Daten, und das Bedürfnis nach Flexibilität zeigt sich in der Sprödigkeit neuronaler Netze, in denen geringfügige Datenstörungen zu dramatisch unterschiedlichen Ergebnissen führen. Auch die Erklärbarkeit hat für KI-Forscher höchste Priorität. Es ist etwas ironisch, wie wir 60 Jahre später von dem Versuch, menschliches Denken zu wiederholen, zu der Frage übergegangen sind, wie die Maschinen denken.