Was künstliche Intelligenz heute tatsächlich kann
Was künstliche Intelligenz heute tatsächlich kann
Anonim

Spoiler-Alarm: Bis zum Aufstand der Maschinen dauert es noch lange.

Was künstliche Intelligenz heute tatsächlich kann
Was künstliche Intelligenz heute tatsächlich kann

Als Elon Musk den humanoiden Roboter Tesla Bot vorstellt, scheint eine neue wissenschaftliche Revolution vor der Tür zu stehen. Ein bisschen mehr – und künstliche Intelligenz (KI) wird den Menschen übertreffen, und Maschinen werden uns bei der Arbeit ersetzen. Die beiden renommierten KI-Experten Gary Marcus und Ernest Davis werden jedoch gebeten, solche Schlussfolgerungen nicht vorschnell zu ziehen.

In Artificial Intelligence Reboot erklären Forscher, warum moderne Technologie alles andere als ideal ist. Mit freundlicher Genehmigung des Verlags "Alpina PRO" veröffentlicht Lifehacker einen Auszug aus dem ersten Kapitel.

An dieser Stelle klafft eine riesige Kluft – eine echte Kluft – zwischen unserem Ehrgeiz und der Realität der Künstlichen Intelligenz. Diese Kluft ist aufgrund der Ungelöstheit von drei spezifischen Problemen entstanden, von denen jedes ehrlich angegangen werden muss.

Die erste davon ist die sogenannte Leichtgläubigkeit, die darauf beruht, dass wir Menschen nicht wirklich gelernt haben, zwischen Menschen und Maschinen zu unterscheiden, und dies macht es leicht, uns zu täuschen. Wir schreiben Computern Intelligenz zu, weil wir uns selbst entwickelt haben und unter Menschen gelebt haben, die ihr Handeln weitgehend auf Abstraktionen wie Ideen, Überzeugungen und Wünsche gründen. Das Verhalten von Maschinen ähnelt oft oberflächlich dem Verhalten von Menschen, daher weisen wir Maschinen schnell die gleichen Grundmechanismen zu, auch wenn die Maschinen sie nicht haben.

Wir können nicht anders, als an Maschinen in kognitiven Begriffen zu denken („Mein Computer denkt, ich habe meine Datei gelöscht“), egal wie einfach die Regeln sind, denen die Maschinen tatsächlich folgen. Aber die Schlussfolgerungen, die sich bei der Anwendung auf den Menschen rechtfertigen, können bei der Anwendung auf Programme der künstlichen Intelligenz völlig falsch sein. In Anlehnung an eine Grundlehre der Sozialpsychologie nennen wir dies den fundamentalen Gültigkeitsfehler.

Einer der frühesten Fälle dieses Fehlers trat Mitte der 1960er Jahre auf, als ein Chatbot namens Eliza einige Leute davon überzeugte, dass er die Dinge, die sie ihm sagten, wirklich verstand. Tatsächlich nahm Eliza nur Schlüsselwörter auf, wiederholte das letzte, was die Person zu ihr sagte, und griff in einer Sackgassensituation zu Standard-Konversationstricks wie "Erzähl mir von deiner Kindheit". Wenn Sie Ihre Mutter erwähnen, würde sie Sie nach Ihrer Familie fragen, obwohl sie keine Ahnung hatte, was Familie wirklich ist oder warum sie für die Menschen wichtig ist. Es war nur eine Reihe von Tricks, keine Demonstration wahrer Intelligenz.

Trotz der Tatsache, dass Eliza die Menschen überhaupt nicht verstand, ließen sich viele Benutzer von den Dialogen mit ihr täuschen. Einige verbrachten Stunden damit, Sätze auf der Tastatur zu tippen, redeten auf diese Weise mit Eliza, interpretierten aber die Chatbot-Tricks falsch und hielten die Rede des Papageis für hilfreichen, aufrichtigen Rat oder Mitgefühl.

Joseph Weisenbaum Schöpfer von Eliza.

Menschen, die genau wussten, dass sie mit einer Maschine sprechen, vergaßen dies schnell, ebenso wie Theaterliebhaber für eine Weile ihren Unglauben beiseite legten und vergessen, dass die Handlung, die sie Zeuge waren, kein Recht hat, als echt bezeichnet zu werden.

Elizas Gesprächspartner verlangten oft die Erlaubnis für ein privates Gespräch mit dem System und bestanden nach dem Gespräch trotz aller meiner Erklärungen darauf, dass die Maschine sie wirklich verstand.

In anderen Fällen kann der Fehler bei der Beurteilung der Echtheit im wahrsten Sinne des Wortes fatal sein. Im Jahr 2016 verließ sich ein Besitzer eines automatisierten Tesla-Autos so sehr auf die scheinbare Sicherheit des Autopilot-Modus, dass er (laut Geschichten) vollständig in die Harry-Potter-Filme eintauchte und das Auto alles alleine machte.

Alles lief gut - bis es irgendwann schlecht wurde. Nachdem das Auto Hunderte oder sogar Tausende von Kilometern ohne Unfall gefahren war, kollidierte das Auto (im wahrsten Sinne des Wortes) mit einem unerwarteten Hindernis: Ein weißer Lastwagen überquerte die Autobahn, und Tesla raste direkt unter den Anhänger und tötete den Autobesitzer auf der Stelle. (Das Auto schien den Fahrer mehrmals zu warnen, die Kontrolle zu übernehmen, aber der Fahrer schien zu entspannt zu sein, um schnell zu reagieren.)

Die Moral dieser Geschichte ist klar: Die Tatsache, dass ein Gerät für einen Moment oder zwei (und sogar sechs Monate) "smart" erscheinen mag, bedeutet keineswegs, dass es wirklich so ist oder dass es mit allen Umständen fertig wird, unter denen eine Person würde angemessen reagieren.

Das zweite Problem nennen wir die Illusion des schnellen Fortschritts: den Fortschritt in der künstlichen Intelligenz, der mit der Lösung einfacher Probleme verbunden ist, mit dem Fortschritt, der mit der Lösung wirklich schwieriger Probleme verbunden ist, verwechseln. Dies geschah zum Beispiel mit dem IBM Watson-System: seine Fortschritte im Spiel Jeopardy! schien sehr vielversprechend, aber tatsächlich stellte sich heraus, dass das System viel weiter vom Verständnis der menschlichen Sprache entfernt war, als die Entwickler erwartet hatten.

Es ist möglich, dass das AlphaGo-Programm von DeepMind denselben Weg einschlägt. Das Go-Spiel ist wie Schach ein idealisiertes Informationsspiel, bei dem beide Spieler jederzeit das ganze Brett sehen und die Konsequenzen von Zügen mit brachialer Gewalt berechnen können.

In den meisten Fällen weiß im wirklichen Leben niemand etwas mit absoluter Sicherheit; unsere Daten sind oft unvollständig oder verzerrt.

Selbst in den einfachsten Fällen gibt es viel Unsicherheit. Wenn wir uns entscheiden, ob wir zu Fuß zum Arzt gehen oder die U-Bahn nehmen (da der Tag bewölkt ist), wissen wir nicht genau, wie lange es dauert, auf die U-Bahn zu warten, ob der Zug auf der Straße stecken bleibt, ob wir uns wie Hering im Fass in die Kutsche quetschen oder draußen im Regen nass werden, die U-Bahn nicht wagen, und wie der Arzt auf unsere Verspätung reagiert.

Wir arbeiten immer mit den Informationen, die wir haben. Das DeepMind AlphaGo-System, das millionenfach mit sich selbst spielt, hat sich nie mit Unsicherheit auseinandergesetzt, es weiß einfach nicht, was für ein Mangel an Informationen oder seine Unvollständigkeit und Inkonsistenz, ganz zu schweigen von der Komplexität der menschlichen Interaktion.

Es gibt noch einen weiteren Parameter, der dazu führt, dass sich Gedankenspiele stark von der realen Welt unterscheiden, und dies hat wiederum mit Daten zu tun. Selbst komplexe Spiele (wenn die Regeln streng genug sind) können nahezu perfekt modelliert werden, sodass die Systeme der künstlichen Intelligenz, die sie spielen, die riesigen Datenmengen, die sie zum Trainieren benötigen, problemlos sammeln können. So kann im Fall von Go eine Maschine ein Spiel mit Menschen simulieren, indem sie einfach gegen sich selbst spielt; selbst wenn das System Terabyte an Daten benötigt, wird es diese selbst erstellen.

Programmierer können so mit geringen oder keinen Kosten völlig saubere Simulationsdaten erhalten. Im Gegenteil, in der realen Welt gibt es keine perfekt sauberen Daten, es ist unmöglich, sie zu simulieren (da sich die Spielregeln ständig ändern), und umso schwieriger ist es, viele Gigabyte an relevanten Daten durch Ausprobieren zu sammeln und Fehler.

In Wirklichkeit haben wir nur wenige Versuche, verschiedene Strategien zu testen.

Wir sind beispielsweise nicht in der Lage, einen Arztbesuch 10 Millionen Mal zu wiederholen, indem wir die Entscheidungsparameter vor jedem Besuch schrittweise anpassen, um unser Verhalten in Bezug auf die Verkehrsmittelwahl dramatisch zu verbessern.

Wenn Programmierer einen Roboter trainieren wollen, um älteren Menschen zu helfen (etwa, um Kranke ins Bett zu bringen), ist jedes Datenbit echtes Geld und echte menschliche Zeit wert; Es gibt keine Möglichkeit, alle erforderlichen Daten mit Simulationsspielen zu sammeln. Auch Crashtest-Dummies können echte Menschen nicht ersetzen.

Es ist notwendig, Daten über echte ältere Menschen mit unterschiedlichen Merkmalen der senilen Bewegungen, über verschiedene Arten von Betten, verschiedene Arten von Pyjamas, verschiedene Arten von Häusern zu sammeln, und hier können Sie keine Fehler machen, da Sie eine Person auch aus mehreren Entfernungen fallen lassen Zentimeter vom Bett entfernt wäre eine Katastrophe. In diesem Fall steht ein gewisser Fortschritt (bisher der elementarste) auf diesem Gebiet mit den Methoden der engen künstlichen Intelligenz auf dem Spiel. Es wurden Computersysteme entwickelt, die fast auf dem Niveau der besten menschlichen Spieler in den Videospielen Dota 2 und Starcraft 2 spielen, bei denen den Teilnehmern zu jeder Zeit nur ein Teil der Spielwelt gezeigt wird und somit jeder Spieler vor die Problem des Informationsmangels - das wird mit Clausewitz' leichter Hand "der Nebel des Unbekannten" genannt. Die entwickelten Systeme bleiben jedoch immer noch sehr eng fokussiert und im Betrieb instabil. Zum Beispiel hat das AlphaStar-Programm, das in Starcraft 2 spielt, nur eine bestimmte Rasse von einer Vielzahl von Charakteren gelernt, und fast keine dieser Entwicklungen ist wie jede andere Rasse spielbar. Und natürlich gibt es keinen Grund zu der Annahme, dass die in diesen Programmen verwendeten Methoden geeignet sind, um in viel komplexeren realen Situationen erfolgreiche Verallgemeinerungen zu treffen. echtes Leben. Wie IBM nicht einmal, sondern schon zweimal festgestellt hat (zuerst im Schach, dann in Jeopardy!), garantiert der Erfolg bei Problemen aus einer geschlossenen Welt keineswegs den Erfolg in einer offenen Welt.

Der dritte Kreis der beschriebenen Kluft ist eine Überschätzung der Zuverlässigkeit. Immer wieder sehen wir, dass Menschen, sobald sie mit Hilfe von künstlicher Intelligenz eine Lösung für ein Problem finden, die eine Zeit lang störungsfrei funktionieren kann, automatisch davon ausgehen, dass bei einer Überarbeitung (und bei einer etwas größeren Datenmenge) alles wird zuverlässig funktionieren. Aber das ist nicht unbedingt der Fall.

Wir nehmen wieder Autos ohne Fahrer. Es ist relativ einfach, eine Demo eines autonomen Fahrzeugs zu erstellen, das auf einer ruhigen Straße korrekt auf einer deutlich markierten Spur fährt. jedoch können die Menschen dies seit über einem Jahrhundert tun. Es ist jedoch viel schwieriger, diese Systeme unter schwierigen oder unerwarteten Umständen zum Laufen zu bringen.

Wie Missy Cummings, Direktorin des Humans and Autonomy Laboratory an der Duke University (und ehemalige Kampfpilotin der US Navy), uns in einer E-Mail mitteilte, stellt sich die Frage nicht, wie viele Kilometer ein selbstfahrendes Auto unfallfrei zurücklegen kann an die sich diese Autos an sich ändernde Situationen anpassen können. Laut ihrer Missy Cummings, E-Mail an die Autoren am 22. September 2018., moderne teilautonome Fahrzeuge "in der Regel nur in einem sehr engen Bereich von Bedingungen, die nichts darüber aussagen, wie sie unter nicht idealen Bedingungen arbeiten können."

Auf Millionen von Testmeilen in Phoenix absolut zuverlässig auszusehen, bedeutet nicht, während des Monsuns in Bombay gute Leistungen zu erbringen.

Dieser grundlegende Unterschied zwischen dem Verhalten autonomer Fahrzeuge unter idealen Bedingungen (z. B. sonnigen Tagen auf mehrspurigen Vorortstraßen) und dem, was sie unter extremen Bedingungen tun könnten, kann für eine ganze Branche leicht zu einer Frage von Erfolg und Misserfolg werden.

Da das autonome Fahren unter extremen Bedingungen so wenig Gewicht hat und sich die aktuelle Methodik nicht in Richtung der Sicherstellung der korrekten Funktion des Autopiloten unter Bedingungen entwickelt hat, die gerade erst in Betracht gezogen werden, könnte bald klar werden, dass Milliarden von Dollar wurden für Methoden zum Bau selbstfahrender Autos aufgewendet, die einfach keine menschenähnliche Fahrsicherheit bieten. Es ist möglich, dass, um das von uns benötigte Maß an technischem Vertrauen zu erreichen, Ansätze erforderlich sind, die sich grundlegend von den derzeitigen unterscheiden.

Und Autos sind nur ein Beispiel von vielen ähnlichen. In der modernen Forschung zur künstlichen Intelligenz wird ihre Zuverlässigkeit weltweit unterschätzt. Dies liegt unter anderem daran, dass die meisten aktuellen Entwicklungen in diesem Bereich Probleme mit hoher Fehlertoleranz beinhalten, wie beispielsweise die Empfehlung von Werbung oder das Bewerben neuer Produkte.

In der Tat, wenn wir Ihnen fünf Arten von Produkten empfehlen und Ihnen nur drei davon gefallen, wird kein Schaden passieren. Aber in einer Reihe von kritischen KI-Anwendungen für die Zukunft, darunter fahrerlose Autos, Altenpflege und Gesundheitsplanung, wird menschenähnliche Zuverlässigkeit entscheidend sein.

Niemand wird nur vier von fünf Mal einen Heimroboter kaufen, der Ihren alten Großvater sicher ins Bett tragen kann.

Auch bei den Aufgaben, bei denen moderne Künstliche Intelligenz theoretisch im bestmöglichen Licht erscheinen sollte, kommt es regelmäßig zu gravierenden Ausfällen, die teilweise sehr komisch aussehen. Ein typisches Beispiel: Computer haben im Prinzip schon ganz gut gelernt, zu erkennen, was in diesem oder jenem Bild passiert (oder passiert).

Manchmal funktionieren diese Algorithmen großartig, aber oft produzieren sie völlig unglaubliche Fehler. Wenn Sie ein Bild einem automatisierten System zeigen, das Bildunterschriften für Fotos alltäglicher Szenen generiert, erhalten Sie oft eine Antwort, die dem, was ein Mensch schreiben würde, bemerkenswert ähnlich ist. Für die unten stehende Szene, in der eine Gruppe von Leuten Frisbee spielt, gibt das vielbeachtete Untertitel-Generierungssystem von Google beispielsweise genau den richtigen Namen.

Abb. 1.1. Gruppe junger Leute, die Frisbee spielen (eindeutige Bildunterschrift, automatisch von KI generiert)
Abb. 1.1. Gruppe junger Leute, die Frisbee spielen (eindeutige Bildunterschrift, automatisch von KI generiert)

Aber fünf Minuten später bekommt man aus demselben System leicht eine absolut absurde Antwort, wie es zum Beispiel bei diesem Straßenschild passiert ist, auf das jemand Aufkleber geklebt hat: Der Computer namens Die Macher des Systems haben nicht erklärt, warum dieser Fehler aufgetreten ist, aber solche Fälle sind keine Seltenheit. Wir können davon ausgehen, dass das System in diesem speziellen Fall (vielleicht in Bezug auf Farbe und Textur) das Foto als ähnlich zu den anderen Bildern (von denen es gelernt hat) klassifizierte, die als "Kühlschrank voller Lebensmittel und Getränke" bezeichnet wurden. Natürlich verstand der Computer nicht (was eine Person leicht verstehen konnte), dass eine solche Beschriftung nur im Fall einer großen rechteckigen Metallbox mit verschiedenen (und selbst dann nicht allen) Gegenständen im Inneren angebracht wäre. diese Szene ist "ein Kühlschrank mit vielen Speisen und Getränken".

Reis. 1.2. Kühlschrank mit vielen Speisen und Getränken gefüllt (völlig unplausible Überschrift, erstellt nach dem gleichen System wie oben)
Reis. 1.2. Kühlschrank mit vielen Speisen und Getränken gefüllt (völlig unplausible Überschrift, erstellt nach dem gleichen System wie oben)

Ebenso erkennen fahrerlose Autos oft richtig, was sie „sehen“, aber manchmal scheinen sie das Offensichtliche zu übersehen, wie im Fall von Tesla, der regelmäßig mit Autopilot in geparkte Feuerwehrautos oder Krankenwagen krachte. Noch gefährlicher können solche blinden Flecken sein, wenn sie sich in Systemen befinden, die Stromnetze steuern oder für die Überwachung der öffentlichen Gesundheit zuständig sind.

Um die Kluft zwischen Ambition und den Realitäten der Künstlichen Intelligenz zu überbrücken, brauchen wir drei Dinge: ein klares Bewusstsein für die Werte, die in diesem Spiel auf dem Spiel stehen, ein klares Verständnis dafür, warum moderne KI-Systeme ihre Funktionen nicht zuverlässig genug erfüllen, und, schließlich eine neue Entwicklungsstrategie Maschinendenken.

Da bei künstlicher Intelligenz in Bezug auf Arbeitsplätze, Sicherheit und das Gefüge der Gesellschaft sehr viel auf dem Spiel steht, ist es dringend erforderlich, dass wir alle – KI-Experten, verwandte Berufe, normale Bürger und Politiker – den wahren Stand der Dinge verstehen in diesem Bereich, um das Niveau und die Art der Entwicklung der heutigen künstlichen Intelligenz kritisch beurteilen zu lernen.

So wie es für Bürger, die sich für Nachrichten und Statistiken interessieren, wichtig ist, zu verstehen, wie leicht es ist, Menschen mit Worten und Zahlen in die Irre zu führen, so ist hier ein zunehmend wichtiger Aspekt des Verständnisses, damit wir herausfinden können, wo künstliche Intelligenz liegt wo ist es wirklich; was er jetzt kann und was er nicht wie und vielleicht nicht lernen wird.

Das Wichtigste ist zu erkennen, dass künstliche Intelligenz keine Magie ist, sondern nur eine Reihe von Techniken und Algorithmen, von denen jede ihre eigenen Stärken und Schwächen hat, für einige Aufgaben geeignet und für andere nicht geeignet ist. Einer der Hauptgründe, warum wir dieses Buch schreiben wollten, ist, dass vieles, was wir über künstliche Intelligenz lesen, uns als absolute Fantasie erscheint, die aus einem unbegründeten Vertrauen in die fast magische Kraft der künstlichen Intelligenz erwächst.

Inzwischen hat diese Fiktion nichts mit modernen technologischen Fähigkeiten zu tun. Leider war und ist die Diskussion um KI in der breiten Öffentlichkeit stark von Spekulationen und Übertreibungen geprägt: Die meisten Menschen haben keine Ahnung, wie schwierig es ist, eine universelle künstliche Intelligenz zu schaffen.

Lassen Sie uns die weitere Diskussion klären. Auch wenn die Klärung der mit KI verbundenen Realitäten von uns ernsthafte Kritik erfordern wird, sind wir selbst keineswegs Gegner der Künstlichen Intelligenz, wir mögen diese Seite des technologischen Fortschritts sehr. Wir haben einen bedeutenden Teil unseres Lebens als Profis in diesem Bereich verbracht und möchten, dass er sich so schnell wie möglich entwickelt.

Der amerikanische Philosoph Hubert Dreyfus hat einst ein Buch darüber geschrieben, welche Höhen seiner Meinung nach die künstliche Intelligenz nie erreichen kann. Darum geht es in diesem Buch nicht. Es konzentriert sich teilweise darauf, was KI derzeit nicht kann und warum es wichtig ist, sie zu verstehen, aber ein wesentlicher Teil davon spricht darüber, was getan werden könnte, um das Computerdenken zu verbessern und es auf Bereiche auszudehnen, in denen es jetzt zuerst Schwierigkeiten hat.

Wir wollen nicht, dass künstliche Intelligenz verschwindet; wir wollen es außerdem radikal verbessern, damit wir wirklich auf es zählen und mit seiner Hilfe die vielen Probleme der Menschheit lösen können. Wir haben viele Kritikpunkte am aktuellen Stand der künstlichen Intelligenz, aber unsere Kritik ist eine Manifestation der Liebe zu unserer Wissenschaft, kein Aufruf, alles aufzugeben und aufzugeben.

Kurz gesagt, wir glauben, dass künstliche Intelligenz unsere Welt tatsächlich ernsthaft verändern kann; Wir glauben aber auch, dass sich viele der Grundannahmen über KI ändern müssen, bevor wir von echten Fortschritten sprechen können. Unser vorgeschlagener „Reset“der Künstlichen Intelligenz ist keineswegs ein Grund, die Forschung einzustellen (auch wenn manche unser Buch genau in diesem Sinne verstehen), sondern eher eine Diagnose: Wo stecken wir jetzt fest und wie kommen wir wieder heraus die heutige Situation.

Wir glauben, dass der beste Weg, um vorwärts zu kommen, darin besteht, nach innen zu schauen und sich der Struktur unseres eigenen Geistes zu stellen.

Wirklich intelligente Maschinen müssen keine exakten Nachbildungen des Menschen sein, aber wer die künstliche Intelligenz ehrlich betrachtet, wird feststellen, dass es noch viel von Menschen zu lernen gibt, insbesondere von kleinen Kindern, die Maschinen in vielerlei Hinsicht weit überlegen sind ihre Fähigkeit, neue Konzepte aufzunehmen und zu verstehen.

Mediziner charakterisieren Computer oft als „übermenschliche“(auf die eine oder andere Weise) Systeme, aber das menschliche Gehirn ist seinen Silizium-Gegenstücken in mindestens fünf Aspekten immer noch weit überlegen: Wir können Sprache verstehen, wir können die Welt verstehen, wir können flexibel sein uns an neue Umstände anpassen, können wir schnell Neues lernen (auch ohne große Datenmengen) und können angesichts unvollständiger und sogar widersprüchlicher Informationen argumentieren. An all diesen Fronten stehen moderne Systeme der künstlichen Intelligenz hoffnungslos hinter den Menschen.

Neustart der künstlichen Intelligenz
Neustart der künstlichen Intelligenz

Künstliche Intelligenz: Reboot wird Menschen interessieren, die moderne Technologien verstehen und verstehen wollen, wie und wann eine neue Generation von KI unser Leben verbessern kann.

Empfohlen: