Anzeige

Im Gespräch mit dem AI-Experten Eng Lim Goh

Bad News: Irgendwann überflügelt uns AI, die künstliche Intelligenz. Good News: Sie fragt auch dann noch nach, ob sie nicht falsch abgebogen ist. AI-Spezialist Eng Lim Goh über Daten, Regeln und wie smartes Lernen unsere Jobs sichert.
Text: Robert Sperl, Fotos: Hewlett Packard Enterprise / 9 Min. Lesezeit
Interview Eng Lim Goh HPE Künstliche Intelligenz Foto: Hewlett Packard Enterprise
Eng Lim Goh, geboren 1959 in Singapur. Verantwortet als CTO des Informationstechnikunternehmens Hewlett Packard Enterprise die Bereiche High Performance Computing und Artificial Intelligence. Goh ist beteiligt am NASA-­Projekt über Space Supercomputing (Spaceborne, seit 2017), das in der International Space Station (ISS) durchgeführt wird.
Anzeige

Das Interview mit Eng Lim Goh beginnt mit einem entspannten Fototermin. Die Wiener Hofburg mit ihrem leicht verstaubten imperialen Charme könnte als Kulisse nicht weiter entfernt sein vom Alltag des Chief Technology Officer von Hewlett Packard Enterprise (HPE): Geboren in Singapur, hat der Cambridge-Absolvent – wenn er nicht im Flugzeug sitzt – sein Büro in Milpitas, Kalifornien, zehn Autominuten vom Silicon Valley entfernt.

Gohs Spezialgebiet sind High Performance Computing und Artificial Intelligence (AI). Dabei berät er auch die NASA in einem Projekt über Space Supercomputing. Wien besuchte Goh als Keynote Speaker der Spotlight-Konferenz von HP Inc. (vormals Hewlett-Packard Company). Und brachte en passant eine österreichische Regierungsdelegation zum Thema künstliche Intelligenz auf den letzten Stand.

Anzeige

TERRA MATER: Bei AI denken wir an Siri, Alexa und an Roboter, die autonom ihre Arbeit machen. In welche Richtung entwickelt sich diese Technologie allgemein?

ENG LIM GOH: Überall dorthin, wo viele Daten zugleich viele Probleme bedeuten.

Denn AI sieht viele Daten nicht als Problem, sondern als Lösung. Sie wird umso klüger, je mehr man sie mit Daten füttert – in guter Qualität natürlich.

Geben Sie uns ein plakatives Beispiel für eine Anwendung von AI...

Einer unserer Kunden ist eine Versicherung. Sie hat hunderttausende Klienten, und im Call-Center ging es stets stressig zu. Es dauerte lang, bis Probleme gelöst waren, die Zufriedenheitsrate war niedrig. Wir haben deshalb die Daten aller Betreuer erhoben und sie nach ihrem micro-skills set klassifiziert. Ruft nun ein Kunde an, weiß man nach wenigen Fragen, was genau er will. Er wird dann mit jenem Betreuer verbunden, der am besten zu ihm passt. Die Wartezeit ist ein bisschen länger, aber am Ende stieg die Zufriedenheitsrate um 30 Prozent.

Der entscheidende Moment, ob jemand AI liebt oder nicht, ist damit klar: Er fühlt sich gut beraten. Wie beschreiben Sie allgemein den Punkt, ab dem jemand von AI überzeugt ist?

Sobald er erkennt, dass AI besser funktioniert, als wenn Menschen dahinterstecken. Aber es bestehen nun einmal Unterschiede zwischen einem Gehirn und einer AI, zwischen einem tatsächlichen und einem künstlichen neuronalen Netzwerk. Letzteres verlangt nach menschlicher Kontrolle.

AI funktioniert besser, aber sie braucht uns …

Die meiste Zeit funktionieren solche Systeme sehr gut. Entscheidungen oder Vorhersagen, die von der Maschine stammen, sind besser als von Menschen getroffene, und die Leute erkennen das an. Paradebeispiel ist die Bilderkennung: Trainiert man sie mit ausreichend Daten, übertrifft sie die menschlichen Fähigkeiten. Die Benchmark ist die Bilderdatenbank ImageNet, bei der Menschen gegen die Maschine antraten …

… wobei es aber zu Problemen kam.

Die Erkennung ist stark eingeschränkt auf Objekte, die trainiert wurden. Die margin of error beträgt zwar nur zwei Prozent im Vergleich zu fünf bei den Menschen. Aber wenn die Maschine sich irrt, dann irrt sie sich auf geradezu groteske Weise.

Also doch: Es braucht weiter den Menschen …

Genau – das gilt etwa auch für autonomes Fahren. Auf den Stufen eins bis vier braucht es Menschen, nur auf Stufe fünf könnte man komplett auf sie verzichten. Bis dahin ist der Weg aber noch weit – im Moment liegen wir zwischen Stufe zwei und drei.

Das menschliche Gehirn ist grob geschätzt eine Million Mal so komplex wie das größte neurale Netzwerk.

Eng Lim Goh, Spezialist für Artificial Intelligence AI

Was wird die AI künftig für uns tun?

Zuerst müssen wir den Unterschied zwischen dem menschlichen Gehirn und einem künstlichen neuralen Netzwerk bestimmen. Was eine Maschine für uns tun kann, hängt davon ab, wie sie sich von uns unterscheidet. Und was etwa den Maßstab betrifft, ist unser Gehirn grob geschätzt eine Million Mal so komplex wie das größte neurale Netzwerk. Ein künstliches Netzwerk braucht deshalb viele Beispiele, um zu trainieren, der Mensch relativ wenige. Du zeigst ihm einmal das Bild einer Katze – das reicht. In Australien hingegen gab es Zwischenfälle bei Tests mit Kängurus und einem autonom fahrenden Auto. Das System war trainiert auf zweibeiniges Gehen und vierbeiniges Trotten, aber nicht auf zweibeiniges Hüpfen.

Wird die AI irgendwann eigenständig denken?

Eine großartige Frage! Betreiben wir dafür ein wenig Zahlenspielerei. Die komplexesten AI­Netzwerke kommen aktuell auf zehn Milliarden Synapsen, ich nenne sie Verbindungen. Unser Gehirn hat 100 Trillionen, manche sagen sogar 1.000. Im Moment liegt der Unterschied zwischen künstlichem und menschlichem Gehirn also zwischen 1010 und 1020. Durch unsere Arbeit mit dem Blue Brain Project (der École polytechnique fédérale de Lausanne [EFL]; Anm.), bei dem es um die Rekonstruktion eines Mäusegehirns geht, haben wir herausgefunden, dass es noch etwa dreißig Jahre dauern wird, bis ein künstliches neuronales Netzwerk so komplex sein wird wie das Gehirn eines Menschen.

Also stellen wir diese Frage in dreißig Jahren nochmals?

Genau. Doch selbst wenn wir eine AI entwickeln, die das schafft: Das heißt nicht, dass AI ein Bewusstsein entwickelt, Schmerzen empfindet, denken kann. AI kann aktuell nicht empfinden, nicht einmal auf dem Niveau eines Schimpansen. Auf das erste Niveau der Empfindung kommt die AI möglicherweise, weil man ihr das Konzept von Schmerz antrainieren kann.

Die Fehlertoleranz bei einer Maschine beträgt zwar nur zwei Prozent im Vergleich zu fünf beim Menschen. Aber wenn die Maschine sich irrt, dann auf groteske Weise.

Eng Lim Goh, Spezialist für Artificial Intelligence AI

Und die nächste große Frage?

Wenn wir ein künstliches neuronales Netzwerk haben, das so komplex ist wie unser Gehirn: Kriegen wir am Ende vielleicht ein anderes Ergebnis als das erwartete? Etwas viel Besseres, aber etwas, was sich nicht von Bewusstheit in Richtung Eigenwahrnehmung bewegt? Meine Meinung: Das könnte einen Quantensprung geben, aufgrund der Emergenz. Wer einfache Dinge zusammenfügt, kriegt am Ende etwas komplett anderes. Das Paradebeispiel: Die gesamte Chemie kann nicht die Biologie erklären. Die gesamte Biologie nicht die Neurowissenschaften. Und die gesamten Neurowissenschaften nicht die Sozialwissenschaft.

Es wird für die AI auch notwendig sein, einige andere Punkte zu lösen, etwa das Vergessen.

Wie vergessen Menschen?

Ich brauche etwas nicht – und vergesse es.

Das ist die Antwort.

Einspruch: Maschinen speichern aus technischen Gründen ja buchstäblich endlos.

Gehen wir zurück zu den Unterschieden zwischen Gehirn und künstlichen neuronalen Netzwerken. Das Gehirn arbeitet durch Subtraktion: Wenn wir jung sind, ist unser Gehirn noch ungleich besser vernetzt als die 100 Trillionen Verbindungen. Doch dann macht es einen Prozess der Reduktion durch. Wenn ich etwas nicht brauche und nicht benutze – weg damit. Die Natur hat sich, durch die Evolution, für diesen Weg entschieden: Sie hat entdeckt, dass Vergessen wichtig ist.

Wie kann man das eine Maschine lehren?

Dafür müssen wir in einigen Jahren unser gesamtes Denkmodell ändern. Aktuell investieren wir viel Geld in neuronale Netzwerke, die auf Addition beruhen und nichts vergessen. Wir wüssten aktuell nicht, wo wir anfangen sollen, Verbindungen zu kappen: Wenn wir das eine kappen, vergessen wir vielleicht etwas Entscheidendes anderes, oder wir verlieren die Fähigkeit, etwas wahrzunehmen. Die Rückentwicklung eines neuronalen Netzwerks wird erst erforscht. Das Gehirn löst das auf natürliche Art: Strömen nicht genügend Reize durch eine Synapse, entscheidet das Gehirn, sie stillzulegen.

Yuval Noah Harari, Autor von „21 Lektionen für das 21. Jahrhundert“, nennt drei wesentliche Bedrohungen für die Menschheit: Atomkriege, Klimawandel und technologische Brüche, speziell den Aufstieg von AI und der Biotechnologie. Er sagt, dass AI vielleicht normale zwischenmenschlichen Beziehungen ersetzt, weil sie irgendwann die Menschen besser versteht als die sich selbst …

Stephen Hawking und andere Koryphäen äußerten zu Recht ähnliche Sorgen. Aber es ist wie bei jeder neuen Technologie: Es braucht Regeln, um sie zu verwalten. Meine Hoffnung dahinter hat zwei Gründe. Zum einen das System des maschinengestützten bestärkenden Lernens. Menschen lernen nicht aus ihrer Geschichte. Also sollten wir zwei Maschinen miteinander spielen lassen, bis wir die richtige Lösung haben, mit einem reward and penalty system. Wir haben ein Poker­Programm mitentwickelt, Liberatus. Nachdem es die besten menschlichen Spieler geschlagen hatte, haben wir die Spieler gefragt, was so ungewöhnlich ist an ihm. Die Antwort: Das Programm blufft nicht wie ein Mensch, eher wie ein Alien. Es lernte nicht aus der menschlichen Erfahrung, sondern von Pokerspielen zweier Maschinen gegeneinander, und das waren am Ende eine Trillion Spiele.

Die künstliche Intelligenz ist unsterblich.

Eng Lim Goh, Spezialist für Artificial Intelligence AI

Treten die beiden Maschinen gegeneinander an, sind sie in ihren Entscheidungen also von menschlichen Ressentiments unbeeinflusst …

Die menschliche Geschichte ist eine des Konflikts. Es ist selbstverständlich für Menschen, dass sie sofort an einen Konflikt denken, wenn etwas Neues auf sie zukommt, das lehrt sie die Geschichte. Ein Alien hingegen startet völlig unvoreingenommen.

Und der zweite Grund für Ihre Hoffnung?

AI ist unsterblich. Mach ein Back­up in einer Cloud, und wenn der Körper zerfällt, findet die AI einen neuen, und das Wissen wird wieder raufgeladen. AI ist ein unsterbliches Alien, das sich nicht um Menschen kümmern muss.

Brauchen diese Maschinen noch Menschen an ihrer Seite?

Ich weiß es nicht, aber wohl zumindest, solange ich lebe. Maschinen können sehr gut die korrekte Antwort geben. Aber wir Menschen müssen da sein und überprüfen, ob es auch die sozial richtige Antwort ist.

Bleiben Maschinen damit immer Werkzeuge?

Nein, sie gewinnen an Bedeutung, werden beinahe Gefährten, aber wir werden die Gatekeeper ihrer Entscheidungen bleiben. Ich bin nicht gut darin, zu prophezeien, was in zehn Jahren passiert. Aber zum Beispiel komplett autonome Autos? Das wird noch Dekaden dauern. In Flugzeugen haben wir seit achtzig Jahren Autopiloten, und sie haben die Menschen nicht ersetzt.

Trotzdem heißt die Sorge: AI nimmt Menschen Jobs weg und das Selbstwertgefühl, und am Ende kommt es deshalb sogar zu Revolutionen.

Erstens: AI wird einige Jobs kosten – vor allem manuelle, banale. Aber die Jobangebote werden eher mehr. Ich war in einer Autofirma mit Forschungslaboren und 20.000 Robotern. Dort werden Menschen nicht ersetzt, man braucht mehr von ihnen. Menschen, die Roboter bedienen, Arbeiter, die von Robotern umgeben sind. Roboter, die den Menschen zusehen und sie kopieren – das ist die Vision. Zweitens: Unsere Regierungen müssen das erkennen und in Weiterbildung und Trainings investieren, damit die Menschen mit den Robotern Schritt halten können und produktiver werden. Drittens: Vor hundert Jahren haben wir pro Woche sechzig bis achtzig Stunden gearbeitet. Jetzt sind es vierzig – bei einem Monat Urlaub. Vielleicht empfinden wir bald dreißig Stunden pro Woche und sechs Wochen Urlaub als normal. Ich meine, dass sich die Lebensqualität generell steigern wird. Wir werden das ganz selbstverständlich finden und nicht das Gefühl haben, dass unsere Jobs ersetzt worden sind, sondern dass uns die Automation etwas gebracht hat.

Die künstliche Intelligenz wird einige Jobs kosten – vor allem manuelle, banale. Aber die meisten Jobangebote werden mehr.

Eng Lim Goh, Spezialist für Artificial Intelligence AI

Ist dieses System so clever, dass es von der Wissenschaft entwickelt werden kann und Politik obsolet wird?

Ich habe gewählte Funktionäre immer respektiert, denn sie sind es, die von den Menschen ausgesucht wurden. Aufgabe der Wissenschaftler ist es, diese Funktionäre zu überzeugen, dass die genannten drei Dinge kommen. Wir sollten verstehen, dass die nächste Phase eine bessere ist, in der wir vielleicht weniger besitzen, aber immer noch wichtig sind.

Die AI beeinflusst aber die Politik. Wie behalten wir da unsere Gatekeeper-Funktion?

Wir können die Verwendung von AI einschränken, was schwierig ist. Oder die AI verteidigt sich selbst und verwendet Mechanismen, die auch der Angreifer verwendet, aber effektiver.

Momentan sind die bösen Jungs schneller …

Vielleicht müssen wir Wissenschaftler unsere Arbeit besser machen und die Politiker überzeugen, vermehrt in diese Abwehr zu investieren. Da hilft uns die Erfahrung aus dem Spielebereich: Dort geht es ständig um wechselnde Strategien.

Ein Einzelner ist weder klug genug, noch hat er genügend Zeit, um alles aufzunehmen.

Eng Lim Goh, Spezialist für Artificial Intelligence AI

Die AI lebt von den Daten, mit denen man sie betreibt: Wie sieht es da mit den ethischen Maßstäben aus, auch der Firmen insgesamt?

Der Lieferant, der die AI mit Daten füttert, hat eine enorme Verantwortung. Er kann die Daten in eine spezielle Richtung lenken und so das Ergebnis beeinflussen. Das muss deshalb eher ein ethischer Job sein als ein technischer. Denn die Art, wie man neuronale Netzwerke trainiert, kann verrückte Auswirkungen haben, wenn man zu wenige Daten liefert oder die falschen – es kommt schnell zu Verzerrungen. Ich will nicht sagen, dass der Mensch besser ist als die Maschine oder umgekehrt. Unter gewissen Umständen können Maschinen bessere Vorhersagen treffen, doch auch sie sind nicht fehlerlos.

Übernehmen die Maschinen in vierzig, fünfzig Jahren die Herrschaft? Oder werden die Menschen stets schneller reagieren und bessere Lösungen finden?

Noch einmal: Ich bin schlecht bei Voraussagen. Aber betrachten wir Trends, etwa in der Bildung: Vor hundert Jahren genossen wir sechs Jahre Schulerziehung und galten als gebildet. Dann waren es irgendwann zwölf Jahre plus Universität, also sechzehn. In der Datenwissenschaft brauchst du ein Doktorat – noch einmal vier Jahre, macht zwanzig. Wir hinken immer hintennach – bald brauchen wir dreißig Jahre …

Der Trend heißt also, dass Lernen smart ist und wir es immer und immer tun sollten …

Das ist die Antwort. Wir müssen einen immer höheren Grad von Abstraktion erlernen, uns immer mehr spezialisieren und als Menschen noch mehr kooperieren. Ein Einzelner ist weder klug genug, noch hat er genügend Zeit, um alles aufzunehmen. Selbst wenn wir 300 Jahre alt werden, lautet das Problem der nächsten Generation, dass sie alles neu lernen muss. Maschinen müssen das nicht: Sie geben ihr Wissen einfach an die nächste Maschine weiter. Deshalb sollten wir unsere Zeit nützen, um herauszufinden wie schön es ist, ein Teamplayer zu sein und als Team zu arbeiten.

Wir müssen also eher unsere Eifersucht überwinden als unsere Angst vor Maschinen?

Ja.

Dieses Interview erschien erstmals im Terra Mater Magazin 6/2019.

Interview Eng Lim Goh HPE Künstliche Intelligenz Foto: Gordon Johnson/pixabay
Künstliche Intelligenz versus Gehirn: Die Zukunft ist ein Nebeneinander, nicht ein Gegeneinander

Wo treffen wir heute schon auf AI?

Künstliche Intelligenz AI (Artificial Intelligence), also selbständig entscheidende und handelnde Computerprogramme, findet bereits Verwendung in der Verkehrssteuerung (Staumanagement), der Industrie (Wartung) und der Medizin (Diagnose). Virtuelle Assistenten beantworten Kundenanfragen (etwa für Reiseveranstalter), empfehlen Produkte, stecken hinter Einparkhilfen, erkennen Bilder und übersetzen Gesprochenes in Geschriebenes. Sie sind Sprachassistenten (Siri, Amazon Echo), steuern Smart­-Home-Systeme und erkennen betrügerische Banküberweisungen.

Wann übernimmt AI die Macht?

Die wohl spannendste Frage sieht der Computerspezialist Eng Lim Goh von HPE so:

  • Kurzfristig wird AI menschliche Fähigkeiten verstärken, nicht ersetzen.

  • Mittelfristig – in zwanzig, dreißig Jahren – ist denkbar, dass künstliche neuronale Netzwerke so komplex und so schlau sind wie ein menschliches Gehirn.

  • Langfristig hingegen wird entscheidend sein: Führt extreme Komplexität der AI und Superintelligenz auch zu Selbsterkenntnis? Erst dann müssen sich Menschen vor Maschinen fürchten.

Abo
Angebot für Terra Mater-Jahresabo mit Schreibset
  • 30€ für Ausgaben Terra Mater jährlich

  • Terra Mater Buff-Tuch als Geschenk

  • Zugang zur Terra Mater Society

Zum Angebot