Das Audi Magazin: Sie wollten schon als Kind einen Roboter entwickeln, der intelligenter ist als der Mensch. Warum?
JÜRGEN SCHMIDHUBER: Damit er all die Probleme löst, die ich selber nicht lösen kann.
Sind Sie Ihrem Ziel näher gekommen?
Ja. Unser Team an der TU München und am Schweizer KI-Labor IDSIA in Lugano hat seit den 90er-Jahren das Long Short-Term Memory (LSTM) entwickelt, das eine Grundlage der modernen künstlichen Intelligenz ist.
Was bringt uns diese Technologie im Alltag?
LSTM ist in drei Milliarden Smartphones in Gebrauch und hilft vielen Menschen im Alltag. Es wird heute jeden Tag milliardenfach von Apple-, Google-, Amazon- und Facebook-Nutzern verwendet. 2017 gab Facebook beispielsweise bekannt, dass Botschaften sich dank LSTM durch einen Klick übersetzen lassen; die Anwendung wurde schon damals über vier Milliarden Mal pro Tag genutzt, also gut 50000-mal in der Sekunde. Alexa von Amazon spricht ebenfalls durch ein LSTM. LSTM-Varianten machen auch Bildanalysen in der Medizin oder erkennen Handschriften. Wenn Sie Google Translate verwenden, verwenden Sie auch ein LSTM. Wenn Sie mit Google Voice reden und etwas fragen, ebenso. Denn die Spracherkennungssoftware basiert auf LSTM.
Wie erklären Sie KI mit LSTM einem Laien?
LSTM ist ein künstliches neuronales Netzwerk und funktioniert ein klein wenig wie ein menschliches Gehirn. Am Anfang ist es dumm und weiss nichts, aber es lernt durch Erfahrung, alle möglichen Ziele zu erreichen. Im Hirn kommunizieren Milliarden kleiner Neuronen miteinander durch verschieden starke Verbindungen. Die Eingabeneuronen, zum Beispiel in der Retina unserer Augen, senden ständig Daten an tiefere Neuronenschichten. Weitere Datenströme kommen von den Ohren oder von den Schmerzsensoren, die im ganzen Körper verteilt sind. Manche Neuronen sind Ausgabeneuronen und aktivieren Muskeln. Ein Baby versteht noch nicht, was die ganzen Signale bedeuten, weil die Verbindungsstärken zwischen den meisten Neuronen zunächst zufällig sind. Aber durch Erfahrung erlernt es viele nützliche Fertigkeiten, wobei sich manche Verbindungen verstärken, andere sich abschwächen. Beim LSTM ist es ähnlich.
Was sind nun die revolutionärsten Transformationen, die LSTM bringt?
Das Grundlegende ist, dass man damit alle möglichen Sequenzen lernen kann – also Sprache, Text, Bilder, Video, Zeit- und Zahlenreihen, Aktienkurse – und sich aus vergangenen Datensequenzen zukünftige oft voraussagen lassen. Die Welt ist voller Sequenzen, aus denen sich wichtige Informationen herausholen lassen, Lebensläufe, Zeitungsartikel, Geräusche, Filme. LSTM ist daher ein ziemlich universelles Werkzeug.
Ihre Firma NNAISENSE gewann kürzlich in Kalifornien bei der wichtigsten KI-Konferenz gegen mehr als 400 Mitbewerber den «Learning to run»-Wettbewerb. Ein simuliertes bemuskeltes Skelett lernte dabei von allein zu laufen, ganz ohne Lehrer. Kinder brauchen ja auch lange, bis sie das können. Kann man mit ähnlichen Verfahren auch lernende Autos bauen?
In der Tat hatte NNAISENSE mit Audi ein Projekt, bei dem Modellautos ganz ohne Lehrer lernten einzuparken. Das war ein absolutes Novum, denn erstmals lernten Fahrzeuge dabei nur durch Versuch und Irrtum, die komplizierten Eingaben der Kameras und anderer Sensoren in brauchbare Steuerbefehle umzumünzen.
Wie stellen Sie sich die Zukunft der Mobilität selber vor?
Schauen wir erst mal in die Vergangenheit der Mobilität. Die zentralen Durchbrüche beim autonomen Fahren wurden vor Jahrzehnten in Europa erzielt. Das Team von Professor Ernst Dieter Dickmanns hatte bereits vor einem Vierteljahrhundert erste wirklich selbstfahrende Autos im Verkehr, 1994 schon dreimal schneller (bis zu 180 km/h auf der Autobahn) als die heutigen Google-Autos. Dies ohne GPS, nur mit Kameras, trotz der damals 100000-mal langsameren Rechnern. Ein autonomes Auto fuhr schon oft 100 Kilometer am Stück ohne Eingreifen des Sicherheitsfahrers, der aus legalen Gründen an Bord sein musste. Selbst heute noch gehören laut FAZ mehr als 50% der Patente für autonomes Fahren deutschen Firmen.
Was fehlte damals noch?
Mustererkennung funktionierte lange nicht so gut wie heute. Die tiefen künstlichen neuronalen Netze meines Teams erzielten erst 2011 im Silicon Valley erstmals übermenschlich gute visuelle Mustererkennungsresultate, und zwar bei der Verkehrszeichenerkennung. Solche Fortschritte erlauben es heute, autonome Autos auch im unübersichtlichen Stadtverkehr einzusetzen. Selbstfahrende Autos müssen aber noch sicherer werden und Muster noch besser erkennen. Heute stirbt in der Schweiz pro Tag ein Mensch im Strassenverkehr. Irgendwann werden autonome Fahrzeuge wohl so sicher sein, dass man diese Zahl vielleicht um den Faktor zehn oder mehr drücken kann. Dann wird uns der Gesetzgeber wohl dazu verpflichten, aufs autonome Fahren umzusteigen.
Wie wird dies unsere Städte prägen?
In den Städten wird es Robotertaxiflotten geben, vorwiegend elektrisch betrieben durch kleine, leichte billige Batterien für meist kurze Fahrten. Bevor seine Batterie sich leert, wird das Robotertaxi selbstständig zur Aufladestation fahren. Bestellt wird es per App. So werden Autos nicht mehr 23 von 24 Stunden herumstehen, sondern meist unterwegs sein. Sie müssen zwar wegen stetem Gebrauch nach einem Jahr ausgewechselt werden, sind aber billiger als Benziner, weil sie dank simpler Technik fast doppelt so lange halten. Man wird weniger Parkplätze brauchen, und Stadtplaner können sich überlegen, was man mit dem frei werdenden Raum anfängt.
Das Auto nimmt uns also das Autofahren ab. Werden Maschinen generell je alles genauso lernen können wie ein Mensch?
Vielleicht kommt das rascher, als manche glauben. Wir forschen an KI, die wie neugierige Kinder lernen können, sich mentale Modelle der Welt zu bauen, dank deren sie abstrakt denken, planen und entscheiden und damit ihre Ziele erreichen können.
Das Lernen und das Erinnern sind doch auch stark von Emotionen geprägt. Kann KI dereinst fühlen?
Unsere künstlichen Agenten zeigen schon längst Emotionen. In einem Beute-Jäger-Szenario lernen unsere gejagten Agenten, Jäger zu erkennen und ihnen auszuweichen, indem sie Eingaben aus der Umgebung so in Aktionen umsetzen, dass sie eben nicht zur Beute werden. Von aussen wirkt das so, als hätte der gejagte Agent Angst auf dem Weg zum Versteck.
Der Mensch kommt aber über Intuition, Neugier und Kreativität zu neuen Ideen. Wie steht es bei der KI?
Wir arbeiten schon seit 1990 an künstlicher Neugier. Wir bauen schon längst KI, die in sich den Trieb tragen, selbst erfundene Experimente auszuführen, um etwas zu lernen, was sie vorher noch nicht wussten, um Regelmässigkeiten in ihrer Umgebung zu entdecken, die sie vorher nicht kannten. Und weil die Rechner immer noch alle fünf Jahre zehnmal billiger werden, kommen wir Bereichen immer näher, die einst dem Menschen vorbehalten schienen.
Greift die digitale Revolution noch tiefer als die industrielle Revolution?
Was genau ist die digitale Revolution? Hat sie nicht schon vor weit über 100 Jahren angefangen, zum Beispiel mit der Elektrizität, die damals schon verwendet wurde, um Botschaften zu verschicken? Gehörte der Telegraf nicht schon zur digitalen Revolution? Oder das noch viel ältere externe Gedächtnis in Form von Schrift, erfunden vor über 5000 Jahren? Mir scheint, dass die digitale Revolution etwas ist, was schon lange im Gange ist. KI wird aber nun wohl zum Kulminationspunkt der digitalen Revolution und wird jeden Lebensbereich erfassen und umgestalten.
Eine Zukunftsutopie in Sachen Mobilität findet sich in der Serie «Raumschiff Enterprise». Werden wir uns jemals an einen anderen Ort beamen können, ohne physikalisches Fortbewegungsmittel?
Zumindest KI können schon längst mit Lichtgeschwindigkeit reisen, etwa als durch Bits codierte neuronale Netzwerke von einem Sender zum Empfänger. Das tun sie längst in meinem Labor. Was KI leicht fällt, scheint dem Menschen schwierig. Da gibt es halt biologische Hindernisse.