„Software kann sehr intelligent sein. Aber den Menschen kann sie nicht ersetzen.“

Rolf Heuer ist zuversichtlich, dass uns clevere Maschinen helfen — in Forschung, Industrie und im Alltag. Im Interview erklärt der ehemalige Generaldirektor des CERN und bis April 2018 langjährige Präsident der DPG, weshalb es dennoch immer intelligenter Menschen bedarf.

 

von Sandra Zistl

Künstliche Intelligenz ist ein Begriff, der Hoffnungen schürt und Bedenken provoziert. Was bedeutet er für Sie als Physiker?

Früher war Künstliche Intelligenz schlichtweg intelligente Software — also neuronale Netze, die durch immer mehr Daten, mit denen der Mensch sie fütterte, immer besser Muster erkannt haben. Die Software wurde so geschrieben, dass sie sich mit Unterstützung des Menschen permanent weiterentwickelte. Heutzutage verläuft das auf den ersten Blick ähnlich, aber auf den zweiten doch anders: Man setzt der Software gleich eine Riesenmenge an Daten vor und schreibt sie so, dass sie intelligent genug ist, diese Daten in eigener Regie nach Mustern zu durchforsten und jene Kombination zu selektieren, die man braucht.

Haben Sie ein Beispiel?

Nehmen wir die Steuerung des Teilchenbeschleunigers im CERN. Er ist mit Millionen Sensoren ausgestattet, die überwachen, ob alles richtig läuft. Durch Mustererkennung werden verschiedene Sensoren gleichzeitig zurate gezogen. Die Frage lautet nicht: Was macht der eine Sensor?, sondern: Welche Situation entsteht dadurch? Mit intelligenter Software, die das Wissen aller Sensoren vereint, können Sie sehr schnell sagen: Wir ignorieren diesen einen Sensor. Wenn dann aber auch der Nachbarsensor diese Abweichung zeigt, müsste das Programm intelligent genug sein, festzustellen: Jetzt müssen wir etwas tun.

Der Mensch spielt also keine Rolle mehr?

Doch. Nur müssen solche Entscheidungen so schnell getroffen werden, dass man sich nicht nur auf den Menschen verlassen kann. Er ist zu langsam. Die Schwelle des Abschaltens richtet der Mensch ein, und er kann sie auch verändern. Das kann die Maschine nicht allein.

Nicht oder nur noch nicht?

Eine schwierige Frage, die auch die Industrie beschäftigt und bei der es um viel Geld und auch um die Sicherheit der Menschen geht. Seien es nun Produktionslinien, Gasturbinen oder die Infrastruktur für Züge: Auf Basis von Sensoren wird genau definiert, wann abgeschaltet werden muss. Bisher kann der Mensch die Maschine überschreiben. Sie ist auf jeden Fall schneller — aber ob sie eines Tages cleverer ist? Der menschliche Erfahrungswert ist bei aller Künstlichen Intelligenz nicht zu verachten. Ich kann mir nicht vorstellen, dass Maschinen uns eines Tages überschreiben. Gleiches gilt ja auch beim Autonomen Fahren: Software kann sehr intelligent sein, aber den Menschen kann sie nicht ersetzen.

“Die Zeit bis zum Markteintritt wird verkürzt, und die Produkte sind besser, wenn Sie clevere Programm einsetzen. Aber: Clevere Programme werden von cleveren Leuten geschrieben.”

Dennoch schürt KI Ängste, auch vor dem Verlust von Jobs.

Solche Befürchtungen gibt es doch immer, wenn etwas Neues kommt, das war bei der ersten Dampfmaschine nicht anders als heute bei der Künstlichen Intelligenz. Es liegt in der Verantwortung der gesamten Gesellschaft, abzuwägen: Besteht eine Gefahr, unter anderem auch für Jobs? Und wenn ja: Was können wir dagegen tun? Und wenn nein, dann muss das erklärt werden. Meines Erachtens muss es immer eine Entscheidung der Menschen sein und zwar basierend auf richtiger, faktenbezogener Information. Dafür muss die Wissenschaft den Mund aufmachen, und die DPG hat das stets getan.

Welche Chancen wird uns KI also eröffnen?

Wir haben es hier mit einem Kreislauf zu tun: Die Grundlagenforschung braucht, um voranzukommen, immer intelligentere Programme. Solch neue Technologien beschleunigen natürlich auch die angewandte Forschung und treiben damit industrielle Anwendungen voran. Mit entsprechend guten Leuten bringt dies dann die Methodik weiter, und diese wirkt wiederum in die Grundlagenforschung hinein. Dieser Kreislauf ist das Wichtigste, was wir haben. Denn er bringt stets — und das immer an ungeplanter Stelle — etwas hervor, das disruptiv wirkt, das eine echte Neuheit ist. Bestes Beispiel ist die Erfindung des World Wide Web im CERN. Dafür war kein Cent Forschungsgeld vorhanden. Je besser die programmierte Intelligenz ist, desto besser unterstützt sie die Forschung. Dasselbe gilt für die Industrie: Die Zeit bis zum Markteintritt wird verkürzt, und die Produkte sind besser, wenn Sie clevere Programm einsetzen. Aber: Clevere Programme werden von cleveren Leuten geschrieben.

Die Angst vor der Übermacht der Maschinen ist also unberechtigt?

Ja, wenn wir informiert und uns unserer Verantwortung bewusst sind. Es gibt viel gefährlichere Bereiche: Durch die Handynutzung beispielsweise geben die Leute permanent Informationen preis. Davor sollte man Angst haben, aber nicht vor KI per se. Es geht immer um den verantwortungsvollen Nutzen von Technologien. Es ist unsere gesellschaftliche Pflicht, sicherzustellen, dass wir den intelligenten Maschinen, die wir konstruieren, stets voraus sind.

Dann hegen Sie also keine Hoffnung, die Welt einst von einer Künstlichen Intelligenz erklärt zu bekommen? Noch gelten ja 95 Prozent der Energie und Materie als dem Menschen unerklärlich.

Künstliche Intelligenz kann die Welt nicht allein erklären. Sie ist ein Instrument, das man braucht, um voranzukommen. Als Forscher kann ich keine noch so schlüssige Erklärung akzeptieren, wenn ich sie nicht experimentell nachvollziehen kann. Man muss sie erst mal beweisen.

15.06.2018

Das Interview führte Sandra Zistl

Abonnieren Sie unseren Newsletter

Bleiben Sie auf dem Laufenden: Alles was Sie über Elektrifizierung, Automatisierung und Digitalisierung wissen müssen.