Die Ankunft der übermenschlichen Maschinenintelligenz wird meiner Meinung nach das größte Ereignis in der Geschichte der Menschheit sein. Die Großmächte der Welt wachen endlich auf, und die größten Konzerne der Welt wissen das schon seit längerem. Aber was sie vielleicht nicht ganz verstehen, ist, dass die Entwicklung der KI darüber entscheiden wird, ob dieses Ereignis auch unser letztes ist.
Das Problem ist nicht die Science-Fiction-Handlung, die Hollywood und die Medien beschäftigt – der menschlich-kalte Roboter, der spontan zu Bewusstsein kommt und sich entscheidet, Menschen zu hassen. Vielmehr ist es die Schaffung von Maschinen, die mehr Informationen nutzen und weiter in die Zukunft schauen können als Menschen es je können, und die unsere Fähigkeit zur Entscheidungsfindung in der realen Welt übersteigen.
Um besser zu verstehen, wie und warum dies zu ernsthaften Problemen führen könnte, müssen wir zunächst zu den Grundbausteinen der meisten KI-Systeme zurückkehren. Das „Standardmodell“ in der KI, entlehnt aus philosophischen und ökonomischen Vorstellungen von rationalem Verhalten, sieht so aus: „Maschinen sind in dem Maße intelligent, dass man von ihren Aktionen erwarten kann, dass sie ihre Ziele erreichen.“
Da Maschinen im Gegensatz zu Menschen keine eigenen Ziele haben, geben wir ihnen Ziele vor, die sie erreichen sollen. Mit anderen Worten, wir bauen Maschinen, füttern sie mit Zielen, und los geht’s. Je intelligenter die Maschine ist, desto wahrscheinlicher ist es, dass sie dieses Ziel erreicht. Dieses Modell taucht in der gesamten Gesellschaft auf, nicht nur die Ingenieure von AI Control entwerfen Autopiloten, um Abweichungen vom Horizontalflug zu minimieren; Statistiker entwerfen Algorithmen, die Prognosefehler reduzieren; Einzelhändler wählen Geschäftsstandorte, die den Gewinn maximieren; und Regierungen treffen politische Entscheidungen, um das BIP-Wachstum zu beschleunigen, wie in China. Leider ist dieses Standardmodell ein großer Fehler. Es macht meiner Meinung nach keinen Sinn, Maschinen zu entwerfen, die uns nur dann nützen, wenn wir unsere Ziele vollständig und richtig aufschreiben, denn wenn wir die falschen Ziele in die Maschine einführen und sie intelligenter ist als wir, verlieren wir.
Bis vor kurzem haben wir die potentiell schwerwiegenden Folgen von schlecht konstruierten Objektiven nur deshalb vollständig vermieden, weil unsere KI-Technologie nicht besonders intelligent war und sich meist auf das Experiment beschränkte. Jetzt jedoch sind selbst die relativ einfachen Lernalgorithmen für Social Media, die Klicks durch Manipulation menschlicher Präferenzen optimieren, für demokratische Systeme katastrophal, weil sie in der realen Welt so weit verbreitet sind.
Die Auswirkungen von superintelligenten Algorithmen, die auf globaler Ebene arbeiten, könnten noch gravierender sein. Was wäre, wenn ein superintelligentes Klimasteuerungssystem, das beispielsweise die Aufgabe hat, die Kohlendioxidkonzentration wieder auf das vorindustrielle Niveau zu bringen, glaubt, dass die Lösung darin besteht, die menschliche Bevölkerung auf den Nullpunkt zu reduzieren?
Einige KI-Forscher behaupten gerne, dass „wir sie immer einfach abschalten können“ – aber das macht meiner Meinung nach nicht mehr Sinn, als zu argumentieren, dass wir immer einfach bessere Züge ausführen können als das übermenschliche Schach- oder Go-Programm, mit dem wir es zu tun haben. Die Maschine wird alle möglichen Arten vorhersehen, in denen ein Mensch sich einmischen könnte, und vorbeugende Schritte unternehmen, um dies zu verhindern. Die logische Lösung ist also, die Art und Weise zu ändern, wie wir über KI denken. Anstatt Maschinen zu bauen, die existieren, um ihre Ziele zu erreichen, brauchen wir meiner Meinung nach ein Modell, das eher so aussieht:
„Maschinen sind in dem Maße vorteilhaft, in dem man erwarten kann, dass ihre Handlungen unsere Ziele erreichen.“ Dieser Ansatz mag klein erscheinen, aber er ist meiner Meinung nach entscheidend. Maschinen, die unsere Ziele als einziges Leitprinzip haben, werden notwendigerweise unsicher sein, was diese Ziele sind, denn sie sind in uns – alle acht Milliarden von uns, in all unserer glorreichen Vielfalt, und in noch ungeborenen Generationen – nicht in den Maschinen.
Unsicherheit über die Ziele mag zwar kontraproduktiv klingen, ist aber eigentlich ein wesentliches Merkmal sicherer intelligenter Systeme. Sie impliziert, dass sich Maschinen, egal wie intelligent sie werden, immer dem Menschen unterwerfen werden. Sie werden um Erlaubnis bitten, wenn es angebracht ist, sie werden Korrekturen akzeptieren, und, was am wichtigsten ist, sie werden sich abschalten lassen – gerade weil sie vermeiden wollen, das zu tun, was auch immer es ist, das den Menschen einen Grund geben würde, sie abzuschalten.
Sobald sich der Fokus vom Konstruieren „intelligenter“ auf „nutzbringende“ Maschinen verlagert, wird deren Steuerung wesentlich einfacher. Betrachten Sie es als den Unterschied zwischen Atomkraft und Atomexplosionen: Eine Atomexplosion ist Atomkraft in unkontrollierter Form, und wir bevorzugen die kontrollierte Form.
Natürlich erfordert die Umsetzung eines solchen Modells in die Praxis viel Forschungsaufwand. Wir brauchen „minimal-invasive“ Algorithmen für die Entscheidungsfindung, die verhindern, dass sich Maschinen mit Teilen der Welt anlegen, deren Wert sie sich nicht sicher sind, sowie Maschinen, die mehr über unsere wahren, zugrunde liegenden Präferenzen für die Entwicklung der Zukunft erfahren. Solche Maschinen werden dann mit einem uralten Problem der Moralphilosophie konfrontiert: wie man Nutzen und Kosten zwischen verschiedenen Individuen mit widersprüchlichen Wünschen aufteilt.
All dies könnte ein Jahrzehnt dauern – und selbst dann werden Vorschriften erforderlich sein, um sicherzustellen, dass wahrscheinlich sichere Systeme eingeführt werden, während die nicht konformen in den Ruhestand gehen. Dies wird natürlich nicht einfach sein. Aber für mich ist klar, dass dieses Modell vorhanden sein muss, bevor die Fähigkeiten der KI-Systeme die der Menschen in den wichtigen Bereichen übersteigen. Wenn uns das gelingt, wird das Ergebnis eine neue Beziehung zwischen Mensch und Maschine sein, die uns hoffentlich in die Lage versetzt, die nächsten Jahrzehnte erfolgreich zu navigieren. Wenn wir scheitern, könnten wir vor einer schwierigen Wahl stehen: die KI-Forschung zu beschränken und auf die enormen Vorteile zu verzichten, die sich daraus ergeben, oder zu riskieren, die Kontrolle über unsere eigene Zukunft zu verlieren.
Einige Skeptiker in der KI-Gemeinschaft glauben, dass sie eine dritte Option sehen: mit den Geschäften wie gewohnt weiterzumachen, denn superintelligente Maschinen werden nie ankommen. Aber das ist so, als ob ein Busfahrer mit allen Fahrgästen der Menschheit sagen würde: „Ja, ich fahre so schnell wie möglich auf eine Klippe zu, aber glauben Sie mir, das Benzin geht uns noch vor der Ankunft aus!“ Ich möchte das Risiko lieber nicht eingehen.