KI-Singularität: Die große Verschmelzung

Der Futurist und KI-Prophet Ray Kurzweil sagt voraus, dass Computer schon bald menschliche Intelligenz erreichen. Danach sollen sie mit dem Menschen zu einer unsterblichen Super-Intelligenz verschmelzen. Andere KI-Forscher sind deutlich skeptischer – obwohl GPT-4 gerade beim Turing-Test geglänzt hat.

Ende Juni 2024 saß der Erfinder und Visionär Ray Kurzweil an einem Fenster des Bostoner Four-Seasons-Hotels und hielt ein Blatt Papier hoch. Darauf zeigte er einem Reporter der New York Times eine steile Wachstumskurve: Wie viel Rechenkraft konnte man 1938 für einen Dollar erwerben, und wie viel vorgestern?

Die neongrüne Kurve in seiner Hand sollte unterstreichen, warum der 76-Jährige gerade ein neues Buch herausgebracht hat: „The Singularity Is Nearer“ ist der Nachfolger von „The Singularity Is Near“, seinem Bestseller von 2005. Die technologische Singularität, zu Deutsch „Einzigartigkeit“, steht für einen möglichen Zeitpunkt in der Zukunft, an dem Künstliche Intelligenz (KI) die menschliche Intelligenz übertrifft und sich dann rasant selbst weiterentwickelt.

Ray Kurzweil, Porsche Engineering, 2024, Porsche AG
Ray Kurzweil

Dadurch würde, so die Annahme, der technische Fortschritt unaufhaltbar und nicht mehr vom Menschen gesteuert werden. Kurzweil geht dabei einen Schritt weiter und stellt sich einen Moment vor, in dem wir unsere Gehirne mit virtuellen Neuronen in der Cloud erweitern und so „mit KI verschmelzen und uns mit der millionenfachen Rechenleistung unserer ursprünglichen Biologie selbst verbessern“. Kurzweils Glaube an die Singularität basiert auf dem, was seine grüne Grafik ausdrückt. Sie ähnelt der exponentiellen Wachstumskurve der Rechenleistung von Computerchips, die „Moore’s Law“ 1965 vorhergesagt hatte.

Kurzweil macht daraus das „Gesetz der sich beschleunigenden Erträge“. Es postuliert, dass technologische Entwicklungen Rückkopplungsschleifen erzeugen, die Innovationen auch in anderen Bereichen beschleunigen. Diese Entwicklung habe rasant zugenommen, seitdem er 2005 sein erstes Singularitäts-Buch herausbrachte: „Für einen Dollar bekommt man heute rund 11.200-mal mehr Computerleistung“, rechnet er vor. Das führe zu enormen Sprüngen in Bio- und Nanotechnologie.

Und natürlich bei Computern selbst: Kognitionswissenschaftlerinnen und -wissenschaftler der University of California haben jüngst in einem Test knapp 500 Teilnehmende mit echten Menschen und verschiedenen großen Sprachmodellen chatten lassen. Dabei hielten 54 Prozent der Probandinnen und Probanden das KI-Modell GPT-4 für einen Menschen. Damit hat laut den Forscherinnen und Forschern erstmals eine Maschine den Turing-Test bestanden.

Kann ein Computer wie ein Mensch denken?

1950 hatte der Informatik-Pionier Alan Turing vorgeschlagen, anhand eines „Imitationsspiels“ zu messen, ob ein Computer ähnlich wie ein Mensch denken kann. Sobald eine Maschine diesen Test bestünde, könne man von maschineller (Künstlicher) Intelligenz ausgehen. Turing rechnete damit für das Jahr 2000, am Ende geschah es im Juni 2024. In naher Zukunft werden Sprachmodelle dem Menschen also immer ähnlicher. Die kalifornischen Kognitionsforscherinnen und -forscher warnten umgehend, solche Bots würden „weitreichende wirtschaftliche und soziale Folgen haben“. Mit dieser Warnung sind sie nicht allein.

Bereits im März 2023 hatten mehr als 1.000 Expertinnen und Experten aus Technologie und Forschung eine sechsmonatige Entwicklungspause für KI-Modelle gefordert. Statt Programme so rasant weiterzuentwickeln, dass selbst ihre Entwicklerinnen und Entwickler sie nicht mehr verstehen oder kontrollieren könnten, brauche es zunächst neue Sicherheitsstandards. Auch wenn es weiterhin an konkreten Maßnahmen fehlt, war die Debatte damit eröffnet. Kurzweil hatte mit seinen Aussagen zur Singularität offenbar einen Nerv getroffen: Die Entwicklung Künstlicher Intelligenz schreitet inzwischen so schnell voran, dass die Folgen kaum mehr absehbar sind.

Schwache und starke KI

Allerdings kommt es hier sehr aufs Detail an. „Es gibt zwei Arten von KI: schwache KI als individuelle Fähigkeit – etwa zum Chatten, Schachspielen oder Autofahren – und starke KI im Sinne einer Artificial General Intelligence (AGI), die mit menschenähnlicher Kreativität Probleme löst, für die sie nicht speziell programmiert wurde“, erläutert Raúl Rojas. Der Informatikprofessor hat lange an der FU Berlin zu neuronalen Netzen, Robotern und selbstfahrenden Autos geforscht und lehrt heute Mathematik an der University of Nevada. Tatsächlich habe es in den letzten 20 Jahren große Fortschritte bei der schwachen KI gegeben, die den Menschen bei vielen individuellen Aufgaben längst übertreffe.

Den Übergang zu einer AGI oder Superintelligenz sieht Rojas jedoch noch in weiter Ferne: „Kurzweils Verschmelzung von Hirn und KI ist pure Science-Fiction.“ Und der Soziologe Thomas Wagner wirft ein: „Unter Singularität kann man Verschiedenes verstehen. Für Kurzweil ist der Unsterblichkeitsgedanke sehr wichtig, verbunden mit der Idee, dass der Mensch körperlich mit KI verschmilzt und ein neues Superwesen entsteht.“ Selbst wenn es noch keine Mensch-Maschine- Kombinationen sein sollten: „Denkende Computer“ könnten schon in den nächsten zwei bis drei Jahren Realität werden, prognostiziert Simon Hegelich.

Der Political Data Scientist von der TU München forscht selbst an einer eigenen Allgemeinen KI. „Leider sind wir auf diesen Bruch in der Menschheitsgeschichte kein Stück vorbereitet“, warnt Hegelich. Kurzweils Singularitätsthese ist für ihn so spannend wie widersprüchlich. Vor allem, weil niemand im Silicon Valley genau wisse, wie eine Super-KI samt Bewusstsein überhaupt entstehen könnte. „Man geht davon aus, dass man nur immer mehr Daten füttern muss, und die AGI dann plötzlich durch einen magischen Funken von selbst entsteht – das halte ich für falsch.“ Da führe auch ein bestandener Turing-Test nicht weiter: „Einen Computer so zu programmieren, dass er den Menschen austrickst, ist schließlich keine echte Intelligenz. Wissen besteht nicht nur aus Daten und Lernen nicht bloß aus Algorithmen. Bekanntlich denken und entscheiden Menschen ja auch nicht binär in Nullen und Einsen, sondern oft genug widersprüchlich.“

Die schnelle Entwicklung der KI wirft weiterhin Fragen auf

Der Politologe Hegelich bezieht sich gern auf den Philosophen Georg Wilhelm Friedrich Hegel. Dieser hatte vor rund 200 Jahren in seiner Dialektik das Prinzip des durchzuhaltenden Widerspruchs formuliert. Beispielsweise kann ein Mensch einen anderen Menschen gleichzeitig hassen und lieben. Eine echte und damit auch ethische Super-Intelligenz müsste demnach so ähnlich „aufwachsen“ wie ein Menschenkind: „Jedes Baby hat die Veranlagung, intelligent zu sein.“ Hegelich zufolge müsste man daher einen Computer bauen, der von seinem grundlegenden Algorithmus – seiner „Veranlagung“ her – intelligent ist.

Eine solche AGI würde automatisch selbst lernen und auch neues Wissen produzieren, statt nur bekanntes Wissen neu zu kombinieren. Sie würde eine Art Bewusstsein entwickeln, die dem biologischer Lebensformen ähnelt. Ob diese Form der Singularität jemals verwirklicht wird, bleibt offen. Sicher ist: Die schnelle Entwicklung der KI wirft weiterhin viele Fragen auf, die wir Menschen zu beantworten haben.

Info

Text erstmals erschienen im Porsche Engineering Magazin, Ausgabe 2/2024.

Text: Hilmar Poganatz

Copyright: Alle in diesem Artikel veröffentlichten Bilder, Videos und Audio-Dateien unterliegen dem Copyright. Eine Reproduktion oder Wiedergabe des Ganzen oder von Teilen ist ohne die schriftliche Genehmigung der Dr. Ing. h.c. F. Porsche AG nicht gestattet. Bitte kontaktieren Sie newsroom@porsche.com für weitere Informationen.

Related Content