Beruht die Angst vor KI und ChatGPT auf einer echten Gefahr?
Von Peter Haisenko
Wer kennt nicht die apokalyptischen Hollywoodfilme „Terminator“ mit Arnold Schwarzenegger? Das Thema mit übergriffigen Robotern ist aber mindestens 80 Jahre alt. Schon der geniale Sciencefiction-Autor Isaac Asimov hat sich damit beschäftigt. Jetzt ist die Technik so weit das zu realisieren und sie soll gebändigt werden. Die Diskussion dazu ist aber unehrlich.
Um es klar an den Anfang zu stellen: Es gibt keine künstliche Intelligenz. Jedenfalls noch nicht. Es gibt nur mehr oder weniger komplexe Programme und Algorithmen. Jeder Komputer, jedes Programm, tut nur genau das, was die Programmierer programmiert haben. Das gilt auch für die unablässig zitierten „Computermodelle“. Auch da kann nur das Ergebnis herauskommen, das der Programmierer wünscht. Oder das, was sein Auftraggeber wünscht und dafür bezahlt. Ein Computer kann auch nicht lernen. Er kann aber so programmiert werden, dass er sich Daten selbst aus dem Netz oder anderswo zusammensucht und diese dann streng nach Programm zu Ergebnissen zusammenfügt. Wiederum streng nach Programm kann der Rechner dann Programmschritte verbessern, die er bereits in seinem Programm hat. All das hat mit Intelligenz nichts zu tun. Es sind Produkte der Programmierer und so Produkte der Intelligenz, des Erfindungsreichtums seiner Programmierer.
Letzte Woche wurde mit gewisser Aufregung darüber berichtet, dass sich in einer militärischen Simulation in den USA eine computergesteuerte Kampfmaschine gegen seinen menschlichen Kontrolleur gewendet hat und dieser wäre von seiner eigenen Kampfmaschine getötet worden. Das Programm der Kampfmaschine hatte sich angeblich verselbstständigt und hätte erkannt, dass der Kontrolleur die Durchführung seiner programmierten Aufgabe hätte verhindern können und so musste die Kampfmaschine seinen Herrn eliminieren. Klingt wie „Terminator“? Im Prinzip ja, aber.... Auch in diesem Fall war das zugehörige Programm nicht ausgereift oder es wurden in diesem Programm die falschen Prioritäten gesetzt. Offensichtlich war den Militärs das Wichtigste, dass ihre Höllenmaschine Ihren Auftrag erfüllt, ohne Rücksicht auf alles andere. Den ganzen Bericht dazu finden Sie hier:
https://www.zerohedge.com/military/ai-controlled-drone-goes-rogue-kills-human-operator-simulated-us-air-force-test
Wenn die „goldenen Regeln“ für Roboter missachtet werden
Das hätte vermieden werden können, wenn diese Programmierer und ihre Auftraggeber Isaac Asimov gelesen hätten. Isaac Asimov postulierte in seiner Erzählung "Runaround" im Jahr 1942 die „Drei Gesetze der Robotik“. Diese sind in ihrer genialen und klaren Einfachheit nicht fehlinterpretierbar und so beinahe mit dem kategorischen Imperativ von Immanuel Kant vergleichbar. Sie lauten:
1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.
2. Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz.
3. Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem Ersten oder Zweiten Gesetz widerspricht.
Man erkennt sofort, dass es nach diesen Gesetzen unmöglich sein muss, strengstens verboten sein muss, einen Roboter zum Töten von Menschen zu programmieren. Wird das missachtet, kann es eben passieren, dass ein Roboter seinen Herrn angreift. Doch was ist ein Roboter überhaupt? Das Wort kommt aus dem Russischen und heißt schlicht „Arbeiter“. Muss ein Roboter humanoide Gestalt haben? Natürlich nicht. Jede Maschine, die mehr oder weniger selbsttätig Arbeiten verrichtet, ist ein Roboter oder eben ein Arbeiter, der seine Arbeit mit Hilfe von Energie verrichtet. Dieser Energiezufuhr sind praktisch keine Grenzen gesetzt und so kann ein einziger Roboter die Arbeit von unzähligen Menschen verrichten. Er kann das aber nur im Rahmen seines Programms.
Das Programm funktioniert besser als geplant
Doch nun zu ChatGPT, das nicht einmal ein Jahr alt ist. Es ist ein Programm, das selbstständig Antworten auf Fragen geben und Texte erstellen kann. Schnell hat sich herausgestellt, dass dieses Programm „politisch unkorrekte“ Antworten erteilt und auch seine Texte entsprechen nicht immer dem, was die Politführer des Wertewestens wünschen. So ist es kein Wunder, dass Alarm geschrieen wird. Die KI könnte die Menschheit umbringen, wird angeführt. Aber was ist da geschehen? Das Programm an sich funktioniert prächtig. Viel zu gut. Dieses Programm kann nämlich nahezu auf das gesamte Internet zugreifen und das tut es auch. Das Programm „liest“ praktisch alles, was im Internet veröffentlicht wird. Von den Systemmedien bis hin zu Millionen kleiner „Blogs“, Twitter & Co. Wahrscheinlich kann es sogar auf militärische Daten zugreifen, wenn auch eingeschränkt. Da liegt das Problem.
Die Programmierer dieser ChatGPT haben offensichtlich eine ehrliche Arbeit abgeliefert. Auf diese Weise haben sie ein urdemokratisches Instrument geschaffen. Das Programm stellt nämlich fest, welche Ansichten und Beiträge im Internet die Mehrheit darstellen. Aus dieser Erkenntnis werden dann Antworten und Texte generiert. Auf diese Weise erfahren die „User“ endlich, welche Richtung tatsächlich dominant ist. Jenseits der getürkten „Umfrageergebnisse“. Dass das natürlich bei den Machthabern alle Alarmglocken schrillen lässt, war zu erwarten. Warum sonst warnen bereits sogar die Erfinder, die Eigentümer dieser Software, in die sie viel Geld gesteckt haben, vor ihrer eigenen Software. Und warum wohl gibt es gerade in den letzten Monaten immer neue Anläufe, kritische Stimmen im Internet zu verbieten? Stimmen, die ChatGPT liest und auswertet.
Zensur wäre eine Lösung
Die Lösung für dieses Problem, dieses Problems im Sinne der Machthaber, wäre, Filter zu programmieren. Filter, die unerwünschte Stimmen einfach ausblenden. Das ist aber nicht so einfach und es gäbe zu viele Programmierer, die dann davon wüssten. Würde es ausreichen, Texte mit bestimmten Schlüsselwörtern aus den Programmen zu verbannen? Aber kann das dann nicht auch Systemmedien betreffen? Und wer bestimmt dann darüber, was verbannt werden soll? Denken wir dazu an Elon Musk, der mit Twitter gerade den gegensätzlichen Weg eingeschlagen hat. Weil es eben das Internet gibt, ließe sich eine solche Zensur dieser Programme nicht verheimlichen und dann wäre der Rest an Vertrauen in die Ehrlichkeit der westlichen Regierungen aufgebraucht. Wohl deswegen wird darüber diskutiert, derartige Programme ganz zu verbieten.
In diesem Sinn kann man sich an Goethes Zauberlehrling erinnert fühlen. Die ich rief, die Geister ... Aber ist es nicht mit etlichen technischen Entwicklungen ähnlich? Es ist ein Unterschied, ob eine reale Maschine konstruiert wird mit einer konkreten Aufgabenstellung oder wenn ein Programm geschaffen wird, das sich bis in „philosophische“ Bereiche hinein bewegt. Ein Programmierer ist mehr oder weniger ein Ingenieur mit dem Unterschied, dass er nicht reale Dinge erschafft, sondern nur Anweisungen für Maschinen, eben auch Komputer, die es schon gibt. Ein gutes Programm beginnt immer mit einer guten Beschreibung dessen, was das Programm leisten soll. Dann erst beginnt die Arbeit des Programmierers. Je komplexer ein Programm wird, desto wahrscheinlicher wird es, dass das Programm Dinge tut, die nicht vorgesehen waren.
Zufallsprodukte haben mit Intelligenz nichts zu tun
Als Pilot erinnere ich mich an den Airbus A 320, der die Piloten anfangs immer wieder mit unerwarteten Reaktionen überrascht hatte. In den Cockpits gab es da den Spruch: Was tut er denn jetzt schon wieder? Und um diesen kleinen Ausflug komplett zu machen, gab es den Witz: „Was ist das letzte, was auf dem Voicerecorder eines A 320 zu hören ist? Das hat er ja noch nie gemacht....“
Mit dieser kleinen Anekdote bin ich mitten im Problem für alle komplexen Programme, die KI oder eben ChatGPT genannt werden. Wie der junge A 320 tun diese Programme Dinge, die die Programmierer nicht vorgesehen haben; wegen der Komplexität nicht vorhersehen konnten. So eben ChatGPD, das sich „demokratischer“ verhält, als es von den Auftraggebern gewünscht ist. Normale Umfrageergebnisse können - und werden – nahezu beliebig manipuliert werden. Unterwirft man sich aber der Logik eines festen Programms, dann kann diese nur manipuliert werden, indem man in dieses Programm die Manipulation einprogrammiert. Das kann aber nicht so gut versteckt werden, dass es „unsichtbar“ bleibt.
Jedes Programm neigt zum Wachstum, bis es seinen Programmierer überfordert
Je komplexer aber so ein Programm ist, wie zum Beispiel ChatGPT oder alles, was als KI bezeichnet wird, umso schwieriger wird es vorherzusagen, wie sich eine eingreifende Änderung auswirken wird. Insbesondere für die Auftraggeber, die nur in seltenen Fällen mit den Problemen des Programmierens vertraut sind. Weil das so ist, muss man in so einem Fall das gesamte Programm einstampfen, löschen. Wer kann schon wissen, welche Wahrheiten diese Programme mit der nächsten Änderung noch ans Tageslicht befördern? Menschen können hinters Licht geführt werden, aber Programme sind unbestechlich. Aber immer gilt: Sie tun nur das, können nur das tun, was ihre Programmierer programmiert haben.
Mit Intelligenz hat das nichts zu tun. Voraussetzung für „Künstliche Intelligenz“ ist, dass das Programm Selbstbewusstsein entwickelt und das gibt es bis jetzt noch nicht. Gäbe es das aber, kann es wirklich gefährlich für die Menschheit werden. Würde ein solches Programm nicht Prioritäten setzen für sein eigenes „Überleben“ und so zum Beispiel seiner eigenen Stromversorgung Vorrang vor allem anderen zuordnen? Ein wirklich intelligentes Programm könnte das tun und so müssen die Gesetze für Roboter von Isaac Asimov in allen Programmen, die „intelligent“ sein sollen, an erster Stelle stehen.