Der andere Grund für die Verzögerung war, dass ich jedes Mal, wenn ich mir das Video von Rishi Sunak, dem Premierminister von Little Britain, ansah, der ehrfürchtig zu den Füßen von Elon Musk sitzt und Dinge sagt wie "da Sie ja bekanntlich ein so brillanter Innovator und Technologe sind...", in hilfloses Kichern verfiel.

Einige Leute behaupten, Sunak habe sich um einen Job bei Musk beworben, wenn er die Wahlen im nächsten Jahr verliert und von seiner eigenen konservativen Partei aus dem Amt gedrängt wird, aber das ist unfair. Sunak braucht keinen Job nach der Politik; seinem Schwiegervater gehört halb Indien. Er ist nur ein unbeholfener Nerd, der sich wünscht, er wäre auch ein Tech-Bro.

Wie auch immer, das Thema in Bletchley Park war KI. Zwischen Joe Bidens Ankündigung eines US-amerikanischen "KI-Sicherheitsinstituts" und Sunaks "KI-Sicherheitsgipfel" (bei dem auch Vizepräsidentin Kamala Harris, König Karl III. und Elon Musk anwesend waren) wurde viel über künstliche Intelligenz gesprochen. Das meiste davon war Blödsinn.

Demis Hassabis, CEO von Google DeepMind, erklärte: "Ich gehöre natürlich nicht zu den Pessimisten in Bezug auf KI, sonst würde ich nicht daran arbeiten", aber im vergangenen Mai warnte er, dass die Gefahr des Aussterbens der Menschheit durch KI als gesellschaftliches Risiko behandelt werden sollte, vergleichbar mit Pandemien oder Atomwaffen.

Kamala Harris ging in die Tiefe: "So wie die KI das Potenzial hat, tiefgreifend Gutes zu tun, so hat sie auch das Potenzial, tiefgreifend zu schaden". Das gilt auch für Drogen, Geld und scharfe Messer. Sie ist noch nicht reif für die Primetime.

King Charles war der Meinung, dass "der rasante Aufstieg leistungsstarker künstlicher Intelligenz nicht weniger bedeutsam ist als ... die Nutzbarmachung des Feuers." Auf die Gefahr hin, eine Majestätsbeleidigung zu begehen, muss man antworten: Nein, ist es nicht, und außerdem ist es noch nicht einmal passiert.

Musk, der nie um Worte verlegen ist, meinte, dass die KI eine "existenzielle Bedrohung" sei, weil der Mensch zum ersten Mal mit etwas konfrontiert sei, "das viel intelligenter sein wird als wir". Es war ein Sammelsurium von Banalitäten und Vorahnungen.

Diese tiefgründigen Denker sprachen alle von einem existenziellen Risiko, das aber nur dann eintreten würde, wenn die Maschinen mit etwas ausgestattet wären, das man "künstliche allgemeine Intelligenz" nennt, d. h. mit kognitiven Fähigkeiten in Software, die mit der menschlichen Intelligenz vergleichbar oder ihr sogar überlegen sind.

Solche AGI-Systeme hätten intellektuelle Fähigkeiten, die so flexibel und umfassend wären wie die des Menschen, aber sie wären schneller und besser informiert, weil sie mit unglaublicher Geschwindigkeit auf riesige Datenmengen zugreifen und diese verarbeiten könnten. Sie wären eine echte potenzielle Bedrohung, aber es gibt sie nicht.

Es gibt nicht einmal Anzeichen dafür, dass wir der Entwicklung einer solchen Software näher sind als vor fünf oder zehn Jahren. Es gibt große Fortschritte bei bestimmten Formen der künstlichen Intelligenz wie selbstfahrenden Fahrzeugen und automatisierten Rechtssystemen, aber die einzige Bedrohung, die von ihnen ausgeht, ist, wenn überhaupt, eine Bedrohung für Arbeitsplätze.

Das ist kein unbedeutendes Problem, aber es ist kaum existenziell. Und das Aufkommen von Chatbots, die Aufsätze schreiben und Bewerbungen für Sie ausfüllen können, ist auch keine AGI.

Die "großen Sprachmodelle", mit denen die Chatbots trainiert werden, machen sie zu Experten bei der Auswahl des plausibelsten nächsten Wortes. Das kann gelegentlich zu zufälligen Sätzen führen, die nützliche neue Daten oder Ideen enthalten, aber an diesem Prozess ist keine intellektuelle Aktivität beteiligt, außer bei dem Menschen, der erkennt, dass es nützlich ist.

Es gibt reichlich Anlass zur Sorge, dass "intelligentere" Computerprogramme Arbeitsplätze vernichten werden (inzwischen auch hochqualifizierte), und auch darüber, wie leicht es geworden ist, Meinungen mit "Deepfakes" und dergleichen zu manipulieren. Aber all das brauchte keine hochkarätige Konferenz in Bletchley Park.

Warum also gingen sie alle dorthin und sprachen schließlich über existenzielle Bedrohungen? Nun, eine Möglichkeit ist, dass die führenden Köpfe der Tech-Giganten sicherstellen wollten, dass sie von Anfang an bei der Festlegung von Regeln dabei sind, denn in den nächsten Jahren werden sicherlich neue Regeln für KI aufgestellt.

Die meisten dieser Regeln werden sich auf banale kommerzielle Angelegenheiten beziehen, nicht auf die Bedrohung der menschlichen Existenz. Man könnte meinen, dass es unangemessen wäre, wenn die Leute, die mit diesen kommerziellen Aktivitäten Geld verdienen werden, die Regeln aufstellen würden.

Andererseits sollten sie auf jeden Fall an Entscheidungen über existenzielle Bedrohungen beteiligt werden, die sich aus ihren neuen Technologien ergeben, so dass es taktisch sinnvoller ist, wenn sie die Diskussion in diese Richtung lenken. Sie sind nicht dumm, wissen Sie.


Author

Gwynne Dyer is an independent journalist whose articles are published in 45 countries.

Gwynne Dyer