Der Kampf um eine „gefährliche“ Ideologie prägt die KI-Debatte
HeimHeim > Blog > Der Kampf um eine „gefährliche“ Ideologie prägt die KI-Debatte

Der Kampf um eine „gefährliche“ Ideologie prägt die KI-Debatte

Feb 15, 2024

Paris (AFP) – Die Lieblingsphilosophie des Silicon Valley, der Langfristismus, hat dazu beigetragen, die Debatte über künstliche Intelligenz rund um die Idee des Aussterbens der Menschheit auszurichten.

Ausgestellt am: 28.08.2023 – 11:13

Doch zunehmend lautstarke Kritiker warnen davor, dass die Philosophie gefährlich ist und dass die Obsession mit der Ausrottung von den tatsächlichen Problemen im Zusammenhang mit KI wie Datendiebstahl und voreingenommenen Algorithmen ablenkt.

Der Autor Emile Torres, ein ehemaliger Langzeitforscher und nun Kritiker der Bewegung, sagte gegenüber AFP, dass die Philosophie auf den Prinzipien beruhe, die in der Vergangenheit zur Rechtfertigung von Massenmord und Völkermord verwendet wurden.

Dennoch haben die Bewegung und damit verbundene Ideologien wie Transhumanismus und effektiver Altruismus großen Einfluss an Universitäten von Oxford bis Stanford und im gesamten Technologiesektor.

Risikokapitalgeber wie Peter Thiel und Marc Andreessen haben in Lebensverlängerungsunternehmen und andere Lieblingsprojekte investiert, die mit der Bewegung verbunden sind.

Elon Musk und Sam Altman von OpenAI haben offene Briefe unterzeichnet, in denen sie warnen, dass KI die Menschheit aussterben könnte – obwohl sie davon profitieren werden, wenn sie argumentieren, dass nur ihre Produkte uns retten können.

Letztendlich sagen Kritiker, dass diese Randbewegung viel zu großen Einfluss auf die öffentlichen Debatten über die Zukunft der Menschheit hat.

Langzeitforscher glauben, dass wir verpflichtet sind, zu versuchen, die besten Ergebnisse für die größtmögliche Anzahl von Menschen zu erzielen.

Das ist nicht anders als bei vielen Liberalen des 19. Jahrhunderts, aber Langzeitpolitiker haben einen viel längeren Zeithorizont vor Augen.

Sie blicken in die ferne Zukunft und sehen Billionen und Abermillionen Menschen durch den Weltraum schweben und neue Welten kolonisieren.

Sie argumentieren, dass wir jedem dieser zukünftigen Menschen die gleiche Pflicht schulden wie jedem heute lebenden Menschen.

Und weil es so viele davon gibt, haben sie ein viel größeres Gewicht als die heutigen Exemplare.

Diese Denkweise mache die Ideologie „wirklich gefährlich“, sagte Torres, Autor von „Human Extinction: A History of the Science and Ethics of Annihilation“.

„Jedes Mal, wenn man eine utopische Zukunftsvision hat, die von nahezu unendlichen Wertmengen geprägt ist, und diese mit einer Art utilitaristischen moralischen Denkens kombiniert, bei dem die Ziele die Mittel heiligen können, wird es gefährlich“, sagte Torres.

Wenn eine superintelligente Maschine zum Leben erwachen könnte, die das Potenzial hätte, die Menschheit zu zerstören, müssten sich Langzeitexperten ihr widersetzen, ganz gleich, was die Konsequenzen wären.

Auf die Frage eines Nutzers von Twitter, der Plattform, die heute als

„Solange das wahr ist, besteht immer noch eine Chance, eines Tages die Sterne zu erreichen“, schrieb er, löschte die Nachricht jedoch später.

Der Langfristismus entstand aus Arbeiten des schwedischen Philosophen Nick Bostrom in den 1990er und 2000er Jahren zu existenziellen Risiken und Transhumanismus – der Idee, dass Menschen durch Technologie bereichert werden können.

Der Wissenschaftler Timnit Gebru hat darauf hingewiesen, dass Transhumanismus von Anfang an mit Eugenik verbunden war.

Der britische Biologe Julian Huxley, der den Begriff Transhumanismus prägte, war in den 1950er und 1960er Jahren auch Präsident der British Eugenics Society.

„Langfristigkeit ist Eugenik unter einem anderen Namen“, schrieb Gebru letztes Jahr auf X.

Bostrom wird seit langem beschuldigt, die Eugenik zu unterstützen, nachdem er „dysgenetische Zwänge“ als existentielles Risiko aufgezählt hat, also weniger intelligente Menschen, die sich schneller fortpflanzen als ihre klügeren Kollegen.

Der Philosoph, der das Future of Humanity Institute an der Universität Oxford leitet, entschuldigte sich im Januar, nachdem er zugegeben hatte, in den 1990er Jahren rassistische Beiträge in einem Internetforum geschrieben zu haben.

„Unterstütze ich Eugenik? Nein, nicht so, wie der Begriff allgemein verstanden wird“, schrieb er in seiner Entschuldigung und wies darauf hin, dass sie zur Rechtfertigung „einiger der schrecklichsten Gräueltaten des letzten Jahrhunderts“ verwendet worden sei.

Trotz dieser Probleme werden Langzeitisten wie Yudkowsky, ein Schulabbrecher, der dafür bekannt ist, Harry-Potter-Fanfiction zu schreiben und Polyamorie zu fördern, weiterhin gefeiert.

Altman lobte ihn für die Finanzierung von OpenAI und schlug im Februar vor, dass er einen Friedensnobelpreis verdiene.

Aber Gebru, Torres und viele andere versuchen, sich wieder auf Schäden wie den Diebstahl von Künstlerwerken, Voreingenommenheit und die Konzentration von Vermögen in den Händen einiger weniger Unternehmen zu konzentrieren.

Torres, der das Pronomen „they“ verwendet, sagte, dass es zwar wahre Gläubige wie Yudkowsky gab, ein Großteil der Debatte über das Aussterben jedoch von Profit motiviert sei.

„Über das Aussterben der Menschheit zu sprechen, über ein echtes apokalyptisches Ereignis, bei dem jeder stirbt, ist viel aufsehenerregender und fesselnder als kenianische Arbeiter, die 1,32 Dollar pro Stunde bekommen, oder die Ausbeutung von Künstlern und Schriftstellern“, sagten sie.

© 2023 AFP