Pessimismus ist deshalb aber nicht angesagt, meint der Zukunftswissenschaftler Nick Bostrom von der Universität Oxford in einem science.ORF.at-Interview bei den Alpbacher Technologiegesprächen.
Viel eher gehe es darum, mit kühlem Verstand zu verhindern, dass eine zukünftige Superintelligenz aus uns Menschen z.B. Büroklammern macht.

Milenko Badzic
Nick Bostrom ist Direktor des Future of Humanity Institute an der Universität Oxford
Technologiegespräche in Alpbach:
Von 23. bis 25. August finden im Rahmen des Europäischen Forums Alpbach die Technologiegespräche statt, organisiert vom Austrian Institute of Technology (AIT) und der Ö1-Wissenschaftsredaktion. Das Thema heuer lautet "Globale Zukunft - Erwartungen an Wissenschaft und Technologie". Dazu diskutieren Minister, Nobelpreisträger, internationale Experten und Expertinnen u.a.
Links:
Ö1 Hinweise:
Eine Reihe von Sendungen begleitet das Europäische Forum Alpbach 2012 in Ö1. Die Technologiegespräche stehen im Mittelpunkt von Beiträgen in den Journalen, in Wissen aktuell, in den Dimensionen und bei der Kinderuni.
Mitglieder des Ö1 Club erhalten beim Europäischen Forum Alpbach eine Ermäßigung von zehn Prozent.
science.ORF.at: Halten Sie sich für einen Optimisten?
Teile meiner Arbeit beschäftigen sich mit der Gefahr, dass die Menschheit ausgelöscht wird. Manche Leute halten mich deshalb für einen Pessimisten. Darauf habe ich zwei Antworten. Erstens beschäftige ich mich auch mit anderen Dingen. Und zweitens muss man kein Pessimist sein, wenn man Dinge behandelt, die schiefgehen könnten. Viele Forscher beschäftigen sich mit Krieg, Krebs oder Herzleiden, und das heißt nicht, dass sie alle depressiv sind.
Letztlich beschäftige ich mich mit existenziellen Risiken aus einer Art Optimismus heraus. Wenn sich die Dinge in Zukunft gut entwickeln, dann werden sie sich enorm gut entwickeln. Es ist die Gefahr, dieses riesige Versprechen für die Menschheit zu brechen, die mein Interesse an dem Thema antreibt.
Sie glauben also nicht an ein Ende der Welt, wie es einige Interpreten des Maya-Kalenders noch heuer erwarten?
In diesem Sinne nicht. Meine Zukunftserwartung hat etwas von einer bipolaren Störung: Je weiter wir in die Zukunft schauen, desto größer ist die Wahrscheinlichkeit, dass die Dinge entweder deutlich besser oder deutlich schlechter sein werden. In 150 Jahren könnten wir ausgestorben sein oder es könnte uns wirklich gut gehen.
Aber gleichgültig welches Risiko die Menschheit existenziell bedrohen sollte: Wird unsere Generation davon betroffen sein?
Ich denke, dass die größten Gefahren noch ein wenig in der Zukunft liegen und von technologischen Entwicklungen ausgehen werden. Es ist unwahrscheinlich, dass die Menschheit in den nächsten 100 Jahren von Naturgefahren bedroht sein wird. Wir leben nun schon seit geraumer Zeit auf diesem Planeten, haben Erdbeben, Vulkanausbrüche und Pandemien hunderttausende von Jahren überlebt. Das wird sich in den nächsten 100 Jahren kaum ändern.
Auf der anderen Seite wird die Menschheit in diesem Zeitraum aber bisher unbekannte Risiken hervorbringen: etwa neue Formen von Künstlicher Intelligenz, von Nanotechnologie oder synthetischer Biologie. Vielleicht stammen sie auch aus Bereichen, an die wir heute gar nicht denken.
Sie haben eine Rangliste der Menschheitsbedrohungen aufgestellt. Worauf basiert sie?
Die Wahrscheinlichkeit einiger Risiken kann man wissenschaftlich fundiert einschätzen. Wir können z.B. aus vergangenen Ereignissen und durch Beobachtung mit Teleskopen das Risiko von Meteoriteneinschlägen auf der Erde berechnen - ein sehr kleines Risiko. Wenn wir über Kriege mit neuen Massenvernichtungswaffen nachdenken, ist es natürlich viel schwieriger, das zu quantifizieren. Aber das heißt nicht, dass man das nicht einkalkulieren sollte.
Man kann in manchen Fällen auf Simulationen zurückgreifen; zeigen, wie stabil molekulare Systeme sind; aus den Gesetzen der Physik ableiten, wo die Grenzen verschiedener Technologien liegen. Auf Basis von alldem kann man Wahrscheinlichkeiten für das Eintreten bestimmter Szenarien aufstellen, die natürlich nicht exakt sind, sondern immer auch subjektiv.
Ihr Risikoranking listet größtenteils technologische Gefahren auf, aber nicht solche, die in der "menschlichen Natur" liegen, wie es manche nennen. Warum haben Sie nicht Eigenschaften wie Gier oder Eitelkeit gerankt?
Die menschliche Natur kennen wir seit Zehntausenden von Jahren. Königreiche sind entstanden und wieder untergegangen, es gab Revolutionen und Friedensschlüsse, all das ist immer und immer wieder geschehen. Sollten wir in den nächsten 100 Jahren aussterben, muss etwas radikal Neues passieren. Und das könnte in den Technologien liegen, die die grundlegenden Parameter der conditio humana verändern. Etwa wenn eine neue Kategorie von Waffen erfunden wird.
Also alles eine Frage der Technologie?
Nicht unbedingt. Es gibt einige eminente Gefahren, die nicht unbedingt zur Ausrottung der Menschheit führen müssen, aber unsere Zukunft dennoch für immer zerstören - was ich auch als existenzielles Risiko bezeichne.
Was zum Beispiel?
Ein weltweiter totalitärer Staat, der die Menschen überall unterdrückt so wie heute in Nordkorea. Das scheint zwar unwahrscheinlich, wenn man sich die Geschichte ansieht, weil jede Tyrannei in der Vergangenheit irgendwann gestürzt wurde. Aber die Technologien könnten das ändern.
Neue Überwachungsmöglichkeiten, Lügendetektoren oder Gehirnmanipulationen könnten es Tyrannen erlauben, zu einem sehr viel früheren Zeitpunkt als bisher Dissidenten zu eliminieren oder ihre Organisation zu verhindern. Auch hier ist es wieder die Technologie, die die Regeln des Spiels grundlegend ändern könnte.

Milenko Badzic
Ideen oder Ideologien, die wir bereits kennen, sind für Sie keine existenziellen Risiken?
Sie könnten zu ihnen beitragen. Die Technologie an sich ist ja nicht aktiv, sie braucht jemanden, der z.B. eine Waffe entwickelt und sie dann einsetzt. Es bedarf also Bösartigkeit oder anderer menschlicher Eigenschaften, entscheidend für existenzielle Risiken ist aber die Technologie.
Es ist zwar nicht ganz ausgeschlossen, dass ein attraktive Ideologie oder Religion, vielleicht vorgetragen durch eine besonders charismatische Person, einen Großteil der Menschheit hinter sich schart und die Regeln des Spiels grundlegend verändert. Das ist aber bisher nicht geschehen, und so halte ich es auch hier für wahrscheinlicher, dass es die Technologie ist, die die "menschliche Natur" verändert - etwa durch Genmanipulation oder neue Medikamente.
Als größte Gefahr erachten Sie eine Art neuer Superintelligenz, die sich gegen ihre Entwickler richten könnte. Bis jetzt hat die Künstliche Intelligenz noch nicht jene Resultate erzielt, die sich ihre Erfinder in den 1950er Jahren erträumt haben. Warum sollte sich das nun ändern?
Die technischen Probleme, eine allgemein intelligente Maschine zu bauen, sind wirklich enorm; sie sind viel größer, als die Pioniere gedacht hatten. Letztlich wissen wir aber, dass es prinzipiell möglich ist, denn es gibt einen Beweis dafür: das menschliche Gehirn, das ein physisches System ist.
Es ist zwar höchst komplex, aber wir lernen immer besser, wie es funktioniert und eines Tages werden wir es durchschauen. Vielleicht kann eine Künstliche Intelligenz ohne biologisches Vorbild sogar schneller hergestellt werden.
Sollten wir eine Maschine produzieren können, die an das Niveau menschlicher Intelligenz heranreicht, wird es nicht lange dauern, bis sich daraus eine Intelligenz entwickelt, die unsere eigene übersteigt - ich nenne das Superintelligenz. Das Erste wird viel länger dauern als das Zweite.
Worin sehen Sie das Problem dieser Superintelligenz?
In zwei Dingen. Erstens wird die Superintelligenz extrem mächtig sein, und zwar aus den gleichen Gründen, warum Menschen auf diesem Planeten so mächtig sind: nicht weil wir stärker sind als andere Tiere, sondern weil unsere Gehirne schlauer sind. Mit ihnen erfinden wir Werkzeuge, Technik, Strategien etc.
Die Superintelligenz könnte einen ähnlichen strategischen Vorteil gegenüber uns genießen und die Zukunft nach ihrem Willen gestalten. Zweitens: Diese Superintelligenz könnte eine Reihe von Nützlichkeitsfunktionen ausüben, die nicht mit einem Überleben der Menschheit kompatibel wären.
Nehmen wir an, diese Maschine kennt kein anderes Ziel, als Büroklammern herzustellen. Unser Körper besteht aus Atomen, und die könnte eine solche Maschine verwenden, um immer mehr Büroklammern zu produzieren. Es ist wohl äußerst schwierig, einer Superintelligenz menschenfreundliche Werte beizubringen.
Auch die Vertreter menschlicher Intelligenz folgen nicht gerade immer "menschenfreundlichen Werten" …
Aber wir haben menschliche Werte, auch wenn die mitunter in Konflikt geraten. Selbst wenn es einen einzigen weltweiten Diktator geben sollte, trägt der menschliche Züge, vielleicht hat er Familie oder Freunde, die er mag etc. Bei einer künstlichen Intelligenz liegt das nicht in ihrer Natur, es sei denn, sie ist darauf programmiert - genau darin liegt die schwierige Herausforderung.
Interview: Lukas Wieselberg, science.ORF.at
Weitere Beiträge zu den Technologiegesprächen 2012: