DAvideo
alle Bilder sehen ;)
Designed by: Hinx3
OSWD 2004

Valid HTML 4.01!

Forscher errechnen Auslöschungsrisiko für die Menschheit bis 2100

· 19.07.2023 · 11:00:19 ··· ··· Wednesday ·· 3 (3) FOCUS Online
#weltuntergang #menschheit #forschung

Eine Studie des amerikanischen Forecasting Research Institutes (dt.: Institut für die Erforschung von Vorhersagen) mit dem Titel „Forecasting Existential Risks: Evidence from a Long-Run Forecasting Tournament“ (dt.: „Existenzielle Risiken vorhersagen: Ergebnisse aus einem Wettbewerb für Langzeitvorhersagen“) kommt zu dem Ergebnis, dass das Risiko für einen Weltuntergang bis zum Jahr 2100 in etwa zwischen 1 und 6 % liegt. Die größte Gefahr geht wider Erwarten weder vom Klimawandel noch von einem Atomkrieg aus.

Die Studie, die u. a. von der Stiftung des Tesla-CEOs Elon Musk gefördert wurde, gewann seine Daten aus einem eigens für diesen Zweck ins Leben gerufenen fünfmonatigen Diskussionswettstreit namens „XPT“ (Abk. für „Existential-Risk Persuasion Tournament“, zu dt. etwa: „Existenzielles-Risiko-Überzeugungs-Wettbewerb“).
80 Experten der Langzeitprognose wurden in diesem Wettstreit 89 sogenannten „Superforecastern“ – nicht-Experten, die in der Vergangenheit eine außergewöhnliche Trefferquote bei Kurzzeitprognosen erreicht hatten – gegenübergestellt. Beide Gruppen erhielten die Aufgabe, durch gemeinsame Diskussion möglichst genaue Wahrscheinlichkeiten für globale Gefahren wie einen Atomwaffenkrieg, Pandemien, Künstliche Intelligenz zu bestimmen.
Wer ein Mitglied der jeweils anderen Gruppe überzeugte, seine Prognose zu ändern, wurde zudem mit einer Bonuszahlung belohnt. Auch besonders genaue „intersubjektive“ Prognosen – Vorhersagen darüber, welche Wahrscheinlichkeiten andere Teilnehmer nennen würden – führten zu einem Bonusgeld.

Auffällig an den Ergebnissen war, dass die Experten die Gefahren ausnahmslos höher bewerteten als die Superforecaster. Experten mit Fachwissen im jeweiligen Bereich des zu bewertenden Risikos schätzten das Risiko zudem immer höher ein als fachfremde Kollegen.
So bezifferten die Langzeitexperten das Risiko einer Auslöschung der Menschheit durch ein menschlich verändertes Pathogen auf 0,1 %, Superforecaster hingegen nur auf 0,01 %. Unter den Langzeitexperten bewerteten jene, die aus dem medizinischen oder naturwissenschaftlichen Bereich stammten, das Risiko sogar noch höher: mit 0,1 %.
Das Risiko für die Auslöschung der Menschheit durch ein natürliches Pathogen schätzten Experten mit 0,008 % deutlich niedriger ein als das menschenerzeugte Desaster. Superforecaster stimmten den Experten zwar zu. Sie bezifferten das Risiko aber mit 0,0018 %. Medizinische und naturwissenschaftliche Experten bezifferten das Risiko wiederum mit 0,01 %.

Die Gefahr eines Atomkriegs als Ursache für die Auslöschung der Menschheit schätzten Experten auf 0,19 %, Superforecaster auf 0,074 % und Militärstrategen auf 0,55 %.
Bei den natürlichen Katastrophen wie etwa den Folgen des Klimawandels waren sich alle Experten erstaunlich einig. Sie bezifferten das Risiko einer Auslöschung der Menschheit aufgrund natürlicher Katastrophen einstimmig auf 0,004 %. Superforecaster schätzten die Wahrscheinlichkeit auf 0,0043 %.
Insgesamt bewerteten Experten das Auslöschungsrisiko bis zum Jahr 2100 mit 6 %, während die Superforecaster dasselbe auf 1 % schätzten.

Als größte Gefahr für die Menschheit betrachteten beide Gruppen allerdings weder eine nukleare noch eine natürliche Katastrophe, sondern die Künstliche Intelligenz. Experten bewerteten das Risiko mit 2 %, Superforecaster mit 0,38 %. Experten, die professionell mit KI zu tun haben, bewerteten das Risiko sogar mit 3 %.
Insgesamt stuften die Experten die Risiken also wie folgt ein (von gefährlich zu weniger gefährlich):
Künstliche Intelligenz
Atomkrieg
Naturkatastrophen
Pandemien, menschengemacht
Pandemien, natürlich

In ihrer abschließenden Diskussion stellen sich die Studienautoren die Frage, weshalb es ihren Prognostikern selbst nach monatelanger Debatte und einem finanziellen Inzentiv zu überzeugender Argumentation so selten gelang, Mitglieder der jeweils anderen Gruppe umzustimmen. Und weshalb die Gruppen nicht zu einem Konsens gelangten.
Verfolgt man die Blogeinträge und Forenbeiträge einzelner Studienteilnehmer erfährt man, dass die Debatte innerhalb des „XPT“s primär über den Austausch von elektronischen Nachrichten stattfand. Eine Woche habe es oft gedauert, bis man das Gegenargument des Gegenübers erhalten habe. Darunter könnte die Motivation und auch das Verständnis der Teilnehmer gelitten haben.
Im „Anhang 1“ ihrer Arbeit beschreiben die Studienautoren zudem, wie herausfordernd die Suche nach teilnahmewilligen Experten verlief. Einzelne Teilnehmer haben retrospektiv den Eindruck beschrieben, es sei ihnen schwergefallen, einige der geladenen Experten ernstzunehmen. 19 % der rekrutierten Superforecaster und 51 % der Experten brachen die Studie frühzeitig ab.


· 01.01.1970 · 01:00:00 ···
0**##
🧠 📺

· 01.01.1970 · 01:00:00 ···
# · 01.01.1970 · 01:00:00 ···
* · 01.01.1970 · 01:00:00 ···
* · 01.01.1970 · 01:00:00 ···

********