Zukunft Denken – Podcast

Fortschritt oder Untergang. Nie in der Geschichte der Menschheit lagen diese beiden Möglichkeiten danke Wissenschaft und Technik so nahe beieinander. Wie sind wir an den Punkt gelangt, an dem wir heute stehen? Welche Rolle hat Wissenschaft gespielt und vor allem: warum ist das für uns als »normale« Bürger wichtig?

https://podcast.zukunft-denken.eu

subscribe
share






episode 76: 076 — Existentielle Risiken


»Wird die Zivilisation mit einem Knall oder einem Winseln untergehen? Der aktuelle Trend ist ein Winseln in Erwachsenen-Windeln.«, Elon Musk

Existentielle Risiken sind ein Thema, das in diesen Podcast passt, auch weil es eine interessante historische und zukünftige Dimension hat. Zur Zukunft später, zuerst zur Vergangenheit: Zwar gab es auch in der Vergangenheit für die Menschheit oder den Planeten existentielle Risiken, etwa Asteroiden-Einschläge, aber es waren Risiken, die der Mensch weder beeinflussen noch herbeiführen konnte. Die Wirkmacht der Menschen war über den größten Zeitraum menschlicher Geschichte eine lokale.

Das ändert sich zunächst langsam mit der industriellen Revolution und dann schlagartig ab der Mitte des 20. Jahrhunderts. Die Atomwaffen waren die erste Technologie, die ganz offensichtlich gezeigt haben, dass wir nun in der Lage sind nicht nur ganze Landstriche zu verwüsten, sondern tatsächlich die ganze Welt. 

"Wir waren immer verrückt, aber wir hatten nicht die Fähigkeiten die Welt zu zerstören. Jetzt haben wir sie.", Nassim Taleb

Was sind existentielle Risiken? Versuch einer Definition:

»Ein 'existenzielles Risiko' (X-Risiko) ist ein Ereignis, das die Möglichkeiten der Menschheit dauerhaft und drastisch einschränken könnte, indem es zum Beispiel das Aussterben der Menschheit verursacht«, CamXRisk

Meine erweiterte Definition:

Ein existenzielles Risiko für die Menschheit ist eine Bedrohung, die große Teile des Planeten oder menschlicher Strukturen zerstört oder große Teile der Menschheit in einem Ausmaß oder auf eine Weise töten könnte, dass eine Wiederherstellung eines modernen Gesellschaftsniveaus innerhalb eines Zeitrahmens von Jahrhunderten nicht wahrscheinlich ist.

Macht das Auflisten existentieller Risiken, das Ranken Sinn? Mit welchen Einschränkungen, unter welchen Rahmenbedingungen? Ist es überhaupt möglich, die Risiken sinnvoll einzuschätzen und wovon hängt das Risiko ab?

»Eine Pandemie besteht aus einem neuen Erreger und den sozialen Netzwerken, die er angreift. Wir können das Ausmaß der Ansteckung nicht verstehen, wenn wir nur das Virus selbst untersuchen, denn das Virus wird nur so viele Menschen infizieren, wie es die sozialen Netzwerke zulassen. Gleichzeitig legt eine Katastrophe die Gesellschaften und Staaten offen, die sie angreift.«, Niall Ferguson

Daher sind die Auswirkungen von Effekten komplexer Bedrohungen oft auch schwer einzuschätzen. So sind etwa trotz Klimawandel:

»Die jährlichen Todesfälle durch Tornados in den USA sind seit 1875 um mehr als das Zehnfache zurückgegangen« […] 

"Die Zahl der wetterbedingten Todesfälle ist in den letzten hundert Jahren drastisch zurückgegangen, obwohl sich die Erde um 1,2 °C erwärmt hat; sie sind heute etwa 80-mal seltener als noch vor einem Jahrhundert. […] 

Das liegt vor allem an der besseren Verfolgung von Stürmen, dem besseren Hochwasserschutz, der besseren medizinischen Versorgung und der verbesserten Widerstandsfähigkeit der Länder, die sich entwickelt haben. Ein aktueller UN-Bericht bestätigt den Trend der letzten zwei Jahrzehnte", Steven Koonin

Anhand von drei existentiellen Bedrohungen stelle ich die Schwierigkeit dar, Risiken, Auswirkungen und Rankings zu beurteilen: Atomwaffen, Bevölkerungskollaps und Klimawandel.

Welche Rolle spielen systemische Effekte? Wechselbeziehungen zwischen Bedrohungen, beziehungsweise sind einzelne Risiken als Folge anderer zu sehen? Wie damit umgehen?

»Für jede mögliche Katastrophe gibt es mindestens eine plausible Kassandra. Nicht alle Prophezeiungen können beherzigt werden. In den letzten Jahren haben wir vielleicht zugelassen, dass ein Risiko - nämlich der Klimawandel - unsere Aufmerksamkeit von den anderen ablenkt«, Niall Ferguson

Das Leben in einer modernen, komplexen Gesellschaft — im Anthropozän — hat positive Auswirkungen: wir sind weiter von der Natur entfernt, sind sicherer und haben einen viel höheren Lebensstandard als je zuvor. Wir sterben nicht mehr im Einklang mit der Natur, wie Hans Rosling es ausdrückte. Aber sie hat eben auch negative Auswirkungen, die leider existentielle Risiken darstellen können.

Die Konzentration auf die Eindämmung eines einzigen Risikos (z. B. des Klimawandels) kann dazu führen, dass wir andere Risiken unterschätzen oder sogar  andere Risiken dramatisch erhöhen.

»Wir sind immer gut vorbereitet auf die falsche Katastrophe. [...] Aber die Geschichte warnt uns, dass man nicht die Katastrophe bekommt, auf die man sich vorbereitet.«, Niall Ferguson

Wie können wir aber mit einer Vielzahl an miteinander verknüpften Risiken umgehen? Was könnten wir unternehmen um unsere Gesellschaft in einem breiteren Sinne resilienter, widerstandsfähiger zu machen? Welche Fehler haben wir in der Covid-Pandemie gemacht und was können wir daraus lernen?

Und nicht zuletzt — was ist die Liste der existentiellen Bedrohung in meiner Reihenfolge (die unbedingt kritisiert werden sollte!):

  1. Atomwaffen
  2. Natürliche oder künstlich erzeugte Pathogene
  3. Zusammenbruch kritischer Infrastrukturen (Energie, Finanz, IKT, ...)
  4. Solarer Supersturm (auch Carrington-Ereignis genannt)
  5. Außer Kontrolle geratene Automatisierung/Robotik ("AI", aber auf einer allgemeineren Ebene)
  6. Klimawandel (insbesondere für den Fall, dass Kipppunkte und ein unkontrollierbarer Klimawandel auftreten)
  7. Nanotechnologie oder andere Möglichkeiten zur drastischen Veränderung von Herstellung und Chemie, die zu Nanomaschinen führen
  8. Bevölkerungskollaps beziehungsweise starkes globales Ungleichgewicht
  9. Ökosystemkollaps mit »Domino-Effekten«
  10. Unbekannte Unbekannte (»Unknown unknowns«)
  11. Grüne Gentechnik die außer Kontrolle gerät
  12. Politischer/religiöser Extremismus
  13. Asteroideneinschlag auf der Erde
  14. Geoengineering (auch als Konflikt-Auslöser, -Verstärker)

Diese Liste ist als Anregung gedacht, dieses Thema zu diskutieren. Ist die Reihenfolge richtig? Wahrscheinlich nicht. Fehlt etwas? 

Die Kluft zwischen Nutzen und Katastrophe scheint durch moderne Technologie immer schärfer zu werden. Wir sind also gut beraten, diese Bedrohungen ernst zu nehmen. Aber um einen Punkt zu wiederholen: es ist ein großer Fehler, sich hauptsächlich auf eine Bedrohung in dieser Liste zu konzentrieren, welche auch immer das sein mag, und zu glauben, wir könnten so unser gesellschaftliches Risiko verringern.

Das werden wir nicht.

Referenzen

Andere Episoden

  • Episode 74: Apocalype Always
  • Episode 60: Wissenschaft und Umwelt — Teil 2
  • Episode 59: Wissenschaft und Umwelt — Teil 1
  • Episode 55: Strukturen der Welt
  • Episode 51: Vorbereiten auf die Disruption? Ein Gespräch mit Herbert Saurugg und John Haas
  • Episode 45: Mit »Reboot« oder Rebellion aus der Krise?
  • Episode 44: Was ist Fortschritt? Ein Gespräch mit Philipp Blom
  • Episode 37: Probleme und Lösungen
  • Episode 33: Naturschutz im Anthropozän – Gespräch mit Prof. Frank Zachos
  • Episode 27: Wicked Problems
  • Episode 21: Der Begriff der Natur – oder: Leben im Anthropozän

Fachliche Referenzen

  • Cambridge Existential Risks Initiative (CERI)
  • Hans Rosling, Factfulness: Wie wir lernen, die Welt so zu sehen, wie sie wirklich ist, Ullstein (2019)
  • Niall Ferguson, Doom, The Politics of Catastrophe, Penguin (2022)
  • Steven E. Koonin, Unsettled, BenBella Books (2021)
  • Climate Change Debate: Bjørn Lomborg and Andrew Revkin | Lex Fridman Podcast #339
  • Niall Ferguson on disaster preparation, Triggernometry
  • Near Miss: The Solar Superstorm of July 2012, NASA (2014)
  • Lloyds, Solar storm risk to the North American electric grid (2013)
  • The Economist Briefing, It’s not just a fiscal fiasco: greying economies also innovate less (2023)
  • The five biggest threats to human existence, The Conversation (2014)
  • Elon Musk on artificial intelligence, Conversation with Tucker Carlson (2023)


fyyd: Podcast Search Engine
share








 July 17, 2023  25m