Besser Früh als Nie

Ungewöhnliche Themen aus Wissenschaft, Technik, und Gesellschaft, locker und humorvoll präsentiert. Egal ob es sich um grundlegende Menschheitsfragen handelt oder spezialisierte Nischenthemen — wir gehen in die Recherche, denken uns ein, und machen die Dinge verständlich für euch. Dabei greifen wir oft auf unser Hintergrundwissen aus der VWL zurück, denn erstaunlich viele Themen lassen sich klarer strukturieren, wenn man sie durch eine ökonomische Linse betrachtet.

https://podcasters.spotify.com/pod/show/besserfruehalsnie

subscribe
share






episode 55: #55 Schluss mit "gefährlichen Experimenten"? Warum die KI-Untergangspropheten Recht haben könnten.


Ein sofortiges KI-Moratorium, damit wir nicht bald alle drauf gehen - das ist die Forderung in einem neuen offenen Brief, unterzeichnet von zahlreichen KI-Spitzenforscher:innen, sowie unter anderem von Apple-Mitgründer Steve Wozniak, Elon Musk oder Yuval Noah Harari. Wir blicken (schon wieder) auf die rasanten aktuellen Entwicklungen im Bereich der künstlichen Intelligenz und fragen: Was ist dran an den Argumenten im offenen Brief der "AI-Safety"-Befürworter? Wie gut sind die Gegenargumente? Und wie soll das alles weitergehen?


Linkliste

Der offene Brief: https://futureoflife.org/open-letter/pause-giant-ai-experiments/

OpenAI über AGI: https://openai.com/blog/planning-for-agi-and-beyond

Mehr Argumente, dass AGI gefährlich werden könnte: https://www.cold-takes.com/ai-could-defeat-all-of-us-combined/

Sparks of Artificial General Intelligence: Early experiments with GPT-4: https://arxiv.org/abs/2303.12712


fyyd: Podcast Search Engine
share








 April 11, 2023  1h2m