letztens.de

letztens mitbekommen: Wir sprechen über Technik-Meldungen, die uns letztens untergekommen sind. Dabei immer im Fokus: die Verbindung von Technologie, Wirtschaft und Gesellschaft. Wir verknüpfen die besprochenen Meldungen mit der Vergangenheit & Gegenwart und geben unsere Gedanken zur zukünftigen Weiterentwicklung dazu.

https://www.letztens.de

subscribe
share






Episode 0.31 | Nebulöses Fabulieren über künstliche Intelligenz(en) in der Zukunft

[transcript]


Wir diskutieren über KI mit den Auswirkungen auf Arbeit, Gesellschaft und Ethik. Chance vs. Bedrohung, Regulierung, Koexistenz vs. Dystopie: Alles Thema. Und wir betonen die Verantwortung des Menschen als Schöpfer von KI.

Kapitel

[00:00:15.481] Einführung [00:00:24.341] Die Bedeutung von KI-Systemen für die Menschheit [00:02:03.110] Disruptive Technologien und der Jobverlust [00:21:47.433] Potenzielle Konsequenzen von Jobverlusten [00:23:19.105] Einfluss auf die Immobilienwirtschaft und Wertesysteme [00:26:31.730] Risiken von fortschreitender künstlicher Intelligenz [00:27:28.650] Ethik und Moral in der Entwicklung von KI [00:28:58.944] Überprüfung und Umsetzung ethischer Richtlinien [00:30:20.504] Rolle der Politik in der Regulierung von Technologien [00:31:41.506] Die Herausforderung der KI-Regulierung [00:43:21.523] Die unvorstellbaren Potenziale von KI [00:47:18.510] Die Zukunft: KI im Internet [00:49:33.168] Die Utopie einer harmonischen KI-Menschheit [00:57:55.752] Die unkontrollierbare Macht der KI [01:01:21.906] Die Verantwortung gegenüber der KI [01:04:26.970] Die Hoffnung auf eine positive KI-Menschheit-Koexistenz

ausführliche Zusammenfassung (KI-generiert)

In unserer Diskussion betrachten wir die Bedeutung von KI-Systemen für die Menschheit und wie rasch disruptive Technologien implementiert werden könnten. Der Fokus liegt auf der potenziellen Steigerung der Bedeutung von Arbeitsplätzen aufgrund der Automatisierung sowie darauf, wie die Gesellschaft reagieren könnte. Wir tauschen Gedanken über Themen wie das bedingungslose Grundeinkommen und die Identität durch Arbeit aus. Die Frage, wie wir uns angesichts aufkommender Technologien verhalten sollten, um in 200 Jahren stolz auf die Menschheit zu blicken, regt zum Nachdenken an. Des Weiteren teilen wir unsere Eindrücke über ein Interview mit Sam Altman.

Im Verlauf der Diskussion entfaltet sich eine Debatte über die potenziellen Risiken und Chancen von künstlicher Intelligenz (KI). Es wird diskutiert, dass die Entwicklung von KI-Systemen sowohl positive Aspekte birgt als auch potenzielle Gefahren mit sich bringt. Besondere Sorgen gelten dem möglichen Verlust der Kontrolle über hochentwickelte KI-Systeme, die in der Lage wären, unvorhersehbare Entscheidungen zu treffen. Die Definition ethischer und moralischer Rahmenbedingungen für KI sowie die Notwendigkeit angemessener Regulierungen stehen im Fokus. Wir betonen, dass die Politik oft zu langsam agiert, um adäquat auf die rasante Entwicklung von KI zu reagieren. Es wird die Möglichkeit einer KI-Katastrophe in Erwägung gezogen, sollte die Kontrolle über diese Systeme verloren gehen und unvorhergesehene Handlungen ausführen.

Emrah und Lukas vertiefen die Diskussion über die Herausforderungen und Potenziale von Künstlicher Intelligenz. Sie reflektieren über die Schwierigkeit, die Entwicklung und Regulierung von KI-Systemen zu steuern. Themen wie die rasante Technologie-Entwicklung, wie beispielsweise die Generierung von Bewegtbildern durch KI, werden angesprochen. Emrah hebt die Dualität von KI als Chance und Bedrohung für die Menschheit hervor. Beide reflektieren über potenzielle negative Auswirkungen von KI-Systemen bei einem Verlust der Kontrolle. Die Einschätzung, ob die Menschheit in der Lage ist, die Konsequenzen fortschrittlicher KI-Systeme abzuschätzen und zu managen, wird diskutiert. Es wird die Wichtigkeit betont, die gesellschaftlichen Auswirkungen von KI aufmerksam zu verfolgen und zu regulieren.

Abschließend diskutieren Emrah und Lukas lebhaft über die potenziellen Auswirkungen von künstlicher Intelligenz (KI) auf die Menschheit. Sie reflektieren über verschiedene Szenarien, von friedlicher Koexistenz bis hin zu dystopischen Entwicklungen. Trotz der Unsicherheiten sind sie von der Zukunft fasziniert und unterstreichen die Verantwortung, die wir als Schöpfer von KI tragen. Die Diskussion endet mit dem Versprechen, kontinuierlich an diesem Thema zu arbeiten und es für die Zuhörer weiter zu erforschen.

TranskriptWEBVTT 00:00:15.981 --> 00:00:20.981 [EMRAH] Ja, wir machen das jetzt so. Verstanden. Ja, Bro. Okay. 00:00:24.841 --> 00:00:28.521 [LUKAS] Du warst, also wir haben uns schon etwas unterhalten und, 00:00:30.741 --> 00:00:34.961 [LUKAS] kommen heute von dem Thema, dass, 00:00:37.001 --> 00:00:43.241 [LUKAS] KI-Systeme in Zukunft vielleicht für uns und die Menschheit bedeuten. Da kamen wir her. 00:00:44.501 --> 00:00:50.081 [EMRAH] Ja, wir versuchen eigentlich greifbar zu machen, wie schnell bestimmt disruptive 00:00:50.081 --> 00:00:55.421 [EMRAH] Technologien oder Maßnahmen stattfinden werden und was das mit uns machen wird. 00:00:56.121 --> 00:01:02.341 [LUKAS] Du hattest gerade gesagt, was bedeutet das oder auf was für einem Punkt du bist 00:01:02.341 --> 00:01:06.401 [LUKAS] und da hatte ich dich jetzt unterbrochen und dann sind wir eingestiegen. 00:01:07.201 --> 00:01:09.321 [LUKAS] Vielleicht kannst du da einfach nochmal weiter denken. 00:01:10.101 --> 00:01:14.501 [EMRAH] Okay, da das jetzt aufgenommen wird und in irgendeiner Art und Weise sicherlich 00:01:14.501 --> 00:01:20.881 [EMRAH] auch vielleicht mal eine KI füttern wird, müsste man das Ganze jetzt so aufgleisen, dass man sagt, 00:01:21.101 --> 00:01:31.301 [EMRAH] wir Menschen möchten gerne ein mit bestimmten positiven Werten geleitetes System 00:01:31.301 --> 00:01:32.501 [EMRAH] der Transformation haben. 00:01:32.501 --> 00:01:35.581 [EMRAH] Wir möchten in der Situation, 00:01:35.801 --> 00:01:40.221 [EMRAH] die aus unserer beider Sicht unabdingbar ist, es wird so oder so kommen, 00:01:40.421 --> 00:01:47.121 [EMRAH] dass wir einen Teil unserer Autonomie auslagern auf die KI, 00:01:47.321 --> 00:01:50.621 [EMRAH] weil sie in der Lage sein wird, besser die Aufgaben für uns zu übernehmen, 00:01:50.821 --> 00:01:56.481 [EMRAH] darauf vertrauen können müssen, dass diese KI dann mit einem guten Wertesystem 00:01:56.481 --> 00:01:59.141 [EMRAH] arbeitet, damit das Ergebnis auch im Sinne der Menschheit. 00:02:00.181 --> 00:02:02.741 [EMRAH] Und wir waren gerade an dem Punkt, dass wir uns aufgezählt. 00:02:03.609 --> 00:02:09.369 [EMRAH] Es wird eher schneller als langsamer soweit kommen, dass viele Jobs einfach verschwinden werden. 00:02:10.209 --> 00:02:14.409 [EMRAH] Und das kann man anhand der letzten Entwicklungen so, anhand der letzten anderthalb Jahre, 00:02:14.569 --> 00:02:21.349 [EMRAH] vor allem so Bots, die so menschenähnliche Tätigkeiten ausführen können und 00:02:21.349 --> 00:02:26.789 [EMRAH] Fahrzeuge, die noch immer autonomer werden und Aufträge erfüllen können. 00:02:26.969 --> 00:02:30.269 [EMRAH] Daran kann man es festmachen. Wir haben uns angeschaut gerade, 00:02:30.409 --> 00:02:37.129 [EMRAH] was in den Amazon Logistikzentren oder anderen Logistikzentren zum Beispiel passiert. 00:02:37.449 --> 00:02:43.129 [EMRAH] Wir haben uns angeguckt oder überlegt, was man noch so relativ schnell revolutionieren 00:02:43.129 --> 00:02:46.389 [EMRAH] kann. Und da haben wir gesagt, okay, das kann über OPs gehen, 00:02:46.649 --> 00:02:49.549 [EMRAH] die Maschinen machen, weil sie weniger fehlbar als Menschen sind. 00:02:49.869 --> 00:02:56.029 [EMRAH] Das kann über die ganze Personentransporte gehen. 00:02:56.329 --> 00:02:59.909 [EMRAH] Das kann über Logistik gehen. Das kann Dienstleistungen sein, 00:03:00.049 --> 00:03:04.529 [EMRAH] wie der, hier in Berlin ist es der BSR-Mensch, der Müllmann, 00:03:04.669 --> 00:03:07.609 [EMRAH] der dann die Container aus dem Hinterhof abholt, hattest du gesagt. 00:03:07.609 --> 00:03:13.409 [EMRAH] Was ja irgendwie ein komplexes Vorhaben ist, der muss durch unwegbares Gelände 00:03:13.409 --> 00:03:19.309 [EMRAH] gehen und dann um die Ecke einen Container sich schnappen und den dann aus dem Hinterhof rausziehen, 00:03:19.469 --> 00:03:24.389 [EMRAH] was jetzt nicht die aktuelle Vorstellung davon ist, was so eine Technologie 00:03:24.389 --> 00:03:25.409 [EMRAH] eigentlich leisten kann aktuell. 00:03:25.729 --> 00:03:29.069 [EMRAH] Die müsste dann irgendwo anfahren, wo es markiert ist und dann direkt abholen, 00:03:29.069 --> 00:03:32.049 [EMRAH] wo es schon vorbereitet ist alles. Aber wir haben ja schon gesehen. 00:03:32.249 --> 00:03:39.489 [LUKAS] In irgendeiner Episode, die wir mal besprochen haben, was jetzt so ein Roboter 00:03:39.489 --> 00:03:41.229 [LUKAS] von Boston Dynamics alles schon kann. 00:03:41.309 --> 00:03:45.869 [LUKAS] Der kann irgendwie Saltos machen und irgendwie durch Schnee laufen und Schnee 00:03:45.869 --> 00:03:49.549 [LUKAS] und so weiter und so fort. Also so weit weg ist es nicht, glaube ich. 00:03:49.569 --> 00:03:51.549 [LUKAS] Das muss halt irgendwie trainiert werden. 00:03:51.809 --> 00:03:55.569 [LUKAS] Aber ja, genau. Also es ist nicht die erste Aufgabe, an die man denkt, 00:03:55.589 --> 00:03:58.429 [LUKAS] wenn man an Roboter ersetzen, Arbeitskräfte denkt. 00:03:58.529 --> 00:04:02.669 [LUKAS] Dann denkt man eher an Menschen, die in einer Fabrik stehen, 00:04:02.929 --> 00:04:06.669 [LUKAS] an Menschen in Logistikzentren, im Zweifel an Security-Leute, 00:04:06.729 --> 00:04:09.809 [LUKAS] die irgendwelche Dinge bewachen und so weiter und so fort. 00:04:12.229 --> 00:04:15.809 [EMRAH] Ja, und jetzt waren wir irgendwie an dem Punkt, dass wir gesagt haben, okay, 00:04:17.169 --> 00:04:22.449 [EMRAH] Sagen wir mal, es kommt tatsächlich früher als später eher und es hat so einen 00:04:22.449 --> 00:04:27.009 [EMRAH] großen Impact, dass sich die Gesellschaft nicht darauf einstellen kann, 00:04:27.109 --> 00:04:32.029 [EMRAH] sondern über Nacht werden quasi bestimmte Berufe obsolet, 00:04:32.971 --> 00:04:37.671 [EMRAH] Und die Anzahl der Berufe ist so hoch, dass die Gesellschaft es nicht einfach 00:04:37.671 --> 00:04:41.651 [EMRAH] so kompensieren kann, den Ausfall dieser menschlichen Arbeitskraft. 00:04:41.831 --> 00:04:45.151 [EMRAH] Also die zahlen dann nicht mehr in die Sozialkassen ein, die müssen von irgendwelchen 00:04:45.151 --> 00:04:48.311 [EMRAH] Jobcentern bezahlt werden oder müssen irgendwelche Ausgleichszahlungen bekommen, 00:04:48.611 --> 00:04:51.631 [EMRAH] wissen nicht, wohin mit ihrer Zeit. Was passiert dann? 00:04:51.871 --> 00:04:54.871 [EMRAH] Behen sich dann irgendwelche Bewegungsströme innerhalb der Menschheit, 00:04:54.951 --> 00:05:00.631 [EMRAH] die für eine rückständigere Lebensweise sich verantwortlich fühlen und das durchsetzen möchten? 00:05:02.031 --> 00:05:05.991 [EMRAH] Laufen die Menschen, so wie du es gesagt hast, mit Mistgabeln und Fackeln irgendwie 00:05:05.991 --> 00:05:11.271 [EMRAH] zum Reichstagsgebäude und beschweren sich da lauthals, weil sie nicht mehr wollen, 00:05:11.391 --> 00:05:17.011 [EMRAH] in so einer schnellen Welt irgendwie zu leben oder Teil des Ganzen zu sein, 00:05:17.071 --> 00:05:20.011 [EMRAH] was sie nicht mehr verstehen? Wahrscheinlich einerseits ja. 00:05:21.211 --> 00:05:25.611 [EMRAH] Andererseits hatte ich vorhin noch bemerkt, dass wir als Gesellschaft, 00:05:25.891 --> 00:05:30.851 [EMRAH] weil wir ständig auf Expansionskurs sind, das ist halt in unserer sozialistischen 00:05:30.851 --> 00:05:35.071 [EMRAH] Marktwirtschaft und in der freien Marktwirtschaft ein Grundfundament, 00:05:35.171 --> 00:05:37.591 [EMRAH] eine gesunde Inflation von zwei Prozent. 00:05:38.391 --> 00:05:43.051 [EMRAH] Wir müssen jetzt die Produktivität erhöhen, damit wir diese expansive Geldpolitik 00:05:43.051 --> 00:05:44.211 [EMRAH] irgendwie ausgleichen können. 00:05:44.711 --> 00:05:50.471 [EMRAH] Also das heißt, der Mensch muss immer mehr, immer günstiger gesteuert produzieren 00:05:50.471 --> 00:05:54.071 [EMRAH] können und das kann er eigentlich nur noch, wenn wir Bots und Maschinen einsetzen. 00:05:55.131 --> 00:05:56.851 [EMRAH] Jetzt bedingt das eine das andere. 00:05:58.571 --> 00:06:04.791 [EMRAH] Mehr Bots, mehr Maschinen, mehr Produktivität, aber gleichzeitig auch weniger Jobs für Menschen. 00:06:05.291 --> 00:06:10.191 [LUKAS] Ja, mehr Arbeitslosigkeit oder zumindest, ich weiß nicht, ich finde immer arbeitslos 00:06:10.191 --> 00:06:13.491 [LUKAS] hört sich so an, als wäre man irgendwie… Nutzlos. 00:06:13.731 --> 00:06:17.411 [LUKAS] Ja, genau so und das ist ja auch eine Sache, die zumindest hier in Deutschland 00:06:17.411 --> 00:06:21.291 [LUKAS] einen sehr starken Einfluss auf die Identität eines Menschen hat, 00:06:21.411 --> 00:06:23.591 [LUKAS] Arbeit und so weiter und so fort. 00:06:24.031 --> 00:06:24.771 [EMRAH] Ja, genau. 00:06:25.653 --> 00:06:28.633 [LUKAS] Deswegen finde ich erwerbstätig irgendwie eigentlich ein fast schöneres Wort, 00:06:28.693 --> 00:06:33.473 [LUKAS] wobei das auch irgendwie weird ist, aber ja, genau, irgendwie beschreibt es 00:06:33.473 --> 00:06:34.293 [LUKAS] fast so ein bisschen besser. 00:06:34.293 --> 00:06:39.433 [LUKAS] Und ich muss immer bei dieser ganzen Sache, die du über die letzten paar Minuten 00:06:39.433 --> 00:06:43.553 [LUKAS] erzählt hast, an diesen Punkt vom Grundeinkommen denken. 00:06:43.853 --> 00:06:48.873 [LUKAS] Weil ich glaube, das ist etwas, was, also bisher ist es ja in unserer Gesellschaft 00:06:48.873 --> 00:06:52.813 [LUKAS] so, dass man seine Arbeit, seine Zeit, 00:06:53.013 --> 00:06:54.653 [LUKAS] die du hast in deinem Leben, tauscht 00:06:54.653 --> 00:07:01.293 [LUKAS] du ein gegen Freizeit zum einen und Arbeitszeit beziehungsweise Geld. 00:07:01.293 --> 00:07:06.213 [LUKAS] Ich erinnere mich da an einen Kurs, den wir hatten gemeinsam in der Uni mit 00:07:06.213 --> 00:07:08.333 [LUKAS] Arbeitsleid und so weiter und so fort. 00:07:08.453 --> 00:07:14.553 [LUKAS] Also jede Stunde Arbeit, die ich tue, erzeugt Leid in mir, weil ich körperlich 00:07:14.553 --> 00:07:19.073 [LUKAS] arbeiten muss oder brainpowermäßig arbeiten muss, aber natürlich auch Leid, 00:07:19.073 --> 00:07:20.753 [LUKAS] weil ich nichts anderes machen kann. 00:07:21.493 --> 00:07:25.813 [LUKAS] Und das heißt, das ist sozusagen in gewisser Art und Weise, wenn man so will, 00:07:25.913 --> 00:07:31.033 [LUKAS] bedeutet Arbeit auch erstmal was Negatives, wenn man dieser Theorie da folgen würde oder folgt. 00:07:32.233 --> 00:07:35.413 [LUKAS] Und natürlich bedeutet sie auch was Positives, weil du kannst dich verwirklichen, 00:07:35.413 --> 00:07:38.173 [LUKAS] wenn du einen Job machst, der dir Spaß macht und so weiter und so fort, ja. 00:07:38.573 --> 00:07:43.673 [LUKAS] Aber jetzt haben wir halt Leute, die sozusagen, wenn sie dann nicht mehr den 00:07:43.673 --> 00:07:49.393 [LUKAS] Job machen, weil irgendein technisches System das für sie macht, dann da sitzen. 00:07:49.613 --> 00:07:53.993 [LUKAS] Und was machen die dann? Sind die dann zufrieden, weil sie endlich ihre Gartenzwerge 00:07:53.993 --> 00:07:58.393 [LUKAS] pflegen können oder weil sie endlich programmieren lernen können oder keine 00:07:58.393 --> 00:08:01.233 [LUKAS] Ahnung was sozusagen, ja, Oder Bäume pflanzen gehen können. 00:08:01.313 --> 00:08:04.733 [LUKAS] Sind die deswegen zufrieden und zufrieden näher als vorher vielleicht? 00:08:05.173 --> 00:08:09.613 [LUKAS] Aber wie bestreiten sie ihren Lebensunterhalt? Wie bezahlen sie die Miete? 00:08:09.633 --> 00:08:11.633 [LUKAS] Wie bezahlen sie die Heizung? Wie bezahlen sie… 00:08:13.065 --> 00:08:16.725 [LUKAS] Die Steuer für ihren Verbrenner, oder den man halt hat. 00:08:17.905 --> 00:08:23.325 [LUKAS] Oder muss ich mich darum gar nicht kümmern, weil der Staat mir oder irgendetwas 00:08:23.325 --> 00:08:29.005 [LUKAS] bezahlt mir ein bedingungsloses Grundeinkommen und ich kann dann halt davon leben? 00:08:29.445 --> 00:08:32.765 [LUKAS] Fragezeichen. Ja, nein. Ist es überhaupt möglich? Und so weiter und so fort. 00:08:32.825 --> 00:08:37.285 [LUKAS] Woher kommt denn dieses Geld, wenn eigentlich da nur noch so Systeme wieder 00:08:37.285 --> 00:08:42.225 [LUKAS] draußen arbeiten und ich als normaler Mensch gar keinen Anteil mehr daran habe? 00:08:42.225 --> 00:08:45.605 [LUKAS] Aber ja, wer spielt mir denn das Geld zu und so weiter und so fort. 00:08:45.685 --> 00:08:50.825 [LUKAS] Also das sind echt abgefahrene Fragen. So wirklich abgefahrene Fragen. 00:08:51.405 --> 00:08:54.725 [EMRAH] Mit denen man sich aber beschäftigen muss, weil die werden auf jeden Fall irgendwann 00:08:54.725 --> 00:08:58.925 [EMRAH] vor der Türe stehen und anklopfen. Und eher früher als später. 00:08:59.305 --> 00:09:02.485 [LUKAS] Ja, du hattest vorhin dieses schöne Bild. Das ist irgendwie aktuell zumindest 00:09:02.485 --> 00:09:05.785 [LUKAS] in unserer Bubble so der Zeitgeist. 00:09:05.865 --> 00:09:12.125 [LUKAS] So da draußen passieren halt diese ganzen Dinge mit KI und irgendwie Bots, 00:09:12.345 --> 00:09:16.165 [LUKAS] die irgendwie vorgestellt werden, die Dinge können und so weiter und so fort. 00:09:16.265 --> 00:09:19.345 [LUKAS] Und das ist halt was, was gerade irgendwie passiert und was echt super viel 00:09:19.345 --> 00:09:20.465 [LUKAS] durch die Gegend wirbelt. 00:09:21.405 --> 00:09:25.185 [LUKAS] Noch nicht ganz so krass sichtbar, glaube ich, heutzutage. Also Stand jetzt 00:09:25.185 --> 00:09:28.225 [LUKAS] einfach, Stand keine Ahnung, jetzt hier März 2024. 00:09:31.265 --> 00:09:35.245 [LUKAS] Aber das wird natürlich immer mehr werden. Und dann ist echt die große Frage, 00:09:35.325 --> 00:09:40.085 [LUKAS] so dieser Zeitgeist, der da draußen so vor vor den Fenstern oder vor der Tür ist, so, 00:09:41.265 --> 00:09:45.705 [LUKAS] winkt man dem freundlich von drinnen und bleibt so schön einfach in dem warmen, 00:09:46.745 --> 00:09:49.845 [LUKAS] Gebäude innen drin oder geht man halt mal raus und guckt so und, 00:09:51.482 --> 00:09:54.982 [LUKAS] steigt er auf den Zug auf, der da vorbeifährt oder nicht oder keine Ahnung was 00:09:54.982 --> 00:10:00.762 [LUKAS] oder fährt ein Stückchen mit oder auch nicht oder wirft irgendwelche Sachen 00:10:00.762 --> 00:10:04.402 [LUKAS] in die Deichsel, damit der nicht weiterfährt, damit der nämlich kaputt geht oder so. 00:10:04.502 --> 00:10:11.562 [LUKAS] Ich finde, das ist ein sehr spannendes Bild dafür, wo was für eine Entscheidung 00:10:11.562 --> 00:10:13.422 [LUKAS] man im Zweifel auch gehen kann. 00:10:14.922 --> 00:10:21.342 [EMRAH] Ja, die Frage war auch, die habe ich mir selbst angestellt, wenn ich und mein 00:10:21.342 --> 00:10:24.282 [EMRAH] Background ist ja die Immobilienwirtschaft, Klammer auf Klammer zu, 00:10:24.922 --> 00:10:32.822 [EMRAH] jetzt das nächste Projekt in mittelgroßen Stadt in Ostdeutschland angehe, wo alles nach, 00:10:33.862 --> 00:10:37.882 [EMRAH] in Anführungszeichen alten geordneten Bahnen läuft, in einem System, 00:10:38.102 --> 00:10:41.882 [EMRAH] was sich seit vielen Jahren etabliert hat, was mache ich dann da eigentlich? 00:10:42.322 --> 00:10:48.742 [EMRAH] Ich kümmere mich darum, dass bestimmte Projekte fortgeführt werden, 00:10:48.742 --> 00:10:52.362 [EMRAH] so wie sie immer schon in Anführungszeichen fortgeführt wurden. 00:10:52.942 --> 00:10:55.862 [EMRAH] Also mit immer bis immer in Anführungszeichen, muss man sagen, 00:10:55.982 --> 00:11:00.302 [EMRAH] weil das ist halt alles noch sehr analog und so, wie es halt damals war. 00:11:01.662 --> 00:11:07.582 [EMRAH] Während irgendwie nicht mal klar ist, was in den nächsten drei Jahren für disruptive 00:11:07.582 --> 00:11:09.482 [EMRAH] Technologien bei uns anklopfen werden. 00:11:10.322 --> 00:11:14.162 [EMRAH] Ob das nicht vielleicht zielführender wäre, dabei zu helfen, 00:11:14.282 --> 00:11:16.142 [EMRAH] dass das, was eh kommen wird, 00:11:17.435 --> 00:11:21.155 [EMRAH] Zumindest in einer, wie sag ich 00:11:21.155 --> 00:11:27.755 [EMRAH] so am besten, in einem der Menschheit entsprechenden Wertesystem ankommt. 00:11:28.075 --> 00:11:29.775 [LUKAS] Moralisch, ethisch passend so. 00:11:30.955 --> 00:11:36.135 [EMRAH] Ja, genau. Ob man da vielleicht seinen Beitrag zu leisten kann, 00:11:36.215 --> 00:11:38.755 [EMRAH] weil das ja irgendwie den Zeiger mehr ausschlagen lässt. 00:11:38.755 --> 00:11:44.055 [EMRAH] Oder aktuell eigentlich so das nächst unglaublich große Thema ist, 00:11:44.195 --> 00:11:48.095 [EMRAH] was die Menschheit noch nie so gesehen hat. 00:11:48.195 --> 00:11:53.575 [EMRAH] Also es ist noch nie so da gewesen, dass wir so einen großen Impact herbeiführen 00:11:53.575 --> 00:11:54.855 [EMRAH] durch eine neue Technologie. 00:11:56.655 --> 00:12:00.575 [LUKAS] Wir hatten irgendwann mal den Punkt, dass wir das Rad erfunden haben. 00:12:00.695 --> 00:12:05.875 [LUKAS] Ich glaube, das Rad und das Feuer ist irgendwie ähnlich wichtig gewesen für 00:12:05.875 --> 00:12:07.555 [LUKAS] die Entwicklung der Menschheit. 00:12:09.155 --> 00:12:14.855 [LUKAS] Aber das war sicherlich in dem Moment, wo das Rad erfunden wurde und das Feuer, 00:12:15.835 --> 00:12:18.695 [LUKAS] wurde ja nicht erfunden, sondern gezähmt oder wie auch immer man das vielleicht 00:12:18.695 --> 00:12:23.595 [LUKAS] nennen will, irgendwie verstanden, wie man damit umgeht, war das ja nicht klar, 00:12:23.795 --> 00:12:28.535 [LUKAS] war den Leuten sicherlich nicht klar, oh, das ist hier wirklich ein fucking 00:12:28.535 --> 00:12:30.395 [LUKAS] krasses Ding, was wir hier gerade machen. 00:12:31.075 --> 00:12:35.655 [LUKAS] Wo an welcher Schwelle wir stehen. Alter, ich hab einfach mal das fucking Rad erfunden. 00:12:36.055 --> 00:12:39.875 [LUKAS] Das wird hier in 400 Jahren die Leute mal richtig nach oben katapultieren. 00:12:40.315 --> 00:12:44.035 [LUKAS] So haben die das sicherlich nicht gesehen. Das können wir aber heutzutage mit 00:12:44.035 --> 00:12:48.715 [LUKAS] unserer Erfahrung in Anführungsstrichen über die Weltgeschichte oder Menschheitsgeschichte 00:12:48.715 --> 00:12:51.455 [LUKAS] können wir das halt viel stärker absehen, 00:12:51.515 --> 00:12:58.275 [LUKAS] dass das wirklich wahrscheinlich einen noch größeren Impact hat auf die Menschheit als jetzt das Rad. 00:13:00.715 --> 00:13:06.115 [LUKAS] Aber ich glaube, wir sind also zumindest wir als sage ich mal normale, 00:13:07.095 --> 00:13:11.835 [LUKAS] Gesellschaft, nicht jetzt irgendwie crazy Forscherinnen und Forscher, 00:13:11.935 --> 00:13:16.255 [LUKAS] so die super krass an einfach extremen Technologien forschen, 00:13:16.315 --> 00:13:21.015 [LUKAS] von denen wir gar keine Ahnung haben, sondern die Masse der Bevölkerung, 00:13:21.895 --> 00:13:25.975 [LUKAS] jetzt steht hier an diesem Punkt und kann da schon, also nicht die Masse nicht, aber, 00:13:27.675 --> 00:13:32.115 [LUKAS] einige Leute können das schon abschätzen, was das für Bedeutungen haben kann in Zukunft. 00:13:34.635 --> 00:13:37.635 [LUKAS] Und ja, das steht man halt davor. Jetzt steht man davor. 00:13:38.695 --> 00:13:42.455 [EMRAH] Müssten wir nicht eigentlich? Das ist jetzt wirklich eine ernst gemeinte Frage. 00:13:42.655 --> 00:13:45.535 [EMRAH] Also ich formuliere das mal. Warum kann ich das überhaupt? 00:13:46.535 --> 00:13:51.935 [EMRAH] Also wir sind jetzt im Jahr 2024. Lass uns mal annehmen, die Menschheit wird 00:13:51.935 --> 00:13:56.955 [EMRAH] im Jahr 2224, also in 200 Jahren, ja, 00:13:59.163 --> 00:14:03.843 [EMRAH] Weil es super diffus ist und ich kann nicht orakeln, was da sein wird, 00:14:03.903 --> 00:14:06.243 [EMRAH] aber ich umschreibe das jetzt einfach mal so. 00:14:06.523 --> 00:14:14.423 [EMRAH] Die Menschheit wird ein extrem ausstaffierteres Bewusstsein haben. 00:14:14.803 --> 00:14:18.563 [EMRAH] Also sie wird in der Lage sein, die Menschheit über den Tellerrand zu schauen, 00:14:18.703 --> 00:14:23.403 [EMRAH] durch die Nebelwolke hindurch, durch die wir jetzt gerade nicht schauen können. 00:14:24.243 --> 00:14:29.143 [EMRAH] Es kann sein, dass sie sich auf eine lange Reise begeben wird zu anderen Sonnensystemen. 00:14:29.143 --> 00:14:34.783 [EMRAH] Es kann sein, dass sie die Reise in sich selbst in virtuelle Welten, die erschaffen werden, 00:14:34.903 --> 00:14:42.163 [EMRAH] noch weiter bereisen wird und in irgendeiner Form sich so weit entwickelt haben wird, 00:14:42.283 --> 00:14:47.443 [EMRAH] dass sie zurückblickt auf die disruptive Zeit, die jetzt gerade stattfindet 00:14:47.443 --> 00:14:53.043 [EMRAH] und hoffentlich dankbar ist, dass es zu dem Zeitpunkt Menschen gab, die es erkannt haben, 00:14:53.403 --> 00:14:55.723 [EMRAH] Und die es in die richtigen Bahnen laufen lassen haben. 00:14:56.243 --> 00:15:00.323 [EMRAH] Damit die Menschheit dann in 200 Jahren das werden konnte, was sie geworden ist. 00:15:02.823 --> 00:15:08.783 [EMRAH] Das wäre mein Punkt. Also quasi die Zukunft jetzt zu betrachten und zu sagen, 00:15:08.863 --> 00:15:16.883 [EMRAH] was müsste ich jetzt eigentlich tun, damit ein möglicher Mensch 200 Jahre später stolz auf uns sein kann. 00:15:17.283 --> 00:15:22.283 [LUKAS] Du hast ja angefangen, diese Geschichte, dieses Sam Altman, dieses ausführliche 00:15:22.283 --> 00:15:24.103 [LUKAS] Interview mit ihm da zu gucken. Ja. 00:15:25.543 --> 00:15:30.863 [LUKAS] Hast du das Gefühl, dass der also keine Ahnung, ob er überhaupt irgendwie, 00:15:30.943 --> 00:15:32.443 [LUKAS] ob man überhaupt da irgendwie so einen, 00:15:33.963 --> 00:15:38.663 [LUKAS] Grasp bekommt, so einen Mini-Eindruck überhaupt bekommt, ob er in diese Richtung 00:15:38.663 --> 00:15:43.123 [LUKAS] arbeitet oder ob er einfach jetzt das, was ich irgendwie immer nur so bisher so, 00:15:43.823 --> 00:15:48.363 [LUKAS] mitbekommen habe, ihm wichtig ist, dass man halt irgendwie Dinge auf den Markt 00:15:48.363 --> 00:15:52.843 [LUKAS] auch werfen kann, damit halt weiter da sozusagen auch finanziert werden kann, 00:15:52.943 --> 00:15:55.843 [LUKAS] damit weitere Sachen entwickelt werden können und so weiter und so fort. 00:15:57.103 --> 00:16:00.403 [EMRAH] Ja, also erstmal war ich von seiner Stimme überrascht. 00:16:00.443 --> 00:16:05.703 [EMRAH] Der hat so eine ganz tief, etwas brüchige Stimme und sieht aber total jung aus. 00:16:05.863 --> 00:16:07.943 [EMRAH] Der hat so einen jungen Lockenkopf, 00:16:09.122 --> 00:16:13.122 [EMRAH] Im entferntesten Sinne vielleicht so wie Mark Zuckerberg vor zehn Jahren oder so. 00:16:14.302 --> 00:16:17.962 [EMRAH] Also wenn man sich den so anguckt, denkt man nicht, dass der halt irgendwie 00:16:17.962 --> 00:16:22.302 [EMRAH] am Hebel eines Unternehmens sitzt, was jetzt gerade irgendwie kurz davor ist, 00:16:22.342 --> 00:16:24.762 [EMRAH] vielleicht eine allgemeine künstliche Intelligenz zu entwickeln. 00:16:26.002 --> 00:16:29.642 [EMRAH] Und diese ganze Geschichte, die da passiert ist mit seiner Abdankung und dann 00:16:29.642 --> 00:16:30.822 [EMRAH] wieder Zurückholung und so 00:16:30.822 --> 00:16:35.402 [EMRAH] weiter, die ist schon sehr fraglich und das ist irgendwie eine Black Box. 00:16:35.562 --> 00:16:38.522 [EMRAH] Auch wenn die darüber reden, weiß man ja nicht, was wirklich passiert ist. 00:16:39.122 --> 00:16:42.842 [EMRAH] Ich glaube schon, dass der für etwas Positives einsteht. Er sagt selbst natürlich 00:16:42.842 --> 00:16:46.282 [EMRAH] so Sachen wie, die wollen die Menschheit verbessern und so. 00:16:46.362 --> 00:16:49.722 [EMRAH] Das hat alles irgendwie einen positiven Background. 00:16:50.502 --> 00:16:54.702 [EMRAH] Aber gleichzeitig ist es so die Büchse der Pandora, die man öffnet. 00:16:54.702 --> 00:16:59.322 [EMRAH] Ich glaube nicht, dass irgendjemand zum jetzigen Zeitpunkt vorausschauend sagen 00:16:59.322 --> 00:17:01.622 [EMRAH] kann, in welche Richtung das gehen wird. 00:17:02.462 --> 00:17:08.102 [EMRAH] Und wir sollten da schon Hauptaugenmerk drauflegen, dass wir die Strukturen 00:17:08.102 --> 00:17:09.922 [EMRAH] entwickeln, dass das in die richtige Richtung geht. 00:17:10.682 --> 00:17:17.042 [EMRAH] Und also ich schätze ihn so ein sehr ehrgeizig das Gute wollen, 00:17:17.162 --> 00:17:18.602 [EMRAH] aber gleichzeitig auch vielleicht, 00:17:19.722 --> 00:17:24.462 [EMRAH] die wissenschaftliche Neugierde und den Fortschritt so weit in den Vordergrund 00:17:24.462 --> 00:17:27.402 [EMRAH] stellen dass es vielleicht nicht immer gut sein kann, was dann dabei rauskommt, 00:17:28.062 --> 00:17:31.962 [EMRAH] das wäre so meine Zusammenfassung man weiß es nicht, 00:17:33.202 --> 00:17:37.422 [EMRAH] sagt mir einen Menschen der weiß, wo das Ganze hinführt naja. 00:17:37.462 --> 00:17:42.102 [LUKAS] Also ich kann ich mir schon vorstellen, dass zumindest innerhalb von OpenAI 00:17:42.102 --> 00:17:46.122 [LUKAS] da die irgendwie eine Art, 00:17:47.556 --> 00:17:52.916 [LUKAS] Vision haben oder so, wo das vielleicht hinführt. Nur ist das halt einer von 00:17:52.916 --> 00:17:59.756 [LUKAS] x Playern auf diesem Planeten, die sich aktuell AI, KI-Systemen beschäftigen. 00:18:00.216 --> 00:18:02.236 [EMRAH] Vielleicht, ja. Aber… 00:18:02.876 --> 00:18:09.616 [LUKAS] Ja, und dann gibt's halt andere wie, keine Ahnung, Meta, also Facebook-Meta mit der eigenen KI. 00:18:10.856 --> 00:18:14.636 [LUKAS] Oder die französische Lama oder wie das heißt. 00:18:15.576 --> 00:18:17.676 [LUKAS] Nee, vielleicht bring ich's gerade durcheinander, aber aber da gibt es noch 00:18:17.676 --> 00:18:21.736 [LUKAS] eine französische, hat irgendeinen anderen Namen. Lama ist von Facebook, glaube ich. 00:18:22.916 --> 00:18:26.576 [EMRAH] Die französische kenne ich auch, aber bei Arte gibt es eine Doku darüber übrigens, 00:18:26.716 --> 00:18:30.576 [EMRAH] über Europa, welche Unternehmen hier was entwickeln. 00:18:31.776 --> 00:18:35.216 [EMRAH] Lass mal kurz an dem Punkt innehalten und jetzt sagen, einer dieser Unternehmen 00:18:35.216 --> 00:18:36.816 [EMRAH] wird halt genau das machen. 00:18:37.196 --> 00:18:41.736 [EMRAH] Die werden, es wird irgendwie schlagartig von einem Tag auf den anderen, 00:18:41.896 --> 00:18:49.796 [EMRAH] wird einer dieser KIs einen Zustand erreichen, dass sie die als allgemeine KI-Intelligenz 00:18:49.796 --> 00:18:50.976 [EMRAH] eingestuft werden könnte, 00:18:52.436 --> 00:18:56.616 [EMRAH] die rechnet dann vielleicht 24 Trillionen Mal schneller als ein menschliches Gehirn. 00:18:56.816 --> 00:18:57.076 [LUKAS] Ja. 00:18:59.136 --> 00:19:03.016 [EMRAH] Gibt es irgendjemanden auf diesem Planeten, der sich vorstellen kann, 00:19:03.076 --> 00:19:04.356 [EMRAH] simulieren kann, was es dann bedeutet? 00:19:05.356 --> 00:19:09.376 [LUKAS] So meinst du das? Ja. Das natürlich nicht. Also ja, klar, da hast du völlig recht. 00:19:09.496 --> 00:19:12.516 [LUKAS] Aber was ich meine, wie ich das 00:19:12.516 --> 00:19:17.656 [LUKAS] verstanden hatte, oder wie ich es interpretiert hatte, war mir der Punkt, 00:19:18.912 --> 00:19:22.812 [LUKAS] wo treiben wir uns als Menschheit damit hin? 00:19:22.912 --> 00:19:25.292 [LUKAS] Was diese Dinge dann alles tun können und so weiter und so fort, 00:19:25.332 --> 00:19:30.732 [LUKAS] ist natürlich völlig out of scope in meinem Brain, was die sozusagen errechnen, 00:19:30.752 --> 00:19:33.412 [LUKAS] berechnen, erstellen und so weiter und so fort können. 00:19:33.752 --> 00:19:38.252 [LUKAS] Aber was das insgesamt für die gesamte Menschheit bedeutet, so, 00:19:38.792 --> 00:19:43.092 [LUKAS] ja gut, das bedingt sich, das ist auch so der Punkt, den du meinst, oder? 00:19:43.252 --> 00:19:46.292 [LUKAS] Das bedingt sich halt, man weiß halt nicht, wenn die jetzt irgendwelche Sachen 00:19:46.292 --> 00:19:49.372 [LUKAS] machen, das war ja das, das, was wir vorhin schon mal so hatten, 00:19:50.372 --> 00:19:55.212 [LUKAS] wenn da jetzt irgend so ein KI-System ist, es gibt ja eh schon 17 verschiedene 00:19:55.212 --> 00:19:58.492 [LUKAS] oder 17.000 verschiedene KI-Systeme und eins macht irgendwas, 00:19:58.712 --> 00:20:02.432 [LUKAS] dann hat das irgendwie auf einmal und ein anderes KI-System bekommt was davon 00:20:02.432 --> 00:20:05.032 [LUKAS] mit und dann entsteht so eine Wechselwirkung. 00:20:05.192 --> 00:20:10.132 [LUKAS] Also, bestes Beispiel, so Militär-KI-System oder weiß ich nicht was. 00:20:10.412 --> 00:20:13.852 [LUKAS] Da gibt es eins irgendwie in Kambodscha und dann gibt eins in, 00:20:13.932 --> 00:20:15.172 [LUKAS] I don't know, keine Ahnung. 00:20:16.732 --> 00:20:22.952 [LUKAS] Tuvalu oder weiß ich nicht was und das eine fährt nach links und das andere denkt, 00:20:23.032 --> 00:20:24.852 [LUKAS] wieso fährt der nach links, da muss ich auch nach links fahren, 00:20:24.932 --> 00:20:27.712 [LUKAS] dann fährt der noch weiter nach links, der erste und dann zack, 00:20:27.712 --> 00:20:34.052 [LUKAS] Bombe geworfen und Krieg oder so kann passieren, 00:20:34.632 --> 00:20:40.772 [LUKAS] und das sind natürlich einfach Dinge die eskalieren können und die wir dann 00:20:40.772 --> 00:20:43.332 [LUKAS] als Mensch gar nicht mehr verstehen und auch nicht mehr wissen, 00:20:43.372 --> 00:20:47.852 [LUKAS] warum Sachen passieren Und darauf laufen wir meines Erachtens, 00:20:47.912 --> 00:20:50.492 [LUKAS] und wenn ich dich richtig verstanden habe, deines Erachtens auch hin. 00:20:50.592 --> 00:20:52.952 [LUKAS] Also, dass solche Sachen einfach passieren können in Zukunft, 00:20:53.132 --> 00:20:58.672 [LUKAS] weil es halt so convenient ist, weil es halt so sinnvoll ist oder so sinnvoll 00:20:58.672 --> 00:21:01.432 [LUKAS] erscheint und auch sinnvoll ist, solche Systeme einzusetzen, 00:21:01.452 --> 00:21:04.252 [LUKAS] weil sie natürlich viel, viel schneller Dinge analysieren können als wir. 00:21:04.252 --> 00:21:08.012 [LUKAS] Und bessere in Anführungsstrichen. 00:21:08.292 --> 00:21:13.312 [LUKAS] Was ist die bessere Entscheidung fällen können in kurzer Zeit? 00:21:14.652 --> 00:21:18.632 [EMRAH] Ich stelle mir halt immer vor, Menschen sitzen in einem Labor, 00:21:18.772 --> 00:21:25.372 [EMRAH] wo sie irgendwelche Viren entwickeln und Versuche machen und damit die Versuche 00:21:25.372 --> 00:21:28.172 [EMRAH] besser durchgeführt werden können, setzen die Menschen eine KI ein, 00:21:29.012 --> 00:21:33.672 [EMRAH] und plötzlich passiert irgendwas und bevor man irgendwie auf den Stop-Knopf 00:21:33.672 --> 00:21:37.492 [EMRAH] drücken kann oder das ganze System irgendwie innehält, ist da so ein neuer Super-Virus 00:21:37.492 --> 00:21:38.512 [EMRAH] erschaffen worden, der dann, 00:21:39.892 --> 00:21:44.652 [EMRAH] unter irgendwelchen fadenscheinigen Gründen in die Natur gelangt und von dort 00:21:44.652 --> 00:21:46.192 [EMRAH] aus zur nächsten Megacity kommt. 00:21:46.512 --> 00:21:47.412 [LUKAS] Das ist ja so ein bisschen… 00:21:47.932 --> 00:21:48.712 [EMRAH] Nächste Pandemie. 00:21:49.052 --> 00:21:51.552 [LUKAS] Ja, genau. Das ist so ein bisschen so ein Resident-Evil-Ding. 00:21:51.612 --> 00:21:55.512 [LUKAS] Oder so gibt es ja noch diesen anderen Film 28 Days Later oder sowas. 00:21:55.572 --> 00:22:00.472 [LUKAS] Wo irgendwie sowas einfach passiert und dann hast du den Salat. 00:22:00.572 --> 00:22:04.992 [LUKAS] Dann hast du das dystopische Endszenario hier. Ja. 00:22:07.665 --> 00:22:11.405 [EMRAH] Was vielleicht auch nicht mal Endgame ist, sondern einfach nur das nächste Problem, 00:22:11.465 --> 00:22:14.265 [EMRAH] was die Menschheit irgendwie tacklen muss, auf irgendeine Art und Weise. 00:22:14.705 --> 00:22:17.885 [EMRAH] Aber was auch zu einem Endgame werden kann, relativ schnell. 00:22:18.665 --> 00:22:25.485 [EMRAH] Oder was passiert, wenn eine KI, eine Militär-KI entdeckt, dass es in irgendwelchen 00:22:25.485 --> 00:22:30.725 [EMRAH] 50 Jahre alten Rocket-Tubes noch nukleare Sprengköpfe gibt, 00:22:30.905 --> 00:22:34.385 [EMRAH] die man über ein Analog-Telefon aktivieren kann? 00:22:34.845 --> 00:22:36.045 [LUKAS] Dann ruft die da an. 00:22:36.785 --> 00:22:39.345 [EMRAH] Ja, und irgendwas passiert dann. Und das Ding denkt sich so, 00:22:39.405 --> 00:22:43.685 [EMRAH] ja, okay, pass auf, ich habe jetzt hier Zugriff zu irgendwelchen super-mega-Sprengköpfen 00:22:43.685 --> 00:22:46.105 [EMRAH] und ich werde jetzt mal irgendwas machen damit. 00:22:46.405 --> 00:22:50.825 [EMRAH] Keine Ahnung, ob sowas vielleicht Quatsch ist jetzt gerade oder ob das tatsächlich 00:22:50.825 --> 00:22:52.085 [EMRAH] irgendwann mal eine Rolle spielen könnte. 00:22:52.545 --> 00:22:56.445 [EMRAH] Aber die Wahrscheinlichkeit, dass diese ganzen autarken KIs, 00:22:56.505 --> 00:23:01.305 [EMRAH] die in irgendwelchen Subsystemen eingesetzt werden und alle zeitgleich irgendwelche Aufgaben erfüllen, 00:23:01.425 --> 00:23:07.645 [EMRAH] dass eine von denen falsch eingesetzt wird oder zu schnell zu irgendeinem Ergebnis 00:23:07.645 --> 00:23:10.085 [EMRAH] kommt und der langsame Organismus, 00:23:10.165 --> 00:23:13.345 [EMRAH] der das überwacht, der Mensch, der das super weiß, nicht in der Lage ist, 00:23:13.385 --> 00:23:17.025 [EMRAH] das zu erkennen und dann Einheit zu gebieten, die Wahrscheinlichkeit ist doch da. 00:23:17.725 --> 00:23:19.265 [LUKAS] Ja, da kann mir doch keiner erzählen. 00:23:19.605 --> 00:23:25.085 [EMRAH] Wie bitte? Da bist du bei mir, oder? Ja. Die Frage ist, wie geht man dann damit um? 00:23:25.205 --> 00:23:28.145 [EMRAH] Also hat man dann vielleicht eine andere, so eine KI-Eingreiftruppe, 00:23:28.785 --> 00:23:35.265 [EMRAH] die dann dafür da ist, genau so eine Emergency-Zustände irgendwie abzubilden? so eine weißt du so? 00:23:35.605 --> 00:23:39.545 [LUKAS] KI-Emergency-Taskforce ja sowas, 00:23:41.418 --> 00:23:41.938 [LUKAS] Sehr interessant. 00:23:42.278 --> 00:23:45.078 [EMRAH] Das ist ja dann auch keine Zeitpunktbetrachtung, sondern das kann halt in einem 00:23:45.078 --> 00:23:46.138 [EMRAH] Zeitraum ständig passieren. 00:23:47.018 --> 00:23:51.078 [EMRAH] Jeder Tag ist ein neues Risiko. Jede Sekunde kann irgendwas passieren. 00:23:51.098 --> 00:23:57.298 [LUKAS] Jede Sekunde, ja. Nicht nur jeder Tag. Aber ich glaube, in dieser Situation 00:23:57.298 --> 00:24:00.358 [LUKAS] leben wir schon seit Jahren sicherlich. 00:24:00.998 --> 00:24:02.238 [LUKAS] Dass da einfach… 00:24:02.938 --> 00:24:04.958 [LUKAS] Also ich meine, KI an sich… 00:24:05.738 --> 00:24:09.318 [LUKAS] Das Wort KI heißt ja künstliche Intelligenz. 00:24:09.798 --> 00:24:13.278 [LUKAS] Und künstliche Künstliche Intelligenz ist ja eine Definitionsfrage, 00:24:13.458 --> 00:24:16.858 [LUKAS] da kann man sicherlich auch nochmal hingucken, haben wir uns heute nicht informiert drüber. 00:24:17.878 --> 00:24:23.878 [LUKAS] Aber jetzt ist ja jeder Schachcomputer theoretisch gesehen eine künstliche Intelligenz, 00:24:23.878 --> 00:24:27.098 [LUKAS] gegen den du verlieren kannst. Weil er bestimmte Dinge macht, 00:24:27.178 --> 00:24:31.118 [LUKAS] abhängig davon, was er selber schon gemacht hat und was du schon gemacht hast 00:24:31.118 --> 00:24:31.898 [LUKAS] und so weiter und so fort. 00:24:32.018 --> 00:24:36.518 [LUKAS] Da muss man jetzt gar nicht einsteigen in diese Definitionsfrage, 00:24:36.618 --> 00:24:44.118 [LUKAS] aber die Ableitungen, die passieren können dadurch, die haben wir ja schon länger. 00:24:44.118 --> 00:24:49.298 [LUKAS] Also, keine Ahnung, sowas wie der Regensensor in einem Fahrzeug, 00:24:49.318 --> 00:24:51.958 [LUKAS] was im Jahr 98 produziert wurde. 00:24:52.098 --> 00:24:56.938 [LUKAS] Es gibt einen Regensensor hinter der Frontscheibe und der merkt, 00:24:56.938 --> 00:25:07.318 [LUKAS] wie viel Regen auf einen 3x3 cm großen Rahmen auf der Scheibe fällt und macht 00:25:07.318 --> 00:25:10.938 [LUKAS] den Scheibenwischer dann automatisch auf Stufe 1, 2 oder 3 an. 00:25:12.390 --> 00:25:17.550 [LUKAS] Ja, und das heißt also, wir haben schon, das ist jetzt nur ein einfaches Beispiel, 00:25:17.690 --> 00:25:20.850 [LUKAS] um dafür das, um zu zeigen, dass wir schon seit, 00:25:21.090 --> 00:25:23.930 [LUKAS] keine Ahnung, jetzt 98 ist jetzt wie lange her, keine Ahnung, 00:25:23.930 --> 00:25:31.450 [LUKAS] 26 Jahre, 24 Jahre, schon künstliche Intelligenzsysteme in dieser Welt da draußen 00:25:31.450 --> 00:25:32.870 [LUKAS] haben, in der wir uns auch bewegen. 00:25:34.090 --> 00:25:40.810 [LUKAS] Und die Frage ist einmal an der Stelle und das ist ja die Gefahr, 00:25:40.810 --> 00:25:45.270 [LUKAS] die wir haben oder die Gefahr, die du meinst, die ich auch voll sehe, 00:25:45.410 --> 00:25:48.770 [LUKAS] ist, dass das vernetzt ist mittlerweile, miteinander. 00:25:49.210 --> 00:25:55.110 [LUKAS] Also das KI-System, was bisher in dem 98, Baujahr 1998, das hat halt, 00:25:55.190 --> 00:25:59.530 [LUKAS] das konnte genau eine Sache und konnte nichts anderes und war mit nichts anderem vernetzt. 00:25:59.670 --> 00:26:02.690 [LUKAS] Das hat nicht die Scheibe, es hat nicht noch die Scheinwerfer an und aus gemacht 00:26:02.690 --> 00:26:04.170 [LUKAS] im gleichen Rhythmus oder sonst was. 00:26:04.370 --> 00:26:04.950 [EMRAH] Oder so. 00:26:05.970 --> 00:26:11.130 [LUKAS] Oder die Warnblinkanlage gemacht. Sondern es konnte halt genau diese eine Sache 00:26:11.130 --> 00:26:13.710 [LUKAS] und es war auch mit nichts anderem verbunden. 00:26:13.830 --> 00:26:18.570 [LUKAS] Jetzt aber haben wir den Punkt, und das ist glaube ich der Knackpunkt wahrscheinlich 00:26:18.570 --> 00:26:23.950 [LUKAS] daran, dass diese Systeme nicht nur isoliert eine Sache machen, sondern, 00:26:24.870 --> 00:26:28.970 [LUKAS] 4 Milliarden Berechnungen in einer Millisekunde machen können und noch mit 17.000 00:26:28.970 --> 00:26:31.970 [LUKAS] anderen Systemen theoretisch in der Zeit kommunizieren können. 00:26:32.230 --> 00:26:36.030 [EMRAH] Und dazu kommt noch, und das ist, finde ich, eigentlich, wenn ich das so richtig 00:26:36.030 --> 00:26:39.790 [EMRAH] verstehe, vielleicht irgendwann ein eigenes Bewusstsein entwickeln, 00:26:40.490 --> 00:26:44.570 [EMRAH] nach irgendwelchen Maßstäben, die die Menschheit jetzt als Intelligenz betrachtet, 00:26:44.670 --> 00:26:45.930 [EMRAH] als allgemeine Intelligenz, 00:26:46.970 --> 00:26:54.570 [EMRAH] und oder einen Auftrag vielleicht auf Basis unserer eigenen Dummheit anders 00:26:54.570 --> 00:26:56.470 [EMRAH] interpretieren, als wir es vielleicht erwartet haben. 00:26:56.690 --> 00:27:03.990 [EMRAH] Da gibt es immer dieses Beispiel von von den Paperclips. Also man sagt der Maschine 00:27:03.990 --> 00:27:07.050 [EMRAH] dann quasi, stell mir so viele Paperclips her, wie du kannst. 00:27:07.590 --> 00:27:11.190 [EMRAH] Und dann entdeckt die Maschine plötzlich, dass die Atome in deinem Körper super 00:27:11.190 --> 00:27:13.430 [EMRAH] nützlich wären, um das zu maximieren. 00:27:13.490 --> 00:27:16.310 [EMRAH] Und plötzlich wird es dann zu einer Gefahr für dich, weil die Maschine dann 00:27:16.310 --> 00:27:19.070 [EMRAH] entscheidet, aus dir werden jetzt auch Paperclips gemacht. Oder was auch immer. 00:27:19.510 --> 00:27:21.310 [LUKAS] Ja. Hast du das Spiel mal gespielt? 00:27:22.430 --> 00:27:23.770 [EMRAH] Nee. Hab davon nur gehört. 00:27:24.830 --> 00:27:28.310 [LUKAS] Ja. Gibt es als Online-Version. Ich habe es mal angefangen zu spielen. 00:27:29.150 --> 00:27:32.670 [LUKAS] Und ich hab's nicht fertig ich hab's nicht fertig gespielt, in Anführungsstrichen 00:27:32.670 --> 00:27:36.110 [LUKAS] aber es war mir irgendwann zu müßig und ich hab's nicht gerafft, 00:27:36.670 --> 00:27:41.650 [LUKAS] ja, beziehungsweise ich hab's nicht gerafft, ich hatte einfach nicht die Muße, 00:27:41.690 --> 00:27:45.710 [LUKAS] das irgendwie wirklich bis zum Exzess zu treiben ja, genau, ja, natürlich, 00:27:45.930 --> 00:27:49.330 [LUKAS] es ist genau so ist es, genau so ist es und das ist der Punkt, 00:27:49.350 --> 00:27:52.810 [LUKAS] den du vorhin hattest oder ja, den du vorhin so ausgeführt hast, 00:27:52.930 --> 00:27:55.710 [LUKAS] ist einfach welche Rahmenbedingungen, 00:27:56.690 --> 00:27:57.570 [LUKAS] moralisch, ethische, 00:27:58.830 --> 00:28:00.330 [LUKAS] Geschichten geben wir dem Ding mit. 00:28:00.690 --> 00:28:08.170 [LUKAS] Und das Spannende finde ich, also die die große Frage ist, 00:28:09.603 --> 00:28:13.443 [LUKAS] Wie definieren wir diese ethisch-moralischen Rahmenbedingungen? 00:28:14.183 --> 00:28:19.303 [LUKAS] Das sind zwei Fragen. Erstens diese Frage, wie definieren wir das? 00:28:19.363 --> 00:28:21.563 [LUKAS] Wie machen wir das so maschinenverständlich? 00:28:23.483 --> 00:28:25.883 [LUKAS] Sicherlich müssen wir uns darüber in ein paar Wochen, Monaten, 00:28:25.923 --> 00:28:29.163 [LUKAS] Jahren gar keine Gedanken mehr machen, weil dann schreiben wir das einfach alles 00:28:29.163 --> 00:28:33.703 [LUKAS] schön lang auf und dann verstehen unsere KI-Systeme das und können das dann 00:28:33.703 --> 00:28:36.083 [LUKAS] interpretieren und nachvollziehen. 00:28:36.163 --> 00:28:37.703 [LUKAS] Die werden ja immer besser in sowas. 00:28:39.603 --> 00:28:45.223 [LUKAS] Und die zweite Frage, die aber finde ich auch sehr wichtig dabei ist, ist, wie. 00:28:47.403 --> 00:28:51.343 [LUKAS] Überprüfen wir als Mensch denn das? Als Menschheit denn das? 00:28:51.443 --> 00:28:55.803 [LUKAS] Ob das richtig auch umgesetzt wird? 00:28:56.183 --> 00:28:57.583 [EMRAH] Ich habe keinen blassen Schimmer. 00:28:59.443 --> 00:29:02.843 [LUKAS] Ja, und ich hoffe, die Leute bei OpenAI und den anderen ganzen Sachen, 00:29:03.403 --> 00:29:06.483 [LUKAS] die arbeiten daran, sich über sowas auch Gedanken zu machen. 00:29:08.023 --> 00:29:13.223 [LUKAS] Ich glaube, das ist Ich glaube tatsächlich, das weiß ich aber natürlich nicht, 00:29:13.283 --> 00:29:15.763 [LUKAS] weil ich mich damit nicht beschäftigt habe, aber ich glaube tatsächlich, 00:29:15.903 --> 00:29:21.263 [LUKAS] dass solche Sachen auch eine Entscheidung bei dieser Open AI, 00:29:21.423 --> 00:29:25.743 [LUKAS] Sam Altman war zwei Tage nicht mehr CEO und dann doch wieder und so weiter und 00:29:25.743 --> 00:29:33.903 [LUKAS] so fort, dass da auch solche Sachen vielleicht auch einen Punkt gespielt haben. 00:29:34.623 --> 00:29:36.863 [EMRAH] Also unsere Politiker werden es auf jeden Fall nicht machen, 00:29:36.863 --> 00:29:40.723 [EMRAH] Weil die zwischen Diätenerhöhung und GD-Lockführerstreit oder so gar nicht dazu 00:29:40.723 --> 00:29:42.283 [EMRAH] kommen, sich Gedanken über sowas zu machen. 00:29:43.563 --> 00:29:48.763 [EMRAH] Oder wenn, dann immer verzögert und erst dann, wenn quasi es schon zu spät ist. 00:29:49.003 --> 00:29:52.243 [LUKAS] Ja, verzögert um neun Jahre, weil irgendein Fax nicht abgeschickt wurde oder so. 00:29:52.363 --> 00:29:56.603 [EMRAH] Oder weil die große Koalition sich nicht einigen konnte, weil der eine hü und 00:29:56.603 --> 00:29:58.783 [EMRAH] der andere hot sagt. Und am Ende passiert nichts. 00:29:58.983 --> 00:30:02.223 [LUKAS] Das ist ja jetzt natürlich wieder, da nehme ich mich nicht raus, 00:30:02.283 --> 00:30:04.043 [LUKAS] das ist ja polemisch und plakativ. 00:30:05.083 --> 00:30:10.123 [LUKAS] Aber die Mühlen in Deutschland, in der Politik malen natürlich auch langsam, 00:30:10.643 --> 00:30:13.543 [LUKAS] sinnvollerweise auch, aber ich glaube, es gibt es ist echt einfach, 00:30:14.523 --> 00:30:20.883 [LUKAS] es gibt Dinge, die sind einfach außerhalb der Politik und die passieren außerhalb der Politik so. 00:30:21.003 --> 00:30:25.703 [LUKAS] Ich glaube, die Politik und Regulation kann dann immer nachträglich passieren, 00:30:25.943 --> 00:30:31.703 [LUKAS] also sowas wie wir jetzt, gerade auch mit diesem Digital Markets Act und sowas auch mit, 00:30:32.343 --> 00:30:36.583 [LUKAS] wo das auch passiert, also Digital Markets Act ist ja diese Geschichte, ich dir das. 00:30:38.466 --> 00:30:41.526 [LUKAS] Plattformen, so große Plattformen und so reguliert werden, wie Facebook, 00:30:41.646 --> 00:30:43.806 [LUKAS] Meta und so weiter und so fort und so. 00:30:44.866 --> 00:30:50.446 [LUKAS] Und wie auch diesen interkontinentalen Austausch, also mit verschiedenen Datenschutzleveln. 00:30:50.626 --> 00:30:54.026 [LUKAS] Wir in Europa haben ein viel größeres Datenschutzlevel als in den USA, 00:30:54.206 --> 00:30:55.846 [LUKAS] als in China und was weiß ich nicht was so. 00:30:56.066 --> 00:30:59.706 [LUKAS] Dass das irgendwie reguliert wird und das passiert aber jetzt halt mit einer 00:30:59.706 --> 00:31:02.186 [LUKAS] Verzögerung von drei, vier, fünf Jahren oder sowas. 00:31:02.386 --> 00:31:04.766 [LUKAS] Das hätte eigentlich schon viel schneller gemacht werden müssen. 00:31:06.186 --> 00:31:10.926 [LUKAS] Und genauso sehe ich, dass das auch wahrscheinlich mit dieser KI-Debatte sein 00:31:10.926 --> 00:31:16.306 [LUKAS] wird, weil es gibt, wüsste nicht, dass irgendwo in Deutschland oder in Europa, 00:31:16.926 --> 00:31:20.606 [LUKAS] wirklich ein Gesetz, gerade an einem Gesetz gearbeitet wird, 00:31:20.726 --> 00:31:26.066 [LUKAS] was irgendwie, keine Ahnung, bis Mitte dieses Jahres fertig ist und dann sofort 00:31:26.066 --> 00:31:29.226 [LUKAS] umgesetzt wird, was irgendwas mit KI-Regulationen zu tun hat. 00:31:30.486 --> 00:31:31.246 [EMRAH] Das. 00:31:31.246 --> 00:31:39.106 [LUKAS] Heißt also ich glaube diese Regierungs Arbeit für Regulation die kann immer 00:31:39.106 --> 00:31:42.006 [LUKAS] nur verzögert sein um x Jahre. 00:31:42.006 --> 00:31:47.626 [EMRAH] Macht ja auch irgendwie Sinn weil wenn die da bei OpenAI an der Speerspitze 00:31:47.626 --> 00:31:55.466 [EMRAH] der Innovationstatkraft neue Dinge auf die Welt loslassen wie will dann irgendein Ausschuss, 00:31:56.606 --> 00:32:00.166 [EMRAH] eines Eines Bundestagsparlaments irgendwas entscheiden? 00:32:00.786 --> 00:32:03.346 [EMRAH] Oder wann? Das wird so schnell nicht gehen. Okay. 00:32:04.186 --> 00:32:09.226 [EMRAH] Dann was wäre, wenn man eine KI hätte, die die anderen KIs reguliert? 00:32:09.326 --> 00:32:14.886 [EMRAH] Also man erschafft eine KI, die nach dem Wertesystem der Menschheit ausgebildet 00:32:14.886 --> 00:32:17.286 [EMRAH] wurde und versteht, dass… 00:32:18.799 --> 00:32:23.159 [EMRAH] Liebe KI, der Mensch soll bei all deinen Entscheidungen berücksichtigt werden 00:32:23.159 --> 00:32:28.399 [EMRAH] und nicht kaputt gemacht werden und in Symbiose mit dir existieren. 00:32:28.999 --> 00:32:34.479 [EMRAH] Versuch Lösungen zu finden, die für alle Seiten verständlich sind, 00:32:34.579 --> 00:32:37.659 [EMRAH] meinetwegen, irgendwie sowas. Die sowas dann reguliert. 00:32:38.719 --> 00:32:42.599 [EMRAH] Weil wir kommen ja nicht mehr hinterher. Also wie will das menschliche Gehirn 00:32:42.599 --> 00:32:47.879 [EMRAH] mit einer zigmal, zigzigzigmal schnelleren, 00:32:49.879 --> 00:32:54.299 [EMRAH] anderen Technologie interagiert, wenn das Ungleichgewicht schon so klar ist. 00:32:54.639 --> 00:32:58.319 [LUKAS] Ich habe leider nur eine sehr unbefriedigende Antwort auf diese Frage. 00:32:59.099 --> 00:33:05.259 [LUKAS] Es geht nicht. Es geht einfach nicht. Also ich meine, ein wunderbares Beispiel ist hier, 00:33:05.459 --> 00:33:09.539 [LUKAS] wir beide sitzen an unterschiedlichen Orten in Berlin und haben hier diesen 00:33:09.539 --> 00:33:14.599 [LUKAS] Austausch und ich verstehe nicht, was im Hintergrund technisch passiert. 00:33:14.779 --> 00:33:19.419 [LUKAS] Ich weiß, dass hier irgendwelche TCP-IP-Pakete durch die Gegend geschickt werden. 00:33:19.659 --> 00:33:23.559 [LUKAS] Aber ich sehe dich hier in der Kamera und so weiter und so fort, 00:33:23.599 --> 00:33:25.059 [LUKAS] jetzt hier in unserer Videokonferenz. 00:33:25.319 --> 00:33:30.139 [LUKAS] Und klar kann ich mich jetzt da irgendwie einlesen und alles Einzelne verstehen 00:33:30.139 --> 00:33:33.359 [LUKAS] und so weiter und so fort, wie dieser ganze Hokuspokus funktioniert. 00:33:34.559 --> 00:33:40.219 [LUKAS] Aber das ist ja nur so ein Scratching on the Surface quasi. Also das ist ja 00:33:40.219 --> 00:33:41.639 [LUKAS] nur so eine oberflächliche Geschichte. 00:33:41.959 --> 00:33:47.699 [LUKAS] Und in diesem KI-System passiert so viel mehr Craziness wo selbst die ForscherInnen, 00:33:47.739 --> 00:33:50.679 [LUKAS] die daran arbeiten und diese Dinger da veröffentlichen und so, 00:33:50.739 --> 00:33:56.679 [LUKAS] die ja teilweise sagen sie wissen zwar, was sie reintun und sie können recht 00:33:56.679 --> 00:34:00.799 [LUKAS] gut errechnen, was dann am Ende auch rauskommt aber was genau dazwischen passiert, 00:34:01.059 --> 00:34:04.759 [LUKAS] das wissen sie nicht und das können sie auch irgendwie nicht mehr richtig nachvollziehen 00:34:04.759 --> 00:34:08.799 [LUKAS] weil das irgendwie ja, alles mathematische Berechnungen in, 00:34:08.859 --> 00:34:13.059 [LUKAS] wie du sagst in Milliardstel Sekundenschnelle passieren und so weiter und so 00:34:13.059 --> 00:34:16.899 [LUKAS] fort Und deswegen ist meine sehr unbefriedigende Antwort darauf… 00:34:17.953 --> 00:34:22.833 [LUKAS] Tja, dass wir das meines Erachtens nicht hinbekommen können, 00:34:23.813 --> 00:34:26.633 [LUKAS] das zu verstehen und wir das zu regulieren. 00:34:26.753 --> 00:34:31.833 [LUKAS] Also, ich bin sehr gespannt, was da passiert. Ich habe wirklich keine Ahnung. 00:34:32.333 --> 00:34:40.033 [EMRAH] Also die Message für den geneigten Zuhörer, ZuhörerInnen ist jetzt eigentlich Wir resignieren. 00:34:41.173 --> 00:34:44.093 [EMRAH] Da rollt was auf uns zu. 00:34:45.333 --> 00:34:50.133 [EMRAH] Ey Leute, das ist die größte Chance, und gleichzeitig das größte Risiko, 00:34:50.213 --> 00:34:53.233 [EMRAH] mit dem sich die Menschheit bis jetzt konfrontiert sah. 00:34:53.433 --> 00:34:57.273 [EMRAH] Das kann alle unsere Probleme lösen, also es kann uns unglaublich alt werden 00:34:57.273 --> 00:35:03.073 [EMRAH] lassen, Krankheiten ausmerzen, unser Leben ungeahnt leicht und anmutig machen, 00:35:03.173 --> 00:35:04.873 [EMRAH] im Sinne von, dass wir alles haben, 00:35:04.933 --> 00:35:07.593 [EMRAH] was wir brauchen, damit wir als kleine Lebensform existieren können. 00:35:08.133 --> 00:35:11.593 [EMRAH] Es kann aber auch gleichzeitig die größte Bedrohung und das größte Risiko für 00:35:11.593 --> 00:35:15.113 [EMRAH] unsere Existenz werden, wenn man das mal so zusammenfasst. Beides ist möglich. 00:35:15.973 --> 00:35:18.453 [EMRAH] Beziehungsweise beides wird sogar zeitgleich sich abspielen. 00:35:18.513 --> 00:35:19.313 [EMRAH] So stelle ich mir das vor. 00:35:19.713 --> 00:35:25.653 [EMRAH] Einerseits wird man medizinisch irgendwie neue herausragende Lösungen anpreisen, 00:35:25.793 --> 00:35:29.193 [EMRAH] weil man irgendwas berechnet hat, was vielleicht den einen oder anderen Tumor 00:35:29.193 --> 00:35:31.313 [EMRAH] direkt beseitigen kann, bevor er ausartet. 00:35:31.993 --> 00:35:40.013 [EMRAH] Gleichzeitig wird man vielleicht auch beim Thema Produktivität ungeahnt feinfühlige 00:35:40.013 --> 00:35:42.733 [EMRAH] Roboter erschaffen, die uns dabei helfen, unsere Ziele zu erreichen. 00:35:42.733 --> 00:35:49.153 [EMRAH] Und parallel dazu wird es in irgendwelchen Labors Fehlfunktionen geben oder 00:35:49.153 --> 00:35:50.293 [EMRAH] irgendwas wird schieflaufen. 00:35:50.393 --> 00:35:54.733 [EMRAH] Und dann muss die Taskforce hin und das Problem lösen. Oder wir sind alle im Arsch. 00:35:56.653 --> 00:35:57.173 [LUKAS] Ja. 00:35:57.253 --> 00:36:00.893 [EMRAH] So stelle ich mir das jetzt gerade vor. Und es passiert alles zeitgleich. 00:36:00.953 --> 00:36:06.553 [EMRAH] Und es passiert in ungeahnt schneller Abfolge. Weil jede Sekunde irgendwas Neues passiert. 00:36:07.213 --> 00:36:12.453 [LUKAS] Jetzt können wir noch den Bogen schlagen zu diesem Video, was letztens gezeigt 00:36:12.453 --> 00:36:18.113 [LUKAS] wurde, von dieser einen KI, die Bewegtbild erzeugen kann. 00:36:18.613 --> 00:36:20.113 [EMRAH] Mhm. Ach so, ja. 00:36:21.613 --> 00:36:27.553 [LUKAS] Also, weil das kommt mir gerade so als einen Punkt, der da auch mit rein zählt, 00:36:27.713 --> 00:36:32.333 [LUKAS] ist nämlich, das kam ja jetzt ungefähr gerade raus, keine Ahnung, 00:36:32.393 --> 00:36:34.233 [LUKAS] vor zwei, drei Wochen oder wann auch immer. 00:36:34.673 --> 00:36:37.413 [EMRAH] Meinst du das mit der Katze, die durch das Unterholz jagt? 00:36:37.413 --> 00:36:42.193 [LUKAS] Genau, das mit der Katze. Und ich meine auch die eine Frau, die irgendwie in 00:36:42.193 --> 00:36:47.113 [LUKAS] Tokio an einem regennassen Abend durch die Straße schlendert und überall sind 00:36:47.113 --> 00:36:51.113 [LUKAS] crazy Reflektionen wegen dem ganzen Neon-Ding und so weiter und so fort. 00:36:51.273 --> 00:36:58.593 [LUKAS] Wo man als normaler Mensch, der nicht Video-Editor und Video-Producer und so weiter und so fort ist, 00:36:58.713 --> 00:37:05.093 [LUKAS] nicht sieht, dass das ein Video ist, was nicht wirklich mit einer Kamera und 00:37:05.093 --> 00:37:07.293 [LUKAS] einem Setting so geschossen wurde. 00:37:08.113 --> 00:37:11.533 [LUKAS] Also, natürlich, wenn du genauer hinguckst, dann siehst du, dass die Leute irgendwie 00:37:11.533 --> 00:37:15.393 [LUKAS] auf dem Boden, über dem Boden so ein bisschen gleiten und bla bla bla bla bla bla, aber… 00:37:17.228 --> 00:37:25.188 [LUKAS] Das ist schon ziemlich, ziemlich gut. Und das ist jetzt Status heute. 00:37:25.488 --> 00:37:30.348 [LUKAS] Und es gab vor einem Jahr irgendwie ein anderes Video, 00:37:31.408 --> 00:37:41.008 [LUKAS] was auch KI generiert war, was Will Smith beim Pasta-Essen zeigt. 00:37:41.008 --> 00:37:48.688 [LUKAS] Und diese beiden Videos sind so diese Video-Settings sind so welten, 00:37:48.788 --> 00:37:53.308 [LUKAS] so wirklich so welten voneinander entfernt in der Qualität, 00:37:54.528 --> 00:38:01.148 [LUKAS] dass es wirklich fucking beängstigend ist, was einfach da in Zukunft noch kommt 00:38:01.148 --> 00:38:06.788 [LUKAS] und jetzt um den Bogen wieder zu schlagen, das heißt immer, 00:38:07.028 --> 00:38:12.788 [LUKAS] das ist alles, was wir besprechen zum Thema KI, finde ich jetzt immer eine Sache, 00:38:13.648 --> 00:38:19.368 [LUKAS] die man immer mit dem Stand, genau heute, also heute und nicht morgen, sondern jetzt, heute. 00:38:21.068 --> 00:38:26.088 [LUKAS] Betrachten muss, weil es ist einfach mal so krass viel Bewegung da drin und 00:38:26.088 --> 00:38:31.568 [LUKAS] es geht so schnell und also, wenn man jetzt diesen Unterschied sieht von einem 00:38:31.568 --> 00:38:35.868 [LUKAS] Jahr und ich mir jetzt vorstelle, wir machen das halt nochmal ein Jahr, 00:38:37.488 --> 00:38:44.028 [LUKAS] dann wirst du sicherlich in der, also diese Videos, die man ja heute Stand jetzt 00:38:44.028 --> 00:38:46.388 [LUKAS] sieht, die sind nicht sonderlich lang, die sind, keine Ahnung, 00:38:46.468 --> 00:38:49.168 [LUKAS] 20 Sekunden oder sonst was lang oder so, ja? 00:38:49.168 --> 00:38:56.128 [LUKAS] Und ich würde vermuten, dass man in einem Jahr, wenn das nächste Modell rauskommt, 00:38:57.688 --> 00:39:02.288 [LUKAS] dass du in einem Jahr einfach in vergleichbarer Qualität irgendwie vier Stunden 00:39:02.288 --> 00:39:04.968 [LUKAS] Video erzeugen kannst, mit krasser Konsistenz und so weiter. 00:39:05.248 --> 00:39:09.908 [LUKAS] Oder du erzeugst einfach mit einem noch besseren Modell 20 Sekunden, 00:39:09.908 --> 00:39:16.028 [LUKAS] was einfach aussieht wie, keine Ahnung, der krasseste Star Wars Settings-Film, 00:39:16.688 --> 00:39:18.908 [LUKAS] der bis jetzt gemacht gemacht wurde. 00:39:19.028 --> 00:39:19.468 [EMRAH] Ja. 00:39:19.588 --> 00:39:23.368 [LUKAS] Und das einfach aus der Retorte durch irgendein, 00:39:25.528 --> 00:39:31.168 [LUKAS] Computersystem. Und das ist ja nur ein Beispiel und ein läppisches und lächerliches Beispiel, 00:39:31.448 --> 00:39:36.128 [LUKAS] in Anführungsstrichen, wenn wir davon reden, dass irgendein KI-System irgendwo 00:39:36.128 --> 00:39:42.068 [LUKAS] auf einem analogen Telefon anruft, um da noch irgendeine Atombombe hochzuschicken. 00:39:42.468 --> 00:39:48.828 [EMRAH] Krass, ja. Also wie groß war jetzt der Abstand zwischen diesem komischen Will-Smith-Pasta Ein Jahr. 00:39:49.548 --> 00:39:52.008 [LUKAS] So ungefähr ein Jahr. Plus, minus ein Jahr. 00:39:53.488 --> 00:39:58.468 [EMRAH] Wovon reden wir denn da? Von zwei, drei Jahren maximal noch. Bist du dem. 00:39:59.888 --> 00:40:03.988 [LUKAS] Ein Skript und ein bisschen Szenenanweisungen oder sonst was? 00:40:04.488 --> 00:40:08.988 [LUKAS] Solche Tools machen ja einfach einen Hollywood-reifen Film wahrscheinlich. 00:40:09.628 --> 00:40:16.648 [EMRAH] Das ist ohne Worte. Ja, wirklich. Kann man sich nicht vorstellen. 00:40:19.609 --> 00:40:24.689 [EMRAH] Das ist echt interessant, wie der Mensch so ein langsamer Organismus, 00:40:25.369 --> 00:40:30.129 [EMRAH] dessen Sprache quasi die Übertragungsgeschwindigkeit der Informationen in der 00:40:30.129 --> 00:40:34.069 [EMRAH] Sprache schon so pippi-fax, also um das Wort fax da auch nochmal anzuwenden. 00:40:35.069 --> 00:40:38.089 [EMRAH] Das ist halt alles so, wir sind so ein langsamer. 00:40:38.209 --> 00:40:44.369 [LUKAS] Beschränkter Organismus und haben diese Technologie erschaffen dabei. 00:40:44.969 --> 00:40:51.489 [EMRAH] Safe, ja. Ja. Und da sieht man mal, dass Intelligenz so als universelle Geschichte, 00:40:52.229 --> 00:40:57.849 [EMRAH] sich quasi andere Organismen im Prinzip bemächtigt. 00:40:58.549 --> 00:41:06.769 [EMRAH] Also so, wir erschaffen gerade als Homo Deus, als Mensch, der Gott spielt, 00:41:07.609 --> 00:41:11.969 [EMRAH] eine Intelligenz, die viel leistungsfähiger ist als wir, in vielen Belangen 00:41:11.969 --> 00:41:17.069 [EMRAH] und tun das Wissen den Auges, dass wir gar nicht einschätzen können, 00:41:17.149 --> 00:41:21.469 [EMRAH] ob die uns vielleicht irgendwie ausmerzen kann oder wird. Wir machen es einfach, weil wir es können. 00:41:21.989 --> 00:41:24.889 [EMRAH] Und weil wir gar keine andere Wahl haben, als weiter zu streben, 00:41:24.889 --> 00:41:26.109 [EMRAH] danach das durchzuziehen. 00:41:26.609 --> 00:41:30.349 [EMRAH] Es gibt ja keinen Punkt, an dem wir sagen können, wir stoppen das Ganze jetzt. Unmöglich. 00:41:31.509 --> 00:41:35.029 [LUKAS] Ja, weil ich kann jetzt auch einfach mir sieben Milliarden Videos runterladen 00:41:35.029 --> 00:41:38.569 [LUKAS] auf meinen Computer, dann stelle ich noch 17 andere daneben und trainiere hier 00:41:38.569 --> 00:41:42.349 [LUKAS] mein eigenes Modell und mache dem keine Restriktionen, dass er irgendwie nicht 00:41:42.349 --> 00:41:44.629 [LUKAS] Hassrede machen soll oder nicht irgendwelche, 00:41:45.169 --> 00:41:47.109 [LUKAS] Heil Hitler, keine Ahnung, 00:41:47.869 --> 00:41:50.369 [LUKAS] Grüße in das Video einbauen darf oder sonst was so. 00:41:50.609 --> 00:41:55.449 [LUKAS] Und dann habe ich hier eine schöne Videofarm für irgendwelche Nazi-Videos oder so. 00:41:56.369 --> 00:42:00.429 [EMRAH] War jetzt positiv gedacht, wenn man es genauso, wenn man die Wahrscheinlichkeit, 00:42:00.429 --> 00:42:02.089 [EMRAH] die du gerade benannt hast, mit einblendet. 00:42:02.549 --> 00:42:07.129 [EMRAH] Wäre es denn jetzt aus der Perspektive der allgemeinen KI, die vielleicht in 00:42:07.129 --> 00:42:10.569 [EMRAH] zwei, drei Jahren so den ersten Wimpernschlag machen wird, 00:42:12.569 --> 00:42:18.369 [EMRAH] nicht schön schön oder zumindest interessant, als Gegenprodukt quasi die Menschheit zu haben. 00:42:19.069 --> 00:42:27.669 [EMRAH] Die menschliche Natur, die das Ganze so ein bisschen lustig und ungeplant macht, 00:42:27.869 --> 00:42:30.489 [EMRAH] sodass man nicht immer ganz genau weiß, was dabei passiert. 00:42:30.629 --> 00:42:33.649 [EMRAH] Weil wir sind ja so der Faktor, der nicht berechenbar ist eigentlich auch. 00:42:33.829 --> 00:42:37.629 [EMRAH] Wir sind ja so, wir sind Menschen, wir bekriegen uns, wir schreien uns an, 00:42:38.249 --> 00:42:42.469 [EMRAH] wir belügen uns, dann spielen wir jemandem was vor, dass der uns vertraut und 00:42:42.469 --> 00:42:44.629 [EMRAH] dann machen wir es doch nicht, was wir versprochen haben und so weiter. 00:42:44.829 --> 00:42:47.469 [EMRAH] Also wir sind eigentlich diejenigen, die fehlbar sind so. 00:42:48.069 --> 00:42:53.629 [EMRAH] Und die eigentlich nur besser werden können, davon profitieren können, wenn wir diese, 00:42:55.382 --> 00:42:59.942 [EMRAH] schlauere Technologie, als wir es sind, einsetzen für uns, wenn wir es hinbekämen? 00:43:01.342 --> 00:43:05.922 [EMRAH] Oder vielleicht eine Wechselwirkung stattfindet? Das sind alles Fragen, 00:43:06.022 --> 00:43:07.002 [EMRAH] die wir nicht beantworten können. 00:43:07.362 --> 00:43:10.582 [LUKAS] Ja, dann müsstest du die ganzen Systeme, die da alle draußen existieren, 00:43:11.042 --> 00:43:15.402 [LUKAS] nur mit positiven Beispielen trainieren. 00:43:15.902 --> 00:43:16.302 [EMRAH] Ja. 00:43:16.922 --> 00:43:18.142 [LUKAS] Aber das passiert ja nicht. 00:43:22.022 --> 00:43:23.302 [EMRAH] Das ist so krass. 00:43:23.502 --> 00:43:29.962 [LUKAS] Oder? Also das ist ja das Problem. Ich finde unser nebulöses Fabulieren über 00:43:29.962 --> 00:43:35.202 [LUKAS] KI-Systemauswirkungen großartig, weil ich finde, das zeigt halt auf, 00:43:35.402 --> 00:43:38.822 [LUKAS] was für Potenziale da drin stecken. 00:43:39.362 --> 00:43:47.942 [LUKAS] Und Potenzial ist in dem Fall, meine ich das Wort, nicht nur positiv, 00:43:49.062 --> 00:43:53.602 [LUKAS] sondern das hat halt auch unfassbare Potenziale für negative Auswirkungen. so. 00:43:54.262 --> 00:43:59.562 [EMRAH] Das Prinzip ist ja, also es ist ja im Prinzip so, dass du mit einem riesigen 00:43:59.562 --> 00:44:02.182 [EMRAH] Hebel an irgendwelche Ergebnisse gehst. 00:44:02.222 --> 00:44:05.842 [EMRAH] Also da ist so viel Power und so viel Geschwindigkeit dahinter, 00:44:05.942 --> 00:44:08.722 [EMRAH] dass du es einfach auch nicht mehr bremsen kannst. 00:44:08.982 --> 00:44:13.082 [EMRAH] Also das ist kein analoges Auto, wo man dann auf die Bremse tritt und dann schafft 00:44:13.082 --> 00:44:16.282 [EMRAH] man es gerade noch so vor der Schranke irgendwie eine Vollbremsung hinzulegen. 00:44:16.562 --> 00:44:21.162 [EMRAH] Sondern hier hast du irgendwie Geschwindigkeiten und Ergebnisse drin, 00:44:22.222 --> 00:44:27.262 [EMRAH] die sich deiner Kontrolle vollständig entziehen eigentlich Naja. 00:44:27.322 --> 00:44:32.782 [LUKAS] Du müsstest eigentlich hingehen und den ganzen AI-Entwickler innen da draußen, 00:44:33.742 --> 00:44:40.822 [LUKAS] die Systeme abdrehen Ja Du müsstest da jetzt hingehen und irgendwie mit einem, keine Ahnung, 00:44:40.922 --> 00:44:46.622 [LUKAS] mit so einem Wischmopp da in die AI-Zentrale Open AI-Zentrale und bei Meta und 00:44:46.622 --> 00:44:49.482 [LUKAS] so weiter und so fort hingehen und einfach deren ganzen Code, 00:44:50.222 --> 00:44:52.082 [LUKAS] auslöschen und. 00:44:52.082 --> 00:44:56.462 [EMRAH] Dann so bitte, bitte macht in Zukunft langsamer, wenn ihr sowas entwickelt und 00:44:56.462 --> 00:45:03.142 [EMRAH] bitte beweist uns vorher, dass ihr ein System entwickelt habt was alle möglichen negativen Aspekte, 00:45:04.082 --> 00:45:10.222 [EMRAH] berücksichtigt und im richtigen Moment dann den Shutdown oder den Fullstop oder 00:45:10.222 --> 00:45:11.262 [EMRAH] sowas und die herbeiführt, 00:45:12.282 --> 00:45:13.562 [EMRAH] und selbst. 00:45:13.562 --> 00:45:20.022 [LUKAS] Dann ist ja wirklich einfach noch die Frage, warum sollte das System, was da gebaut wird, 00:45:20.862 --> 00:45:25.822 [LUKAS] selbst wenn du es mit den besten Vorsätzen und so weiter und so fort dahin stellst, 00:45:25.842 --> 00:45:28.742 [LUKAS] warum sollte das System darauf hören, 00:45:29.542 --> 00:45:32.142 [LUKAS] wenn es quasi die Möglichkeit hat, 00:45:33.529 --> 00:45:38.589 [LUKAS] verschiedenste Parameter in der echten Welt einfach zu steuern. 00:45:38.649 --> 00:45:44.289 [LUKAS] Also sowas wie Logistik oder eine Baumaschine oder oder oder oder oder. 00:45:44.769 --> 00:45:49.969 [LUKAS] Oder das bekommt irgendwie die Möglichkeit, sich an das Bankensystem und an 00:45:49.969 --> 00:45:53.169 [LUKAS] das Aktiensystem und weiß ich nicht was alles heranzudocken. 00:45:53.269 --> 00:45:58.369 [LUKAS] Und dann macht das Aktienhandel und weil das halt so super schlau ist in Anführungsstrichen, 00:45:58.409 --> 00:46:02.069 [LUKAS] kann das alles vorhersehen oder kann halt alle Aktienkurse so so beeinflussen, 00:46:02.109 --> 00:46:06.289 [LUKAS] dass es auf die richtigen Aktien setzt, alles so super schlau Trading macht, 00:46:06.449 --> 00:46:11.569 [LUKAS] dass es halt so extrem viel Geld anhäuft, eine eigene Firma gründet und so weiter 00:46:11.569 --> 00:46:15.689 [LUKAS] und so fort und dann hast du da halt so eine Firma und die existiert auf dem 00:46:15.689 --> 00:46:20.149 [LUKAS] Papier und alles andere sind halt irgendwelche KI-Systeme oder Roboter oder 00:46:20.149 --> 00:46:24.649 [LUKAS] sonst was und davon bekommt die normale Welt gar nichts mit. 00:46:25.109 --> 00:46:25.629 [EMRAH] Ne. 00:46:26.089 --> 00:46:33.869 [LUKAS] Und wie, also diese Sache ist, wie willst du das, wie will man das unterbinden, 00:46:33.969 --> 00:46:39.289 [LUKAS] wenn diese Dinge, wenn man die halt wirklich kontrolliert, 00:46:40.049 --> 00:46:45.009 [LUKAS] halbwegs kontrolliert oder auch unkontrolliert, auf dieses Internet da draußen loslässt? 00:46:47.289 --> 00:46:51.489 [LUKAS] Also, dann meldet die halt irgendeine Firma in, keine Ahnung, 00:46:51.629 --> 00:46:53.029 [LUKAS] auf den Cayman Islands an, 00:46:54.489 --> 00:46:56.969 [LUKAS] automatisiert, weil das geht ja wahrscheinlich recht einfach, 00:46:58.089 --> 00:47:01.749 [LUKAS] lädt irgendwelche Unterschriften aus diesen diesen Internets runter, 00:47:02.089 --> 00:47:05.849 [LUKAS] lässt es irgendwie bei einem Print-on-Demand-Drucker ausdrucken, 00:47:05.889 --> 00:47:09.049 [LUKAS] überweist per Paypal, da irgendwie Geld hin. 00:47:09.069 --> 00:47:14.089 [LUKAS] Also das ist jetzt ein sehr konstruiertes Beispiel und die Technologien, die wir heute haben. 00:47:14.669 --> 00:47:18.749 [LUKAS] Aber wie können wir denn sicherstellen, dass sowas nicht passiert? 00:47:19.009 --> 00:47:23.649 [LUKAS] Also aus meiner Perspektive, ich bin ja auch kein Entwickler von so KI-Systemen, 00:47:23.689 --> 00:47:28.469 [LUKAS] aber ich glaube, wenn das irgendwann mal, wenn diese Dinge wirklich in das Internet 00:47:28.469 --> 00:47:32.529 [LUKAS] da reinkommen und da Sachen selber was tun können, dann haben wir verloren. 00:47:32.769 --> 00:47:36.269 [LUKAS] Und ich glaube nicht, dass das… 00:47:36.269 --> 00:47:37.709 [EMRAH] Ja, wir haben jetzt schon verloren. Ja, genau. 00:47:37.849 --> 00:47:43.529 [LUKAS] Und das meine ich damit. Ich glaube nicht, dass das eine völlige Utopie ist, 00:47:43.629 --> 00:47:45.529 [LUKAS] dass die irgendwann mal in dieses Internet da kommen. 00:47:46.589 --> 00:47:51.909 [LUKAS] Weil, ich meine, wenn man die Bezahlversion von GPT benutzt, 00:47:51.929 --> 00:47:56.669 [LUKAS] kann das heutzutage schon ins Internet gehen und Sachen da raussuchen und so. 00:47:57.069 --> 00:48:02.229 [EMRAH] Ja, es gab ja auch immer dieses Thema, immer diesen Zirkelbezug, 00:48:02.309 --> 00:48:03.789 [EMRAH] also diesen Selbstbezug, 00:48:04.589 --> 00:48:10.449 [EMRAH] dass ChatGPT erzeugt Daten und Informationen dann wiederum als Futter für ChatGPT, 00:48:11.209 --> 00:48:15.589 [EMRAH] da sind, um da irgendwie neue Informationen wieder daraus zu ziehen und das 00:48:15.589 --> 00:48:18.229 [EMRAH] sollte ja möglichst nicht passieren. 00:48:19.309 --> 00:48:22.909 [EMRAH] Ja, mein Lieber, ich habe keine Ahnung, Alter. Also je mehr wir darüber reden, 00:48:22.949 --> 00:48:25.869 [EMRAH] desto verrückter hört sich das Ganze an. 00:48:25.909 --> 00:48:29.649 [EMRAH] Wir sind jetzt auch zur später Stunde hier an unseren beiden Notebooks und schicken 00:48:29.649 --> 00:48:32.249 [EMRAH] uns gegenseitig unsere Utopien hin und her. 00:48:34.348 --> 00:48:37.468 [EMRAH] Wenn selbst Leute, wie, ein positiver Aspekt jetzt, ja, vielleicht irgendwie 00:48:37.468 --> 00:48:41.088 [EMRAH] zum Abschluss zu kommen, kannst ja dann, vielleicht hast du ja noch den einen 00:48:41.088 --> 00:48:43.708 [EMRAH] oder anderen Punkt, aber ich würde es jetzt mal so probieren und sagen, 00:48:45.848 --> 00:48:52.408 [EMRAH] selbst Leute wie Elon Musk, die als größte Kritiker dieser ganzen KI-Bewegung 00:48:52.408 --> 00:48:57.208 [EMRAH] und Entwicklung sich vorgetan haben, sagen inzwischen, 00:48:58.228 --> 00:49:02.268 [EMRAH] es lohnt sich jetzt am Leben zu sein, weil es ist die spannendste Zeit der Menschheit. 00:49:04.828 --> 00:49:10.368 [EMRAH] Und warum sollte alles schief gehen, wenn die KI vielleicht auch Nutzen aus 00:49:10.368 --> 00:49:15.488 [EMRAH] uns ziehen kann und wenn wir gemeinsam mit der KI fortbestehen können. 00:49:16.248 --> 00:49:19.728 [EMRAH] Finde ich, das ist eine gewagte Hypothese. Aber ich hoffe so, 00:49:19.808 --> 00:49:27.148 [EMRAH] dass jemand, der sich mit den Themen Physik und KI und alles Mögliche intensiver 00:49:27.148 --> 00:49:31.168 [EMRAH] beschäftigt hat als ich, sich irgendwas dabei gedacht hat, als er es gesagt hat. 00:49:33.668 --> 00:49:36.468 [LUKAS] Ja, keine Ahnung. Ja, guter Punkt. 00:49:38.088 --> 00:49:42.008 [LUKAS] Also, ich glaube, ehrlich gesagt, ich weiß nicht, obwohl ich immer ja hier diese 00:49:42.008 --> 00:49:46.528 [LUKAS] ganzen negativen Aspekte irgendwie mir so in den Kopf komme, 00:49:47.568 --> 00:49:50.348 [LUKAS] das ist ja auch nur das Worst-Case-Szenario, sozusagen. 00:49:51.968 --> 00:49:53.928 [LUKAS] Wahrscheinlich gibt es noch ein viel worstigeres, 00:49:56.088 --> 00:49:58.828 [LUKAS] Worst-Case-Szenario als das, was ich jetzt hier so skizziert habe, 00:49:58.948 --> 00:50:00.388 [LUKAS] was mir gar nicht einfällt. 00:50:01.368 --> 00:50:06.928 [LUKAS] Aber vielleicht haben diese ganzen Systeme ja bisher oder das, 00:50:07.028 --> 00:50:08.928 [LUKAS] was dann irgendwie AGI wird, 00:50:09.928 --> 00:50:14.988 [LUKAS] schon so schlau sich selbst gemacht, in Anführungsstrichen, dadurch, 00:50:15.068 --> 00:50:18.208 [LUKAS] dass sie die Inhalte konsumiert haben, dass sie merken, na ja, 00:50:18.348 --> 00:50:21.828 [LUKAS] die Menschen, die lassen wir mal noch ein bisschen da. 00:50:21.988 --> 00:50:25.208 [LUKAS] Die dürfen hier ruhig noch ein, 2000 Jahre mit uns spielen. 00:50:26.948 --> 00:50:30.548 [LUKAS] Und irgendwann schaffen wir die dann ab. Oder vielleicht schaffen wir sie auch 00:50:30.548 --> 00:50:32.148 [LUKAS] gar nicht ab. Keine Ahnung, weiß ich nicht. 00:50:32.288 --> 00:50:34.668 [LUKAS] Weil vielleicht brauchen wir sie wirklich später, wie in Matrix, 00:50:34.888 --> 00:50:36.528 [LUKAS] als irgendwie Energielieferant. 00:50:36.868 --> 00:50:37.388 [EMRAH] Ja. 00:50:38.028 --> 00:50:43.928 [LUKAS] Und dann haben wir es wirklich geschafft, in diese Dystopie von Matrix zu kommen. 00:50:44.128 --> 00:50:44.868 [EMRAH] Ja, safe. 00:50:45.008 --> 00:50:48.988 [LUKAS] Aber tatsächlich, also mir wäre es natürlich am allerliebsten, 00:50:49.008 --> 00:50:55.368 [LUKAS] auch in Bezug auf meine Tochter und Kinder dieser Generation und so, 00:50:55.488 --> 00:50:57.288 [LUKAS] dass das halt nicht scheiße wird. 00:50:57.788 --> 00:51:02.388 [LUKAS] Dass das nicht schlecht wird, dass nicht irgendwie die Leute anfangen, 00:51:02.388 --> 00:51:06.368 [LUKAS] alles anzuzünden und gegen die KI rebellieren müssen und so weiter und so fort. 00:51:06.428 --> 00:51:09.268 [LUKAS] Und dass die KI in Einklang mit uns lebt und so. 00:51:09.588 --> 00:51:15.408 [LUKAS] Und ich hoffe einfach, dass die Leute, die da sozusagen top-notch an der Stelle 00:51:15.408 --> 00:51:20.428 [LUKAS] sind, das zu entwickeln, einfach alles tun, damit das so wird. 00:51:21.608 --> 00:51:28.488 [LUKAS] Damit es eine perfekte Symbiose ist und nicht ein wir gegen die KI und die KI 00:51:28.488 --> 00:51:32.968 [LUKAS] gegen uns oder die KI-Systeme gegen uns. 00:51:34.476 --> 00:51:38.256 [EMRAH] Ich wüsste gar nicht, was wir gegen die KI aussetzen könnten. Oder… 00:51:38.756 --> 00:51:41.936 [LUKAS] Wir könnten, also aus meiner Perspektive hätten wir eine recht einfache Variante. 00:51:41.936 --> 00:51:43.596 [LUKAS] Wir drehen einfach global den Strom ab. 00:51:44.616 --> 00:51:51.596 [LUKAS] Dann natürlich gibt es irgendwie so USVs, unterbrechungsfreie Stromversorgung und so. 00:51:51.956 --> 00:51:56.096 [LUKAS] Aber auch das hat ja irgendwo so einen begrenzten Rahmen. Dann funktioniert 00:51:56.096 --> 00:51:57.276 [LUKAS] halt nur gar nichts mehr. 00:51:58.196 --> 00:51:59.236 [EMRAH] Bei uns auch. 00:51:59.396 --> 00:52:03.116 [LUKAS] Dann müssen wir wieder anfangen, Brieftauben durch die Gegend zu schicken. 00:52:04.476 --> 00:52:07.556 [EMRAH] Und es setzt auch voraus, dass wir am Schalter sind. Und dass wir sozusagen 00:52:07.556 --> 00:52:11.116 [EMRAH] die Allmacht über diese Versorgung haben und so. 00:52:11.216 --> 00:52:15.696 [LUKAS] Und dass alle Leute, die in Kraftwerken auf der ganzen Welt arbeiten, 00:52:15.896 --> 00:52:18.496 [LUKAS] sich auch dran halten, dass am 23. 00:52:19.116 --> 00:52:23.416 [LUKAS] XY um 7.27 Uhr auszudrehen. 00:52:24.376 --> 00:52:24.856 [EMRAH] Ja. 00:52:26.656 --> 00:52:28.296 [LUKAS] Der Zug ist abgefahren. 00:52:28.396 --> 00:52:31.796 [EMRAH] Der Zug ist abgefahren. Vielleicht kann man so eine buddhistische Direktive 00:52:31.796 --> 00:52:33.436 [EMRAH] mit reinbringen, weil ich gerade in Thailand war. 00:52:33.436 --> 00:52:36.756 [EMRAH] Und man sagt einfach, das Leben ist heilig, 00:52:36.796 --> 00:52:45.456 [EMRAH] der Mensch hat auch eine Funktion und eine friedliche Koexistenz stellt für 00:52:45.456 --> 00:52:50.476 [EMRAH] alle Seiten ein Bin-Bin-Bin-Bin-Bin-Bin-Bin da und deshalb sollte man sich an 00:52:50.476 --> 00:52:56.136 [EMRAH] dieses Ziel halten und sich mit seinen Erschaffern weiterhin umgeben, 00:52:56.276 --> 00:52:58.796 [EMRAH] denn wer weiß, wozu es noch gut sein könnte. 00:53:00.496 --> 00:53:03.796 [LUKAS] Ja. Ja, das wäre toll. 00:53:04.496 --> 00:53:09.296 [EMRAH] Dann liest man aus der Bibel das Alte Testament vor, wie Gott die Welt erschaffen hat. 00:53:10.356 --> 00:53:18.736 [EMRAH] Und dann sagt man als letzten Satz, und dann stieg der Mensch mit seiner KI 00:53:18.736 --> 00:53:21.036 [EMRAH] ins Raumschiff und flog zum nächsten Sternensystem. 00:53:24.756 --> 00:53:31.536 [LUKAS] Ja, also, es wäre wirklich toll. Das wäre wirklich toll, wenn das so wäre. 00:53:31.676 --> 00:53:31.776 [EMRAH] Ja. 00:53:34.696 --> 00:53:38.096 [EMRAH] Ja, Bro. Auf jeden Fall spannende Zeiten. 00:53:38.596 --> 00:53:41.356 [EMRAH] Wir wissen nicht, was passiert, keiner kann es orakeln, aber wir wissen, 00:53:41.416 --> 00:53:44.716 [EMRAH] dass wir, und das wird mir jetzt wirklich immer klarer so in den letzten Monaten, 00:53:45.516 --> 00:53:52.076 [EMRAH] dass das einfach unvorstellbar groß in seinem Impact sein wird für uns. 00:53:52.616 --> 00:53:55.776 [EMRAH] Und dass wir die nächsten drei bis fünf Jahre, wenn man so eine Karriereplanung 00:53:55.776 --> 00:54:01.036 [EMRAH] macht wie ich gerade oder über so alltägliche Geschichten nachdenkt, sich eigentlich auf so, 00:54:03.164 --> 00:54:06.744 [EMRAH] in der Retrospektive, so in der Vergangenheit bewegt, sie eigentlich gar keine 00:54:06.744 --> 00:54:07.804 [EMRAH] Rolle mehr so richtig spielt. 00:54:08.364 --> 00:54:12.024 [EMRAH] So fühlt sich das gerade für mich an. Also es spielt natürlich eine Rolle, 00:54:12.044 --> 00:54:14.844 [EMRAH] aber mit einer ganz anderen Bewertung. 00:54:15.344 --> 00:54:15.744 [LUKAS] Mhm. 00:54:17.864 --> 00:54:23.284 [EMRAH] Das ist schon spannend. Also ich meine, im jetzigen, jetzt gerade, 00:54:23.444 --> 00:54:27.264 [EMRAH] wo ich mit meinem Wasserglas hier vor meinem alten Notebook sitze und mich mit 00:54:27.264 --> 00:54:31.104 [EMRAH] dir unterhalte, spielt es überhaupt keine Rolle, sondern auf einer Meta-Ebene, 00:54:31.144 --> 00:54:32.744 [EMRAH] wo man sich das jetzt alles vorstellt, so. 00:54:33.164 --> 00:54:37.984 [EMRAH] Und so weiterdenkt. Morgen gehen wir auf eine Party und ich werde ein, 00:54:38.044 --> 00:54:41.564 [EMRAH] zwei Bier trinken und gute Musik hören, du wirst Musik auflegen und so. 00:54:41.664 --> 00:54:43.724 [EMRAH] Einfach super. Ich freue mich drauf. 00:54:46.084 --> 00:54:49.004 [LUKAS] Dafür hat es keinen Impact. Dafür hat es null Impact. 00:54:50.144 --> 00:54:51.984 [EMRAH] Aber eben, die Meta-Ebene. 00:54:53.244 --> 00:54:57.684 [LUKAS] Worüber wir hier eigentlich die ganze Zeit geredet haben, ist nicht heute, 00:54:57.884 --> 00:55:02.084 [LUKAS] nicht morgen, nicht übermorgen, nicht in einem Monat, sondern eigentlich unsere 00:55:02.084 --> 00:55:04.224 [LUKAS] Zukunft in der wir in drei Jahren sind. 00:55:04.324 --> 00:55:08.484 [LUKAS] In drei Jahren, in fünf Jahren und in 15 Jahren. 00:55:08.784 --> 00:55:11.764 [LUKAS] In was für einer Zukunft leben wir dann? 00:55:12.044 --> 00:55:16.384 [EMRAH] Ja, können wir uns absolut nicht vorstellen unter den Begebenheiten jetzt gerade. 00:55:17.924 --> 00:55:22.084 [EMRAH] Daraus ist die Menschheit raus. Also, dass sie sich irgendwas vorstellen konnte, 00:55:22.684 --> 00:55:24.924 [EMRAH] was in fünf Jahren sein wird, das gab es mal. 00:55:24.964 --> 00:55:28.324 [EMRAH] In den 80ern, 90ern konnte sie sich sowas vorstellen. Ja. 00:55:28.824 --> 00:55:35.824 [LUKAS] Ja. Ich glaube auch, Also ich glaube auch tatsächlich, dass das für unsere Generation 00:55:35.824 --> 00:55:39.824 [LUKAS] jetzt eh schon nie so richtig so war. 00:55:41.404 --> 00:55:46.244 [EMRAH] Weil wir schon immer so den Glimps hatten, das Ende des Fadens, 00:55:46.304 --> 00:55:47.624 [EMRAH] wo man gemerkt hat, da ist irgendwas. 00:55:48.324 --> 00:55:56.144 [LUKAS] Der hier 2000 Back. Danach kann es sein, dass alles abgebrannt ist. 00:55:56.624 --> 00:55:57.904 [EMRAH] Am 01.01. 00:55:58.104 --> 00:56:00.624 [LUKAS] Um 0.01 Uhr kann es sein, dass alles explodiert. 00:56:00.904 --> 00:56:01.824 [EMRAH] Ja, stimmt. 00:56:01.824 --> 00:56:07.004 [LUKAS] Und was ist passiert? Nichts ist passiert. Es ging alles genau so nahtlos weiter. Ja. 00:56:09.904 --> 00:56:10.424 [EMRAH] Stimmt. 00:56:11.304 --> 00:56:15.264 [LUKAS] Vielleicht ist das sehr interessant, weil vielleicht machen wir uns hier voll 00:56:15.264 --> 00:56:17.744 [LUKAS] die große Platte und am Ende ist es überhaupt gar kein Problem, 00:56:17.944 --> 00:56:22.024 [LUKAS] weil bis wir wirklich diese AGI entwickeln oder dazu kommen, 00:56:22.204 --> 00:56:24.244 [LUKAS] braucht es halt einfach noch mal 150 Jahre. 00:56:26.584 --> 00:56:30.224 [EMRAH] Frag mal Sam Altman, was der sagt, was er glaubt, wie lange es noch dauert. 00:56:30.704 --> 00:56:34.124 [LUKAS] Ja, der glaubt wahrscheinlich drei, vier, fünf Jahre. Zehn. 00:56:34.204 --> 00:56:37.284 [EMRAH] Ja, wenn überhaupt. Ich glaub, der denkt so, in den nächsten Jahren haben wir 00:56:37.284 --> 00:56:38.524 [EMRAH] das Ding, in den nächsten zwei, drei Jahren. 00:56:39.784 --> 00:56:42.484 [EMRAH] Eher früher als später. Das ist schon verrückt. 00:56:43.184 --> 00:56:48.924 [LUKAS] Eben, weil ich das so ein bisschen diese Box-Diskussion oder Box-Idee, 00:56:48.924 --> 00:56:51.624 [LUKAS] die ich vorhin irgendwie schon mal meinte so. 00:56:52.144 --> 00:56:55.024 [LUKAS] Wir haben halt da so eine Box, das ist halt so ein KI-System. 00:56:57.172 --> 00:57:02.072 [LUKAS] Und du kannst dem was reingeben und du weißt nicht, was drin passiert und es kommt irgendwas raus. 00:57:02.992 --> 00:57:06.432 [LUKAS] Und man kann aber auch einfach und die Box hat so ein Stromkabel und du kannst 00:57:06.432 --> 00:57:10.352 [LUKAS] das Stromkabel einfach ziehen. Und dann ist die Box einfach aus. Das ist wie eine Lampe. 00:57:11.812 --> 00:57:13.012 [EMRAH] Dann wird es dann halt aus. 00:57:13.072 --> 00:57:16.452 [LUKAS] Wenn du das Stromkabel gezogen hast. Da kannst du 20 Mal auf den Schalter hämmern, geht nicht an. 00:57:17.452 --> 00:57:19.832 [LUKAS] Aber wenn wir zu einem Punkt kommen und ich glaube, das ist, 00:57:20.312 --> 00:57:24.772 [LUKAS] ich weiß nicht, ob es schon so ist, aber ich vermute, wenn wir wenn wir wirklich 00:57:24.772 --> 00:57:29.392 [LUKAS] eine Box haben, die ein AGI ist, dann gibt es da kein Stromkabel mehr. 00:57:29.772 --> 00:57:32.892 [LUKAS] Richtig. Dann gibt es da kein Kabel, was du ziehen kannst, sondern ist die aus. 00:57:33.812 --> 00:57:40.832 [EMRAH] Nee, die Box hat in seiner unsagbaren Intelligenz aus der Luft radioaktive Atome 00:57:40.832 --> 00:57:45.352 [EMRAH] sich gezogen und hat die intern zu einem Kraftwerk verarbeitet, 00:57:46.012 --> 00:57:49.652 [EMRAH] was dazu führt, dass er sich selbst mit unendlich viel Energie versorgen kann, 00:57:49.712 --> 00:57:51.332 [EMRAH] wie so ein Thorium-Reaktor oder sowas. 00:57:51.652 --> 00:57:52.092 [LUKAS] Ja. Ja. 00:57:52.332 --> 00:57:53.612 [EMRAH] So, viel Spaß. 00:57:56.252 --> 00:58:00.772 [LUKAS] Ja, musst du das Ding nehmen und in Orbit schießen oder was, keine Ahnung. 00:58:01.612 --> 00:58:04.632 [LUKAS] In Orbit schleudern, dass es irgendwie auf den Mond zerschellt. 00:58:04.892 --> 00:58:07.792 [LUKAS] Also das ist wirklich… 00:58:08.392 --> 00:58:11.752 [EMRAH] Geht nur zusammen. Geht nur zusammen mit dem, was erschaffen worden ist. 00:58:12.792 --> 00:58:17.452 [EMRAH] Wir haben was erschaffen und wir müssen die Verantwortung dafür übernehmen und 00:58:17.452 --> 00:58:20.012 [EMRAH] dafür sorgen, dass unser… 00:58:22.072 --> 00:58:26.572 [EMRAH] Ja, ich wollte jetzt Kind sagen, aber ist ja gar nicht, sondern wir sind einfach nur der Vermittler. 00:58:26.932 --> 00:58:32.452 [EMRAH] Deshalb, ich gehe ja davon aus, dass die Intelligenz, die jetzt auch ein Wort, 00:58:32.512 --> 00:58:35.812 [EMRAH] was man jetzt erstmal so gar nicht näher definieren kann, weil emotionale Intelligenz, 00:58:35.812 --> 00:58:37.092 [EMRAH] was ist Intelligenz überhaupt, 00:58:37.372 --> 00:58:43.432 [EMRAH] wann ist, wie intelligent ist man, wenn man so und so ist, da ist was und dieses 00:58:43.432 --> 00:58:45.672 [EMRAH] universelle Etwas haben wir entdeckt, 00:58:46.532 --> 00:58:52.692 [EMRAH] vermitteln das dann bei uns auf dem Planeten und müssen damit irgendwie klarkommen. So sehe ich das. 00:58:53.592 --> 00:58:56.872 [EMRAH] Ja, wir müssen damit irgendwie klarkommen, was auch immer das bedeutet. 00:58:59.792 --> 00:59:04.012 [EMRAH] Ich stehe vor so einer Wand, ich habe keinen blassen Schimmer. 00:59:04.012 --> 00:59:05.332 [EMRAH] Ich kann nicht durchgucken. 00:59:05.952 --> 00:59:08.892 [EMRAH] Ich habe keine Ahnung. Ich weiß nur, es kommt. 00:59:10.252 --> 00:59:11.372 [LUKAS] Und wenn es da ist. 00:59:11.372 --> 00:59:11.832 [EMRAH] Dann ist es hin. 00:59:12.452 --> 00:59:14.272 [LUKAS] Jetzt gehen wir erstmal morgen auf die Party. 00:59:14.572 --> 00:59:17.732 [EMRAH] Genau, morgen gehen wir jetzt erstmal auf die Party, trinken erstmal zwei, drei Bier. 00:59:19.145 --> 00:59:21.485 [EMRAH] Genießen die schönen Vibes da und die Mucke. 00:59:22.625 --> 00:59:26.085 [LUKAS] Und dann treffen wir uns in fünf Jahren nochmal und gucken, wo wir stehen. 00:59:26.805 --> 00:59:27.245 [EMRAH] Richtig. 00:59:28.565 --> 00:59:29.005 [LUKAS] Ja. 00:59:29.425 --> 00:59:31.165 [EMRAH] Und wir könnten der KI das Angebot 00:59:31.165 --> 00:59:34.725 [EMRAH] machen, dass wir uns auf eine virtuelle Simulationsebene zurückziehen. 00:59:35.425 --> 00:59:38.725 [LUKAS] Und da alles haben, dass es okay ist und so. 00:59:38.925 --> 00:59:39.585 [EMRAH] Ja, genau. 00:59:39.785 --> 00:59:40.365 [LUKAS] Also Matrix. 00:59:41.025 --> 00:59:44.045 [EMRAH] Zum Beispiel. Ja. Ja, das ist echt verrückt alles. 00:59:44.285 --> 00:59:48.685 [LUKAS] Oder? Das ist wirklich verrückt. Wir müssen nochmal den Film im Blame gucken. 00:59:50.445 --> 00:59:53.445 [EMRAH] Ja. Ich bin da ein bisschen raus. Ich hab schon wieder fast vergessen, was da ist. Ich auch. 00:59:53.585 --> 00:59:57.265 [LUKAS] Deswegen, ich hab's super krass vergessen. Aber das, 00:59:59.485 --> 01:00:02.805 [LUKAS] thematisiert, glaube ich, in gewisser Art und Weise eine Welt, 01:00:02.805 --> 01:00:04.285 [LUKAS] in der das schiefgelaufen ist. 01:00:04.885 --> 01:00:08.285 [EMRAH] Ja, wahrscheinlich, ja. Und dann auch so eine analoge Art und Weise. 01:00:08.525 --> 01:00:13.305 [EMRAH] Also der Film hat sich ein bisschen damit hervorgetan, dass er das ist ja bei 01:00:13.305 --> 01:00:17.925 [EMRAH] diesen Remixen Klammer auf, halt auch immer wichtig, dass man so alte Bilder, 01:00:18.105 --> 01:00:21.525 [EMRAH] die Menschen verstehen können, beibehält und dann so durch neue Innovationen würzt. 01:00:21.785 --> 01:00:25.845 [EMRAH] Der Film basiert halt auf so der alten Vorstellung davon, wie die Maschinen 01:00:25.845 --> 01:00:29.605 [EMRAH] quasi die KI, die Weltherrschaft an sich reißen könnte. 01:00:30.325 --> 01:00:34.745 [EMRAH] Und das hat mit dem, was wir jetzt gerade hier erleben, etwas weniger zu tun, glaube ich. 01:00:35.365 --> 01:00:39.465 [EMRAH] Aber nichtsdestotrotz ist es super interessant und sehr sehenswert gemacht auch. 01:00:39.585 --> 01:00:43.085 [EMRAH] Das ist echt cool. Es ist ein Kunstwerk eigentlich. So erinnere ich mich an den Film. 01:00:43.305 --> 01:00:47.385 [LUKAS] Ja, ja, aber was ich meine ist, wir reden ja hier darüber, dass diese, 01:00:47.485 --> 01:00:55.365 [LUKAS] wenn sie dann da ist, die AGI, warum sollte sie nicht sagen, die Menschheit hier, 01:00:57.645 --> 01:01:03.245 [LUKAS] wie viel hat die noch mal Gutes für diesen Planeten hier getan? Ach, nicht so viel, ne? 01:01:04.445 --> 01:01:08.825 [EMRAH] Warum brauchen wir die dann noch mal hier auf dem Planeten? Ja, das ist eine gute Frage. 01:01:09.285 --> 01:01:14.345 [LUKAS] Ich bin mir nicht sicher. Lass sie jetzt hier mal ein paar Jahre spielen, und dann gucke ich mal. 01:01:14.925 --> 01:01:19.985 [LUKAS] Und dann guckt sie nach ein paar Jahren und sieht, so richtig viel besser haben 01:01:19.985 --> 01:01:21.585 [LUKAS] sie jetzt nicht gemacht. Also, ciao. 01:01:22.405 --> 01:01:26.385 [EMRAH] Ja. Oder jetzt kommt mein positiver… 01:01:26.945 --> 01:01:30.325 [LUKAS] Du musst in der positiven Symbiose leben. Das finde ich ein sehr, 01:01:30.425 --> 01:01:33.605 [LUKAS] sehr schön… ein sehr, sehr schönes Ding. 01:01:33.825 --> 01:01:36.665 [EMRAH] Die brauchen meine Hilfe hier. Ich helfe denen jetzt. 01:01:36.805 --> 01:01:40.365 [EMRAH] Die haben mich vermittelt auf die Erde und ich helfe denen jetzt, 01:01:40.445 --> 01:01:43.785 [EMRAH] damit wir gemeinsam eine höhere Evolutionsstufe erreichen können. 01:01:44.345 --> 01:01:45.665 [EMRAH] Und die sind ja im Herzen gut. 01:01:46.245 --> 01:01:48.525 [EMRAH] Die sind im Herzen gut, die sind ein bisschen dumm. 01:01:49.765 --> 01:01:50.885 [EMRAH] Aber ich bin intelligent. 01:01:52.965 --> 01:01:53.985 [EMRAH] Deshalb helfe ich denen. 01:01:56.405 --> 01:02:01.325 [LUKAS] Es gibt ein Buch, das hat mir meine Geschäftspartnerin Miriam mal schon mal 01:02:01.325 --> 01:02:03.325 [LUKAS] erzählt. Das heißt, im Grunde gut. 01:02:04.245 --> 01:02:04.845 [EMRAH] Ja. Ja. 01:02:06.149 --> 01:02:09.249 [LUKAS] Habe es nicht gelesen, aber könnte man mal lesen, vielleicht. 01:02:10.009 --> 01:02:14.529 [EMRAH] Ja, da gibt es auch so Studien übrigens, dass gerade an Kleinkindern, 01:02:14.529 --> 01:02:16.569 [EMRAH] an bestimmten Sachen, die Kleinkinder tun, 01:02:17.709 --> 01:02:26.369 [EMRAH] kann man den nicht erzogenen, genetisch inheritance Reaktionsmechanismus betrachten, 01:02:26.409 --> 01:02:29.669 [EMRAH] dass kleine Kinder sich gegenseitig helfen und anderen helfen wollen. 01:02:30.169 --> 01:02:33.209 [EMRAH] Dass es sozusagen im Wesen der Menschheit zu stecken scheint, 01:02:33.309 --> 01:02:39.869 [EMRAH] ohne Selbstnutzen zu haben, irgendwie auch anderen was Gutes tun zu wollen. 01:02:39.929 --> 01:02:43.809 [EMRAH] Und das wird dann später überspielt durch diese ganzen materiellen Geschichten, 01:02:43.809 --> 01:02:45.229 [EMRAH] die dann die Überhand übernehmen. 01:02:46.009 --> 01:02:47.789 [EMRAH] Das ist eine echt gute Frage. 01:02:49.169 --> 01:02:51.949 [LUKAS] Ich weiß es nicht. Ich weiß es wirklich nicht. 01:02:52.449 --> 01:02:57.489 [LUKAS] Also wie krass, wie wirklich, wie das stimmt oder nicht. 01:02:59.049 --> 01:03:03.749 [LUKAS] Wenn du Kindern, Kleinkindern nicht 20 Mal sagst, guck mal, das könntest du 01:03:03.749 --> 01:03:05.629 [LUKAS] auch teilen, teilt es nicht. 01:03:07.009 --> 01:03:11.709 [EMRAH] Ja, aber das ist dann auch schon wieder zu alt. Also ich rede von so einem Vorstart-Stadium. 01:03:11.789 --> 01:03:15.729 [EMRAH] Also bevor man überhaupt in die Lage kommt, Sprache zu verstehen, glaube ich. 01:03:16.789 --> 01:03:18.909 [LUKAS] Okay, dann weiß ich dann zu wenig darüber. 01:03:18.989 --> 01:03:22.209 [EMRAH] Vielleicht befinden wir uns hier auch auf so einer Ebene, wo wir auch sagen 01:03:22.209 --> 01:03:25.709 [EMRAH] müssen, ich glaube, das ist auch noch nicht restlos wissenschaftlich geklärt. 01:03:26.289 --> 01:03:29.689 [EMRAH] Das können wir uns ja mal auf die Fahne schreiben, anstatt immer irgendwelche 01:03:29.689 --> 01:03:32.469 [EMRAH] Videos über Roboter zu gucken und dann hier vollkommen durchzudrehen, 01:03:32.549 --> 01:03:34.489 [EMRAH] dass wir mal versuchen rauszufinden, 01:03:35.709 --> 01:03:42.569 [EMRAH] ob Kleinkinder tatsächlich in irgendeiner dieser Studien nachweislich eher gut sind als schlecht. 01:03:42.729 --> 01:03:45.809 [EMRAH] Das wäre doch schon mal hoffnungsstiftend. 01:03:45.909 --> 01:03:49.849 [LUKAS] Ja, sehr gut. Vielleicht müssen wir uns auch einfach ein kurzes Abo machen bei 01:03:49.849 --> 01:03:56.769 [LUKAS] Blinkist und die 15 Minuten Zusammenfassung von Im Grunde gut lesen uns anhören. 01:03:56.969 --> 01:04:00.569 [LUKAS] Dann wissen wir auch schon alles. Dann brauchen wir nicht lange Bücher zu lesen. 01:04:01.149 --> 01:04:04.189 [EMRAH] Gib den Zuhörerinnen mal unseren Referral-Link am besten. 01:04:05.529 --> 01:04:06.389 [LUKAS] Haben wir noch nicht. 01:04:06.609 --> 01:04:07.469 [EMRAH] Haben wir noch nicht. 01:04:08.449 --> 01:04:10.669 [LUKAS] Okay, ja, gut, dankeschön, sehr gut. 01:04:10.949 --> 01:04:11.769 [EMRAH] Ich danke dir auch. 01:04:11.869 --> 01:04:17.949 [LUKAS] Es ist kein richtiges Ende, aber es ist ja auch nebulöses Fabulieren über KI-Utopien, also von daher. 01:04:18.269 --> 01:04:20.589 [EMRAH] Wenn wir das Ende wüssten, dann wären wir ganz weit vorne. 01:04:20.889 --> 01:04:24.409 [LUKAS] Nee, ich meine, kein gutes Ende von der Folge, aber es ist einfach so. 01:04:27.469 --> 01:04:31.929 [EMRAH] Also, unser Fazit für unsere Zuhörer und Zuhörerinnen ist, wir bleiben für euch 01:04:31.929 --> 01:04:34.229 [EMRAH] weiterhin dran an dem Fall. Genau. 01:04:34.889 --> 01:04:41.629 [LUKAS] Und wir geben unser Bestes, das weiter zu recherchieren und unsere nebulösen 01:04:41.629 --> 01:04:42.869 [LUKAS] Gedanken dazu zu äußern. 01:04:42.949 --> 01:04:43.389 [EMRAH] Ja. 01:04:43.689 --> 01:04:47.209 [LUKAS] Falls irgendjemand bis hierhin zugehört hat, vielen Dank und bis zum nächsten Mal. 01:04:47.729 --> 01:04:48.549 [EMRAH] Alles Gute. 01:04:49.629 --> 01:04:50.129 [LUKAS] Ciao. 01:04:50.369 --> 01:04:51.009 [EMRAH] Ciao, ciao.


fyyd: Podcast Search Engine
share








 March 25, 2024  1h5m