Gesamtlänge aller Episoden: 2 days 17 hours 30 minutes
In der heutigen Sendung gehen wir auf die Architektur von Text-To-Speech Modellen ein. Zunächst legen wir die Grundlage für die wesentlichen Begriffe, zeigen Beispiele auf und erläutern dann die Architektur des TTS Models Tacotron2, das von Wissenschaftler von Google 2019 entwickelt wurde.
Bitte beachten Sie, dass dies unsere letzte Sendung vor unserer dreiwöchigen Sommerpause ist.
Am 11.9. sind wir dann mit neuen Folgen wieder zurück.
Die heutige Sendung möchten wir nutzen um die aus Folge 5 und 6 auf Basis von Conversation aI dargestellten Assistenzsystemen nochmal aufzugreifen und möchten vor allem heute auf die Schnittstellen in der Nutzung von Assistenzsystemen eingehen.
Hier vor allem die KI Systeme zur Sprachgenerierung und zum Sprachverständnis. Die Sendung dient als erster Einstieg zu diesem Thema.
Begleitende Links zur Sendung
Nachbau des Kempelenschen Sprachapparats: https://www.youtube...
In der heutigen Sendung sprechen wir über Deep Fakes und deren ethische Implikationen. Wir greifen die General Adversarial Networks als Technik hinter den Deep Fakes auf. Sprechen darüber welche Auswirkungen diese haben könnten und welche Methoden es gibt diese zu erkennen.
Begleitende Links zur Sendung
- Beispiel DeepFake: https://www.youtube.com/watch?v=F4G6GNFz0O8
- Which Face is real: https://www.whichfaceisreal.com
In der heutigen Folge werden wir die Generativen Adversarial Networks erst einmal abschließen und noch abschließend die Problematik der Anwendung von GAN-Netzen in der Sprachverarbeitung diskutieren.
Support the show
Nachdem wir in Folge 20 über GAN-Netze gesprochen haben. Zeigen wir in Folge 21 Anwendungsbeispiel der GAN Netze auf. Nennen faszinierende Beispiele, erklären Hintergründe und diskutieren deren betriebswirtschaftlichen Anwendungsbereich.
Support the show
Wollten Sie schon immer wissen wie Deep Fakes funktionieren? In Folge 20 führen wir die Technologie hinter Deep Fakes ein. Wir erläutern was Generative Adversarial Networks sind und diskutieren, deren Aufbau, Funktionsweise und auch Nachteile.
Support the show
In Folge 19 gehen wir auf das Thema Data Augmentation, also eine Methode zur Erhöhung der vorhandenen Datenmenge, ein. Wir diskutieren, ob durch diese und andere Methoden das Problem der nicht ausreichend vorhandener Daten gelöst werden kann.
Support the show
In Folge 18 gehen wir weiter auf das Thema Transfer Learning ein, dass wir in Sendung 17 schon eingeführt haben. Keine Angst sollten Sie Sendung 17 noch nicht gehört haben, sollten Sie trotzdem dieser Sendung gut folgen können.
Um vorgelernte Modelle zu finden gibt es etliche Internetseite. Hier ein paar im Podcast genannte Seiten:
Huggingface: https://huggingface.co
Keras.io: https://keras.io/api/applications/
Tensorflow: https://github...
In Folge 17 gehen wir der Frage nach, wie gute Modelle gebaut werden können, auch wenn keine großen Datenmengen oder große Rechenleistung zur Verfügung stehen. Eine Lösung für dieses Problem ist das Transfer-Learning, bei dem auf vortrainierte Modelle zurückgegriffen wird. Wir sprechen über Funktionsweise, Vorteile und Auswirkung des Transfer-Learning.
Support the show
In Folge 16 gehen wir der Frage nach, ob spezielle Hardware wie Grafikkarten im Bereich des Natural Language Processing aber auch bei anderen Deep Learning Verfahren notwendig sind. Wir diskutieren die Unterschiede zwischen CPU und GPUs und zeigen die Vor- und Nachteile auch aus betriebswirtschaftlicher Sicht auf.
Support the show