Gesamtlänge aller Episoden: 2 days 19 hours
In Folge 11 werden wir von zwei jungen "Wissenschaftlerinnen" zum Thema Künstliche Intelligenz befragt. Die Beiden stellen uns Fragen und erzählen über ihre eigenen Erfahrung und Berührungspunkte zum Thema KI.Support the Show.
In Folge 12 greifen wir unsere Miniserie "Historie NLP" wieder auf und gehen auf Long Short Term Memory (LSTM) Netzwerke ein. In der Chronologie sind sie eine Erweiterung der RNN Netze aus der Folge 10, die mit Hilfe eines Langzeit- und Kurzzeitgedächtnis die Schwächen der RNN überwinden sollen. Wir erläutern die Funktionsweise und gehen auf Vor- und Nachteile dieser LSTM-Netze ein.Support the Show.
In Folge 13 sprechen wir über Attention Mechanismen, die es Neuronalen-Netzen z.B. ermöglichen, die Aufmerksamkeit auf einzelne Bereiche eines Textes oder eines Bildes zu richten und so wesentlich fokussierter zu sein. Dies ist die vorletzte Episode unserer kleinen Mini-Serie zum Thema Überblick NLP bevor wir uns neuen Themen zuwenden.Support the Show.
In Folge 14 schließen wir unsere kleine technisch orientierter Mini-Serie zum Thema Historie NLP ab und sprechen über die faszinierende Architektur der Transformers. Transformers sind bahnbrechende Architekturen, die die Sprachverarbeitung verbessern. Schritt für Schritt gehen wir durch die Architektur hindurch und hoffen Ihnen die Faszination für diese Architektur näher bringen zu können. Viel Spaß beim Reinhören.Support the Show.
In Folge 15 greifen wir nun die in unserer Mini-Serie vorgestellten Verfahren auf und erläutern unterschiedlichste Anwendungsgebiete. Von Textübersetzung über Textgenerierung hin zu Produktanalyse, Wissensgraphen und Frage Antwort-Modelle zeigen wir die praktische Verwendung der NLP-Verfahren.Support the Show.
In Folge 16 gehen wir der Frage nach, ob spezielle Hardware wie Grafikkarten im Bereich des Natural Language Processing aber auch bei anderen Deep Learning Verfahren notwendig sind. Wir diskutieren die Unterschiede zwischen CPU und GPUs und zeigen die Vor- und Nachteile auch aus betriebswirtschaftlicher Sicht auf.Support the Show.
In Folge 17 gehen wir der Frage nach, wie gute Modelle gebaut werden können, auch wenn keine großen Datenmengen oder große Rechenleistung zur Verfügung stehen. Eine Lösung für dieses Problem ist das Transfer-Learning, bei dem auf vortrainierte Modelle zurückgegriffen wird. Wir sprechen über Funktionsweise, Vorteile und Auswirkung des Transfer-Learning. Support the Show.
In Folge 18 gehen wir weiter auf das Thema Transfer Learning ein, dass wir in Sendung 17 schon eingeführt haben. Keine Angst sollten Sie Sendung 17 noch nicht gehört haben, sollten Sie trotzdem dieser Sendung gut folgen können. Um vorgelernte Modelle zu finden gibt es etliche Internetseite. Hier ein paar im Podcast genannte Seiten:Huggingface: https://huggingface.coKeras.io: https://keras.io/api/applications/Tensorflow: https://github.com/tensorflow/modelsPytorch: https://github.com/Cade...
In Folge 19 gehen wir auf das Thema Data Augmentation, also eine Methode zur Erhöhung der vorhandenen Datenmenge, ein. Wir diskutieren, ob durch diese und andere Methoden das Problem der nicht ausreichend vorhandener Daten gelöst werden kann.Support the Show.
Wollten Sie schon immer wissen wie Deep Fakes funktionieren? In Folge 20 führen wir die Technologie hinter Deep Fakes ein. Wir erläutern was Generative Adversarial Networks sind und diskutieren, deren Aufbau, Funktionsweise und auch Nachteile.Support the Show.