Gesamtlänge aller Episoden: 2 days 17 hours 30 minutes
In Folge 15 greifen wir nun die in unserer Mini-Serie vorgestellten Verfahren auf und erläutern unterschiedlichste Anwendungsgebiete. Von Textübersetzung über Textgenerierung hin zu Produktanalyse, Wissensgraphen und Frage Antwort-Modelle zeigen wir die praktische Verwendung der NLP-Verfahren.
Support the show
In Folge 14 schließen wir unsere kleine technisch orientierter Mini-Serie zum Thema Historie NLP ab und sprechen über die faszinierende Architektur der Transformers. Transformers sind bahnbrechende Architekturen, die die Sprachverarbeitung verbessern. Schritt für Schritt gehen wir durch die Architektur hindurch und hoffen Ihnen die Faszination für diese Architektur näher bringen zu können. Viel Spaß beim Reinhören.
Support the show
In Folge 13 sprechen wir über Attention Mechanismen, die es Neuronalen-Netzen z.B. ermöglichen, die Aufmerksamkeit auf einzelne Bereiche eines Textes oder eines Bildes zu richten und so wesentlich fokussierter zu sein. Dies ist die vorletzte Episode unserer kleinen Mini-Serie zum Thema Überblick NLP bevor wir uns neuen Themen zuwenden.
Support the show
In Folge 12 greifen wir unsere Miniserie "Historie NLP" wieder auf und gehen auf Long Short Term Memory (LSTM) Netzwerke ein. In der Chronologie sind sie eine Erweiterung der RNN Netze aus der Folge 10, die mit Hilfe eines Langzeit- und Kurzzeitgedächtnis die Schwächen der RNN überwinden sollen. Wir erläutern die Funktionsweise und gehen auf Vor- und Nachteile dieser LSTM-Netze ein.
Support the show
In Folge 11 werden wir von zwei jungen "Wissenschaftlerinnen" zum Thema Künstliche Intelligenz befragt. Die Beiden stellen uns Fragen und erzählen über ihre eigenen Erfahrung und Berührungspunkte zum Thema KI.
Support the show
In Folge 10 greifen wir unsere Miniserie "Historie NLP" wieder auf und gehen auf Recurrent Neural Networks (RNN) ein. In der Chronologie ergänzen diese Verfahren die in Folge 7 und 8 vorgestellten Bag-of-Words und Embedding Verfahren. Wir erläutern Sequenz Modelle, gehen auf Neuronale Netze ein und zeigen dann die Spezifika der RNNs auf.
Support the show
Am Mittwoch den 21.4.2021 legte die EU-Kommission einen ersten Rechtsrahmen in Form eines Regulierungsvorschlags für KI-Anwendungen vor. In dieser Folge pausieren wir unsere Mini-Serie zu NLP und diskutieren Inhalt, Chancen und Risiken des Vorschlags aus unserer Sicht.
Support the show
In Folge 8 gehen wir chronologisch in unserer Miniserie "Historie NLP" auf Embeddings ein. Wir grenzen Word Embeddings zu Bag-of-Words ab, erläutern das Verfahren und gehen auf Vor- und Nachteile ein. Nicht fehlen darf die ethische Betrachtung von Embeddings und die damit verbundenen Risiken bei der Verwendung solcher Verfahren.
Support the show
In Folge 7 sprechen wir zunächst über Anwendungsfälle des Natural Language Processing. Wir geben einen historischen, chronologischen Überblick über die verschiedenen Verfahren des NLPs der letzten Jahre und erläutern ein einfaches Verfahren zur Textrepräsentation, die Bag-of-Words-Methode.
In der sechsten Episode blicken wir hinter die Kulissen eines Conversational AI Chatbots. Wie funktioniert eigentlich ein Chatbot? Wir erläutern Funktionsweisen und Verfahren, die notwendig sind, einen Chatbot auf Basis Künstlicher Intelligenz zu betreiben. Ergänzend gehen wir auf die Entwicklungslevels von Conversational AI ein. Mit dieser Folge schaffen wir ein tieferes Verständnis über die Materie Conversational AI und entmystifizieren die Methoden, die dahinter stecken...