Knowledge Science - Alles über KI, ML und NLP

Knowledge Science - Der Podcast über Künstliche Intelligenz im Allgemeinen und Natural Language Processing im Speziellen. Mittels KI Wissen entdecken, aufbereiten und nutzbar machen, dass ist die Idee hinter Knowledge Science. Durch Entmystifizierung der Künstlichen Intelligenz und vielen praktischen Interviews machen wir dieses Thema wöchentlich greifbar.

https://www.knowledgescience.ai

Eine durchschnittliche Folge dieses Podcasts dauert 28m. Bisher sind 175 Folge(n) erschienen. Jede Woche gibt es eine neue Folge dieses Podcasts.

Gesamtlänge aller Episoden: 2 days 19 hours

subscribe
share






recommended podcasts


episode 11: Episode 11 - Kinder entdecken KI


In Folge 11 werden wir von zwei jungen "Wissenschaftlerinnen" zum Thema Künstliche Intelligenz befragt. Die Beiden stellen uns Fragen und erzählen über ihre eigenen Erfahrung und Berührungspunkte zum Thema KI.Support the Show.


share








 May 8, 2021  28m
 
 

episode 12: Episode 12 - Mini Serie: Überblick NLP - LSTM


In Folge 12 greifen wir unsere Miniserie "Historie NLP" wieder auf und gehen auf Long Short Term Memory (LSTM) Netzwerke ein. In der Chronologie sind sie eine Erweiterung der RNN Netze aus der Folge 10, die mit Hilfe eines Langzeit- und Kurzzeitgedächtnis die Schwächen der RNN überwinden sollen. Wir erläutern die Funktionsweise und gehen auf Vor- und Nachteile dieser LSTM-Netze ein.Support the Show.


share








 May 15, 2021  30m
 
 

episode 13: Episode 13 - Mini Serie: Überblick NLP - Attention Mechanismen


In Folge 13 sprechen wir über Attention Mechanismen, die es Neuronalen-Netzen z.B. ermöglichen, die Aufmerksamkeit auf einzelne Bereiche eines Textes oder eines Bildes zu richten und so wesentlich fokussierter zu sein. Dies ist die vorletzte Episode unserer kleinen Mini-Serie zum Thema Überblick NLP bevor wir uns neuen Themen zuwenden.Support the Show.


share








 May 22, 2021  26m
 
 

episode 14: Episode 14 - Mini Serie: Überblick NLP - Transformer


In Folge 14 schließen wir unsere kleine technisch orientierter Mini-Serie zum Thema Historie NLP ab und sprechen über die faszinierende Architektur der Transformers. Transformers sind bahnbrechende Architekturen, die die Sprachverarbeitung verbessern. Schritt für Schritt gehen wir durch die Architektur hindurch und hoffen Ihnen die Faszination für diese Architektur näher bringen zu können. Viel Spaß beim Reinhören.Support the Show.


share








 May 29, 2021  39m
 
 

episode 15: Episode 15 - NLP-Technologien in der Praxis


In Folge 15 greifen wir nun die in unserer Mini-Serie vorgestellten Verfahren auf und erläutern unterschiedlichste Anwendungsgebiete. Von Textübersetzung über Textgenerierung hin zu Produktanalyse, Wissensgraphen und Frage Antwort-Modelle zeigen wir die praktische Verwendung der NLP-Verfahren.Support the Show.


share








 June 5, 2021  30m
 
 

episode 16: Episode 16 -Sind GPUs für Deep Learning wichtig?


In Folge 16 gehen wir der Frage nach, ob spezielle Hardware wie Grafikkarten im Bereich des Natural Language Processing aber auch bei anderen Deep Learning Verfahren notwendig sind. Wir diskutieren die Unterschiede zwischen CPU und GPUs und zeigen die Vor- und Nachteile auch aus betriebswirtschaftlicher Sicht auf.Support the Show.


share








 June 12, 2021  31m
 
 

episode 17: Episode 17 - Was ist denn eigentlich Transfer Learning?


In Folge 17 gehen wir der Frage nach, wie gute Modelle gebaut werden können, auch wenn keine großen Datenmengen oder große Rechenleistung zur Verfügung stehen. Eine Lösung für dieses Problem ist das Transfer-Learning, bei dem auf vortrainierte Modelle zurückgegriffen wird. Wir sprechen über Funktionsweise, Vorteile und Auswirkung des Transfer-Learning. Support the Show.


share








 June 19, 2021  23m
 
 

episode 18: Episode 18 - Transfer Learning Teil 2


In Folge 18 gehen wir weiter auf das Thema Transfer Learning ein, dass wir in Sendung 17 schon eingeführt haben. Keine Angst sollten Sie Sendung 17 noch nicht gehört haben, sollten Sie trotzdem dieser Sendung gut folgen können. Um vorgelernte Modelle zu finden gibt es etliche Internetseite. Hier ein paar im Podcast genannte Seiten:Huggingface: https://huggingface.coKeras.io: https://keras.io/api/applications/Tensorflow: https://github.com/tensorflow/modelsPytorch: https://github.com/Cade...


share








 June 26, 2021  25m
 
 

episode 19: Episode 19 - Was tun, wenn nicht genügend Daten vorhanden sind?


In Folge 19 gehen wir auf das Thema Data Augmentation, also eine Methode zur Erhöhung der vorhandenen Datenmenge, ein. Wir diskutieren, ob durch diese und andere Methoden das Problem der nicht ausreichend vorhandener Daten gelöst werden kann.Support the Show.


share








 July 3, 2021  26m
 
 

episode 20: Episode 20 - Deep Fakes - Wie funktionieren GAN-Netze?


Wollten Sie schon immer wissen wie Deep Fakes funktionieren? In Folge 20 führen wir die Technologie hinter Deep Fakes ein. Wir erläutern was Generative Adversarial Networks sind und diskutieren, deren Aufbau, Funktionsweise und auch Nachteile.Support the Show.


share








 July 10, 2021  26m