Gäste: Christian Osendorfer, Justin Bayer Host: Markus Völter Shownoter: Fabian Zeisberger
Maschinelles Lernen und Neuronale Netze sind im Kontext von Big Data und “Algorithmen” in aller Munde. In dieser Episode versuchen wir die Grundlagen zu erklären. Wie sprechen dabei über den generellen Ansatz, die Umsetzung in Google’s Tensor Flow, Anwendungsszenarien, aber auch das eine oder andere Risiko das mit der Technologie verbunden ist.
Begrüßung, Einführung, Überblick 00:02:34Christian Osendorfer (LinkedIn) | Christian Osendorfer (TUM) | Justin Bayer | Machine Learning | Neuronale Netze | Deep Learning | Artificial General Intelligence (Englisch) | Reinforcement Learning | Jürgen Schmidhuber | Array | Logistische Regression | Random Forest | AlphaGo | SIFT | Feature Extraction (Englisch) | Matrix | Geoffrey Hinton | Yoshua Bengio | Yann LeCun | LSTM | Apriorisches Wissen | RNN's
Programieren eines neuronalen Netzes 01:14:43TensorFlow | Backpropagation | Supervised Learning | Unsupervised Learning | Meta Learning (Englisch)
Vertrauen in neuronale Netze 01:45:54Drive.ai | Gradient boosting (Englisch) | Homo Deus