She Likes Tech - der Podcast über Technologie

Jung, weiblich, genial: Im Tech-Podcast von NDR Info sucht die Tech-Journalistin Svea Eckert immer nach Antworten von Expertinnen aus der IT-Welt. In aufwendigen Recherchen taucht sie ein in die Welt der Querdenker, die sich über Telegram oder YouTube radikalisieren. Sie begegnet auch angeblichen Coaches, die Magersüchtige auf Instagram anschreiben. Svea nimmt euch in diesem Podcast mit auf ihre Recherchen, damit ihr die Tech-Welt besser versteht. Mit Experimenten zeigt sie euch, was gerade nicht so gut läuft und welche Ideen es gibt, die Technik für uns alle etwas besser zu machen.

https://www.ndr.de/nachrichten/info/podcast4808.html

subscribe
share






#5 Warum ist KI manchmal rassistisch?


Wie funktioniert eigentlich Künstliche Intelligenz und warum ist es fatal, wenn wir selbstlernender Software menschliche Vorurteile einprogrammieren? Das erklärt uns Kenza Ait Si Abbou Lyadini. Die Ingenieurin ist Expertin für Künstliche Intelligenz und arbeitet bei der Telekom als Senior Manager Robotics and Artifical Intelligence.

Wenn ihr Fragen zu dieser Folge habt oder Anregungen, dann schreibt uns gerne: shelikestech@ndr.de

Schreibt uns auch in unserer Umfrage, wie euch der Podcast gefällt.
Was machen wir gut, was sollen wir besser machen?
Die Umfrage dauert nur 10 Minuten ;-)
https://umfrage-ndr.limequery.com/767564?lang=de

Und hier sind die Show-Notes zur Folge #5 über KI:

We need more diversity in Al development now! | Kenza Ait Si Abbou Lyadini | TEDxHamburg
https://www.youtube.com/watch?v=5AgIduLQdqg

Dokumentation “Face it” 2019
https://www.tagesspiegel.de/kultur/doku-face-it-im-kino-gesichtserkennung-fuer-alle/24695780.html

Rassismus durch Google Algorithmus
https://algorithmwatch.org/en/story/google-vision-racism/

Russische Demonstranten von Oppositionsdemos per Gesichtserkennung erkannt
https://netzpolitik.org/2017/russische-demonstranten-per-gesichtserkennungs-software-identifiziert/

Verhaftung aufgrund von fehlerhafter Gesichtserkennung in Detroit
https://www.npr.org/2020/06/24/882683463/the-computer-got-it-wrong-how-facial-recognition-led-to-a-false-arrest-in-michig?t=1597237602629

Clearview.ai: Wenn Milliardäre Gesichtserkennung als Spionage-Spielzeug nutzen
https://www.sueddeutsche.de/digital/clearview-gesichtserkennung-spionage-datenschutz-1.4835272

Clearview AI verweigert Zusammenarbeit mit deutscher Datenschutzaufsicht
https://netzpolitik.org/2020/gesichtserkennung-clearview-ai-verweigert-zusammenarbeit-mit-deutscher-datenschutzaufsicht/

FindFace: Die Erkennungsmaschine aus Russland
https://www.spiegel.de/netzwelt/web/findface-app-mit-gesichtserkennung-loest-hype-in-russland-aus-a-1092951.html

PimEye: Eine polnische Firma schafft gerade unsere Anonymität ab
https://netzpolitik.org/2020/gesichter-suchmaschine-pimeyes-schafft-anonymitaet-ab/

Fooling Image Recognition with Adversarial Learning - zwei Beispiele:
https://www.youtube.com/watch?v=qPxlhGSG0tc&feature=emb_logo
https://www.theregister.com/2017/11/06/mit_fooling_ai/

Störmuster durch Pixelmanipulationen
https://www.heise.de/hintergrund/Pixelmuster-irritieren-die-KI-autonomer-Fahrzeuge-4852995.html
http://sandlab.cs.uchicago.edu/fawkes/
https://www.nytimes.com/2020/08/03/technology/fawkes-tool-protects-photos-from-facial-recognition.html
https://www.youtube.com/watch?v=AWrI0EuYW6A

Apple Card: Weiblich, Ehefrau, kreditunwürdig?
https://www.zeit.de/digital/datenschutz/2019-11/apple-card-kreditvergabe-diskriminierung-frauen-algorithmen-goldman-sachs/


fyyd: Podcast Search Engine
share








 October 6, 2020  49m