programmier.bar – der Podcast für App- und Webentwicklung

Die programmier.bar lädt regelmäßig spannende Gäste aus der Welt der App- und Webentwicklung zum Gespräch ein. Es geht um neue Technologien, unsere liebsten Tools und unsere Erfahrungen aus dem Entwickler-Alltag mit all seinen Problemen und Lösungswegen. Euer Input ist uns wichtig! Schreibt uns eure Themenwünsche und Feedback per Mail an podcast@programmier.bar oder auf Twitter (@programmierbar), Instagram (@programmier.bar) oder Facebook (facebook.com/programmier.bar). Wir sind Full-Stack-Spieleentwickler bekannter Apps wie 4 Bilder 1 Wort, Quiz Planet und Word Blitz. https://www.programmier.bar/impressum

http://www.programmier.bar

subscribe
share






episode 70: News AI #11: Amazon re:invent - Q, Bedrock, Sagemaker // SD Video & SDXL Turbo // Claude 2.1 // Inflection 2


Philipp war letzte Woche in Las Vegas auf der Amazon re:Invent. Wir unterhalten uns über den neuen AI-Assistenten Q von Amazon. Q kann wie Microsoft Copilot auf die eigenen Quellen wie Dokumente, E-Mails, Slack, etc. zugreifen. Dazu ist Q in AWS integriert, um beispielsweise beim Erstellen von Redshift Queries, Dashboards oder im Customer Support zu helfen.

Ansonsten wurden auf der re:invent bei einigen Datenbanken Vektor Support announced sowie viele Neuerungen rund um Bedrock und Sagemaker.

Stability AI hat ein eigenes Text-to-Video-Modell vorgestellt. Nach eigener Aussage soll dieses besser sein als beispielsweise Pika, was in den letzten Wochen ebenfalls in den Schlagzeilen war. Falls ihr es selbst ausprobieren möchtet, könnt ihr dafür den HuggingFace Playground nutzen. Mit SDXL Turbo hat Stability AI ihr eigenes SDXL optimiert, sodass die Inferenz-Zeiten unglaublich schnell geworden sind. Nach eigenen Benchmarks braucht die Erstellung auf einem A100 Chip nur noch um die 200ms und ist somit nahezu Realtime. Dies ist möglich dank ihres neues Ansatzes der Adversarial Diffusion Distillation (ADD). Mehr dazu gibt's im Paper.

Anthropic hat Claude 2.1 released und damit neue Maßstäbe in Sachen Context Window Size gesetzt. 200k Tokens sind nun möglich. Philipp und Fabi diskutieren inwiefern dieses große Context Window überhaupt einen Vorteil bringt. Hier der Link zur Auswertung bezüglich der „Lost in the middle“-Problematik.

Inflection hat ebenfalls ihr neues Modell Inflection 2 rausgebracht, was bald in ihren AI-Assistenten PI integriert werden soll.


Schreibt uns!
Schickt uns eure Themenwünsche und euer Feedback: podcast@programmier.bar

Folgt uns!
Bleibt auf dem Laufenden über zukünftige Folgen und virtuelle Meetups und beteiligt euch an Community-Diskussionen.

Twitter
Instagram
Facebook
Meetup
YouTube


fyyd: Podcast Search Engine
share








 December 6, 2023  35m