Wie man in ChatGPT, Gemini und Co hineinschreibt, so schallt es heraus. Bestimmte Methoden und Tricks verbessern die Ausgabe solcher KI-Sprachmodelle (LLMs) deutlich. Hilft es, eine KI emotional unter Druck zu setzen? Braucht es künftig noch Prompt-Engineers? Moritz Metz und Ralf Krauter probieren verschiedenste Prompts.
Kapitelmarken
(00:00) Ralf hat eine Überraschung
(01:23) Wie nutze ich generative KI effizient?
(04:45) Ziel setzen, Rolle vorgeben, Kontext geben
(07:32) Vorteile und Vorurteile beim Prompting mit Rollen
(09:30) Prompting mit Beispielen, Referenzen und Formatvorgaben
(12:05) Nilpferde, Token, Kontextfenster und der Recency Bias
(15:13) Kann KI die eigenen Prompts optimieren?
(18:18) Hilft Motivieren, Bedrohen und Bestrafen?
(22:45) Sollten wir zu Chatbots sein sein?
(24:19) Promt-Engineering könnte überflüssig werden
Weiterführende Links