Prompting-Skills (Joscha Falck)
In dieser Episode von Educätion im Fokus geht es ums Prompting. Unser Gast Joscha Falck erklärt, wie Large Language Models arbeiten, warum gutes Prompting mehr mit Didaktik als mit Technik zu tun hat und welche konkreten Prompting-Techniken Lehrkräfte im Schulalltag nutzen können. 🎙️ Inhalt im Überblick (00:00) Einführung & Vorstellung des Gastes (01:50) Was passiert beim Prompten im Large Language Model? (06:02) Rechtschreibung, Tokens & Bedeutung im Prompt (07:42) Von Zero-Shot zu Few-Shot: Prompting-Techniken für Lehrkräfte (13:45) Step-back, Chain of Thought & weitere Strategien (16:57) Anthropomorphisierung & kritischer Umgang mit KI (22:50) Blick in die Zukunft: KI-Agenten & automatisierte Prozesse 👤 Unser Gast Joscha Falck ist Mittelschullehrer, Schulentwicklungsmoderator für die Regierung von Mittelfranken, Mitglied im Innovationsteam Digitale Bildung, mehrfacher Buchautor und Blogger mit Schwerpunkt auf KI in Schule und Unterricht. 📖 Aus dem Podcast • Large Language Models rufen keine gespeicherten Antworten ab, sondern generieren jede Ausgabe Token für Token neu. • Rechtschreib- und Zeichensetzungsfehler sind meist nicht problematisch – Bedeutungsfehler hingegen schon. • Prompting bedeutet nicht „richtig fragen“, sondern gezielt instruieren, ähnlich wie gute didaktische Planung. • Erwähnte Methoden des Promptings: Zero-Shot-Prompts umfassen nur eine knappe und direkte Aufgabe, liefern sehr allgemeinen Output. One-Shot- und Few-Shot-Prompts umfassen Beispiele, die mit eingegeben werden, durch welche deutlich präzisere Ergebnisse geliefert werden. Chain-of-Thought-Prompting verlangt vom Modell, Zwischenschritte transparent zu machen. Iteratives Prompting ist schrittweises Nachschärfen durch Rückfragen. Beim Self-Consistency Prompting lässt man das Modell mehrfach unabhängig dieselbe Aufgabe lösen und wählt anschließend die konsistenteste Antwort. Step-back Prompting hilft, Fehlinterpretationen zu vermeiden, indem zuerst der thematische Rahmen geklärt wird, wodurch das Modell in den Bedeutungsraum gelenkt wird, in dem es sich bewegen soll. • Weitere Prompting-Methoden (die auch kombiniert werden können): Role Prompting weist dem Modell eine Rolle zu. Context Prompting liefert zusätzliches Hintergrundwissen, z. B. Anhänge. Instruction Prompting umfasst explizite Arbeitsanweisungen. Constraint Prompting setzt Einschränkungen. • Beispiele, Kriterien und klare Zielvorgaben erhöhen die Qualität des Outputs erheblich. • Die Vermenschlichung von KI birgt Risiken und sollte – besonders im Unterricht – reflektiert thematisiert werden. • KI-Agenten könnten künftig ganze Arbeitsprozesse übernehmen, z. B. Recherche, Materialerstellung oder Organisation. • Prompting bleibt auch langfristig relevant – als Interaktions- und Steuerungskompetenz im Umgang mit KI. Die Episode wurde mehrere Monate vor ihrer Veröffentlichung aufgenommen. Inzwischen sind neuere Versionen der GPT-Modelle von OpenAI verfügbar. 🏫 Richtlinien zur sicheren Nutzung von KI im Schulkontext: KI-Anwendungen dürfen grundsätzlich gezeigt werden; es ist jedoch immer auf eine Vorbildfunktion zu achten. Nur von der Schulleitung eingeführte Anwendungen dürfen aktiv mit Lernenden genutzt werden. Als Landeslösungen sind für Baden-Württemberg aktuell telli und F13 verfügbar. Grundsätzlich dürfen keine personenbezogenen Daten verarbeitet, also gepromptet werden. Ausnahme: F13. Es dürfen keine privaten Accounts im Unterricht genutzt werden. 🔗 Weiterführende Links • Prompting verstehen von Joscha Falck (https://joschafalck.de/prompting-verstehen/) • Dagstuhl-Dreieck (https://dagstuhl.gi.de/dagstuhl-erklaerung)