Workshop Prompt Engineering
Effektives Prompting mit Large Language Models
Dieser Workshop zielt darauf ab, Fachanwendende tiefgreifende Kenntnisse und Fähigkeiten im Umgang mit ChatGPT und anderen großen Sprachmodellen (LLMs) zu vermitteln. Die Teilnehmenden lernen, wie sie durch spezialisierte Prompting-Techniken die Leistungsfähigkeit dieser Modelle optimal nutzen können. Ziel ist es, die Zuverlässigkeit und Präzision der Modellausgaben zu erhöhen, das Verständnis für fortgeschrittene Einsatz- und Integrationsmöglichkeiten zu fördern und die Anwendungssicherheit zu gewährleisten.
Zielgruppe
Der Workshop richtet sich an Fachanwendende, Entwickler und Entwicklerinnen, Data Scientists und Produktmanager und Produktmanagerinnen, die ihre Fähigkeiten im spezifischen Bereich der Language Models erweitern möchten. Ebenfalls angesprochen sind Entscheidungstragende, die die Einsatzmöglichkeiten von LLMs in ihren Projekten und Produkten evaluieren wollen.
Voraussetzungen
Keine. Erfahrungen mit spezifischen LLMs wie ChatGPT sind von Vorteil, aber nicht zwingend erforderlich.
Vorbereitung
Im Rahmen mehrerer Vorbereitungsgespräche erstellen wir ein auf Ihre Bedürfnisse ausgerichtetes Workshopkonzept und planen die Workshopdurchführung.
Nachbereitung
Abschlussdiskussion und Q&A
- Offene Fragerunde
- Diskussion über zukünftige Entwicklungen und Forschungsrichtungen in der Welt der LLMs
Ergebnisse
Der Workshop kombiniert theoretische Einheiten mit praktischen Übungen, um das Erlernte unmittelbar anzuwenden und zu vertiefen. Wir legen besonderen Wert auf Techniken, die die Zuverlässigkeit und Präzision der Modellausgaben erhöhen, wodurch Sie fundierte und vertrauenswürdige Ergebnisse erzielen können.
Workshopdurchführung
Einführung
- Large Language Models & Prompting
Basics des Prompt Engineerings
- Aufbau eines Prompts
- Iterative Prompt Development
- Techniken und Best Practices zur Verbesserung von Prompts
Erweiterte Prompting-Techniken
- In-Context Learning: Beispielbasiertes Lernen
- Chain-Of-Thought-Prompting: ENtwickeln von Erklärungspfaden
- Self-Refelction
- Self-Consistency & Prompt Ensembles
- Hands-On-Session
Anwendungsbeispiele & Use Case Impuls
- Anwendungsbeispiele aus dem Alltag
- Vorstellung eines komplexeren Use Cases aus der Praxis
RAG - Retrieval Augmented Generation
- Verlässlichkeit und Kontext von Sprachmodellen
- Anbindung externer Informationen
- RAG
Adversarial Prompting
- Methoden des Adversarial Prompting (u.a. Jailbreaking und Prompt Injections)
- Umgang mit Adversarial Prompting
Autonome Agenten
- Function Calling
- Komponenten und Funktionsweise von autonomen Agenten
- ReAct
Praktische Anwendung und Bewertung
- Evaluation von GenAI-Systemen
- Compound AI Systems
Seminarleitung:
Leroy Anozie arbeitet seit 2022 als Data Scientist bei der Informationsfabrik. Er hat einen Master of Science in Wirtschaftsinformatik und verfügt über langjährige und praktische Berufserfahrung in der klassischen Softwareentwicklung sowie in den Bereichen Machine Learning und Artificial Intelligence. Als Data Scientist unterstützt er Kunden sowohl bei der Konzeption als auch bei der Umsetzung von KI-Projekten. Seine Schwerpunktthemen sind dabei die Zeitreihenanalyse und generative KI.
Niklas Lümmen, Master of Science in Big Data & Business Analytics, ist seit 2023 als Projektleiter mit Schwerpunkt AI bei der Informationsfabrik tätig. In diesem Rahmen führt er Anforderungsworkshops durch, kreiert gemeinsam mit Kunden neue Ideen für KI in deren Wertschöpfungskette und begleitet diese durch die Umsetzung in Produktion.