
LLMs übernehmen in modernen Anwendungen die Rolle einer intelligenten Transformationsschicht. Sie verarbeiten komplexe Nutzeranfragen und generieren adaptive Antworten - oft innerhalb einer mehrstufigen Anwendungsschleife -, bevor dem Nutzer ein optimiertes Ergebnis präsentiert wird. Für Entwickler bedeutet das neue Anforderungen: LLMs gezielt zu steuern, ihren Output schrittweise zu verfeinern und ihre vielseitigen Einsatzmöglichkeiten in den Entwicklungsprozess zu integrieren.
Die Autoren, beide maßgeblich an der Entwicklung von GitHub Copilot beteiligt, vermitteln das komplette Spektrum des Prompt Engineerings - von den Grundlagen bis hin zu fortgeschrittenen Techniken wie Conversational Agency, der Integration externer Tools, der Orchestrierung komplexer Workflows und der Evaluierung von LLM-Anwendungen.
Effektives Prompt Engineering erfordert ein tiefes Verständnis dafür, wie sich Kontext optimal strukturieren und LLM-basierte Workflows effizient gestalten lassen, um nützliche Ergebnisse zu erhalten. Dieses Buch bietet eine praxisnahe Anleitung, um LLMs als leistungsfähige Bausteine produktiver Softwarelösungen einzusetzen.
We publiceren alleen reviews die voldoen aan de voorwaarden voor reviews. Bekijk onze voorwaarden voor reviews.