Jay Alammar: Praxisbuch Large Language Models, Flexibler Einband
Praxisbuch Large Language Models
- Sprache mit KI verarbeiten und generieren
(soweit verfügbar beim Lieferanten)
- Übersetzung:
- Marcus Fraaß
- Verlag:
- dpunkt.Verlag, 10/2025
- Einband:
- Flexibler Einband
- Sprache:
- Deutsch
- ISBN-13:
- 9783960092667
- Artikelnummer:
- 12199345
- Umfang:
- 434 Seiten
- Sonstiges:
- komplett in Farbe
- Gewicht:
- 824 g
- Maße:
- 236 x 162 mm
- Stärke:
- 26 mm
- Erscheinungstermin:
- 30.10.2025
- Serie:
- Animals
Klappentext
Alle Werkzeuge und Techniken für die praktische Arbeit mit LLMs
Das Handbuch für das intuitive Verständnis von LLMs: Mit zahlreichen Visualisierungen, die Konzepte schnell zugänglich machen
Themen sind die Sprachverarbeitung - Textklassifikation, Suche oder Cluster - und die Sprachgenerierung - vom Prompt Engineering bis zur Retrieval Augmented Generation (RAG)
Die Autoren haben mit ihren beliebten Blogs Millionen von Entwickler*innen geholfen, Machine Learning und KI zu verstehen
Diese umfassende und anschauliche Einführung in die Welt der LLMs beschreibt sowohl konzeptionelle Grundlagen als auch konkrete Anwendungen und nützliche Tools. Tauchen Sie in das Innenleben von LLMs ein und erkunden Sie ihre Architekturen, Einsatzbereiche, Trainingsmethoden und Feintuning-Techniken. Mit seiner einzigartigen Mischung aus intuitiv verständlichen Illustrationen und praxisbezogenen Erläuterungen ist dieses Buch die ideale Ausgangsbasis für alle, die die Möglichkeiten von KI-Systemen voll ausschöpfen möchten.
Sie lernen, vortrainierte Transformer-LLMs von Hugging Face für Anwendungsfälle wie das Verfassen von Texten oder für Inhaltszusammenfassungen einzusetzen. Sie erfahren außerdem, wie Sie Suchsysteme erstellen und vorhandene Bibliotheken und vortrainierte Modelle für Textklassifikation, Suche und Clustering nutzen.
Verstehen Sie die Architektur von Transformer-basierten Sprachmodellen, die bei der Textgenerierung und -repräsentation hervorragende Ergebnisse liefern
Entwerfen Sie fortgeschrittene LLM-Pipelines, um Textdokumente zu clustern und die darin enthaltenen Themen zu erforschen
Erstellen Sie semantische Suchmaschinen, die über den Abgleich von Schlagwörtern hinausgehen und auf Methoden wie Dense Retrieval und Reranking basieren
Lernen Sie, wie Sie generative Modelle optimal einsetzen - vom Prompt Engineering bis hin zur Retrieval Augmented Generation (RAG)
Entwickeln Sie ein tieferes Verständnis dafür, wie LLMs trainiert und für spezifische Anwendungen optimiert werden, beispielsweise durch Feintuning generativer Modelle, Contrastive Fine-Tuning und In-Context-Learning
Anmerkungen:
Bitte beachten Sie, dass auch wir der Preisbindung unterliegen und kurzfristige Preiserhöhungen oder -senkungen an Sie weitergeben müssen.