Praxiseinstieg Large Language Models

Strategien und Best Practices für den Einsatz von ChatGPT und anderen LLMs

Sinan Ozdemir

PDF
39,90 (Lieferbar ab 14. Mai 2024)
Amazon iTunes Thalia.de Weltbild.de Hugendubel Bücher.de ebook.de kobo Osiander Google Books Barnes&Noble bol.com Legimi yourbook.shop Kulturkaufhaus ebooks-center.de
* Affiliatelinks/Werbelinks
Hinweis: Affiliatelinks/Werbelinks
Links auf reinlesen.de sind sogenannte Affiliate-Links. Wenn du auf so einen Affiliate-Link klickst und über diesen Link einkaufst, bekommt reinlesen.de von dem betreffenden Online-Shop oder Anbieter eine Provision. Für dich verändert sich der Preis nicht.

O'Reilly img Link Publisher

Naturwissenschaften, Medizin, Informatik, Technik / Informatik

Beschreibung

Large Language Models (LLMs) wie ChatGPT sind enorm leistungsfähig, aber auch sehr komplex. Praktikerinnen und Praktiker stehen daher vor vielfältigen Herausforderungen, wenn sie LLMs in ihre eigenen Anwendungen integrieren wollen. In dieser Einführung räumt Data Scientist und KI-Unternehmer Sinan Ozdemir diese Hürden aus dem Weg und bietet einen Leitfaden für den Einsatz von LLMs zur Lösung praktischer Probleme des Natural Language Processings.Sinan Ozdemir hat alles zusammengestellt, was Sie für den Einstieg benötigen: Schritt-für-Schritt-Anleitungen, Best Practices, Fallstudien aus der Praxis, Übungen und vieles mehr. Er stellt die Funktionsweise von LLMs vor und unterstützt Sie so dabei, das für Ihre Anwendung passende Modell und geeignete Datenformate und Parameter auszuwählen. Dabei zeigt er das Potenzial sowohl von Closed-Source- als auch von Open-Source-LLMs wie GPT-3, GPT-4 und ChatGPT, BERT und T5, GPT-J und GPT-Neo, Cohere sowie BART.• Lernen Sie die Schlüsselkonzepte kennen: Transfer Learning, Feintuning, Attention, Embeddings, Tokenisierung und mehr• Nutzen Sie APIs und Python, um LLMs an Ihre Anforderungen anzupassen• Beherrschen Sie Prompt-Engineering-Techniken wie Ausgabe-Strukturierung, Gedankenketten und Few-Shot-Prompting• Passen Sie LLM-Embeddings an, um eine Empfehlungsengine mit eigenen Benutzerdaten neu zu erstellen• Konstruieren Sie multimodale Transformer-Architekturen mithilfe von Open-Source-LLMs• Optimieren Sie LLMs mit Reinforcement Learning from Human and AI Feedback (RLHF/RLAIF)• Deployen Sie Prompts und benutzerdefinierte, feingetunte LLMs in die Cloud

Weitere Titel in dieser Kategorie
Cover Data Mining
Jürgen Cleve
Cover GitOps
Johannes Schnatterer
Cover Design trifft Code
Stephanie Stimac
Cover GitOps
Josia Scheytt
Cover Design trifft Code
Stephanie Stimac
Cover Modernes IT-Management
Markus Mangiapane
Cover Mediendidaktik
Michael Kerres
Cover Mediendidaktik
Michael Kerres

Kundenbewertungen

Schlagwörter

LLaMa, NLP, BERT, EleutherAI, Python, Question Answering, BART, KI, Transfer Learning, GPT-4, Bard, AI, Transformer, Attention, Embeddings, Cohere, Machine Learning, Natural Language Processing, LangChain, Q&A, Prompt Engineering, T5, OpenAI