Grafik für das Drucken der Seite Abbildung von Tunstall / von Werra | Natural Language Processing mit Transformern | 1. Auflage | 2023 | beck-shop.de

Tunstall / von Werra / Wolf

Natural Language Processing mit Transformern

Sprachanwendungen mit Hugging Face erstellen

lieferbar, 3-5 Tage

46,90 €

Preisangaben inkl. MwSt. Abhängig von der Lieferadresse kann die MwSt. an der Kasse variieren. Weitere Informationen

Fachbuch

Buch. Softcover

Übersetzung der Revised edition 2022. 2023

432 S.

dpunkt.verlag. ISBN 978-3-96009-202-5

Format (B x L): 16,5 x 24 cm

Das Werk ist Teil der Reihe: Animals

Produktbeschreibung

Leistungsfähige State-of-the-Art-Sprachanwendungen mit vortrainierten Transformer-ModellenTransformer haben die NLP-Welt im Sturm erobert: Erhalten Sie einen fundierten und praxisnahen Überblick über die wichtigsten Methoden und Anwendungen im aktuellen NLPDas Buch wurde von den Gründern von Hugging Face, der Plattform für vortrainierte Transformer-Modelle für TensorFlow und PyTorch, verfasstHands-On: Jeder Programmierschritt kann in Jupyter Notebooks nachvollzogen werden
Transformer liefern hervorragende Ergebnisse bei der maschinellen Sprachverarbeitung und haben sich in den letzten Jahren zur vorherrschenden Architektur im Natural Language Processing (NLP) entwickelt. Dieses Praxisbuch zeigt Data Scientists und Programmierer*innen, wie sie NLP-Modelle mit Hugging Face Transformers, einer Python-basierten Deep-Learning-Bibliothek, trainieren und skalieren. Transformer kommen beispielsweise beim maschinellen Schreiben von Nachrichtenartikeln, bei der Verbesserung von Google-Suchanfragen oder bei Chatbots zum Einsatz.
Lewis Tunstall, Leandro von Werra und Thomas Wolf, die die Transformers-Bibliothek von Hugging Face mitentwickelt haben, erklären in diesem Buch, wie Transformer-basierte Modelle funktionieren und wie Sie sie in Ihre Anwendungen integrieren. Sie erfahren, wie Transformer für eine Vielzahl von Aufgaben erfolgreich eingesetzt werden können.
Erstellen, debuggen und optimieren Sie Transformer-Modelle für zentrale NLP-Aufgaben wie Textklassifizierung, Named Entity Recognition oder Question AnsweringLernen Sie, wie Transformer für sprachenübergreifendes Transfer Learning verwendet werdenWenden Sie Transformer auf reale Anwendungsfälle an, bei denen nur auf wenige gelabelte Daten zurückgegriffen werden kannOptimieren Sie Transformer-Modelle für das Deployment mit Techniken wie Distillation, Pruning und QuantisierungTrainieren Sie Transformer von Grund auf und lernen Sie, wie sie auf mehreren GPUs und verteilten Umgebungen skalieren

Topseller & Empfehlungen für Sie

Ihre zuletzt angesehenen Produkte

Autorinnen/Autoren

  • Rezensionen

    Dieses Set enthält folgende Produkte:
      Auch in folgendem Set erhältlich:
      • nach oben

        Ihre Daten werden geladen ...