Wird geladen…
Keine Ergebnisse gefunden.
Auf LinkedIn-Feed teilen Twitter Facebook

03

Transformer-Modelle und BERT-Modell

03

Transformer-Modelle und BERT-Modell

magic_button Deep Learning NLP Encoder-Decoder Architecture BERT
These skills were generated by AI. Do you agree this course teaches these skills?
2 Stunden Fortgeschrittene

Dieser Kurs bietet eine Einführung in die Transformer-Architektur und das BERT-Modell (Bidirectional Encoder Representations from Transformers). Sie lernen die Hauptkomponenten der Transformer-Architektur wie den Self-Attention-Mechanismus kennen und erfahren, wie Sie diesen zum Erstellen des BERT-Modells verwenden. Darüber hinaus werden verschiedene Aufgaben behandelt, für die BERT genutzt werden kann, wie etwa Textklassifizierung, Question Answering und Natural-Language-Inferenz. Der gesamte Kurs dauert ungefähr 45 Minuten.

Holen Sie sich noch heute ein Skill-Logo!

info
Kursinformationen
Ziele
  • Hauptkomponenten der Transformer-Architektur kennenlernen
  • Lernen, wie ein BERT-Modell mithilfe von Transformern erstellt wird
  • BERT für unterschiedliche Aufgaben im Zusammenhang mit Natural Language Processing (NLP) verwenden
Voraussetzungen

– Fortgeschrittene Kenntnisse in Machine Learning

– Fähigkeit, Worteinbettungen und Aufmerksamkeitsmechanismen zu verstehen

– Kenntnisse in Python und TensorFlow

Zielgruppe
Dieser Kurs richtet sich an alle, die mehr über Textklassifizierung, Question Answering und Natural-Language-Inferenz erfahren möchten, beispielsweise: – Data Scientists – Machine Learning Engineers – Softwareentwickler
Verfügbare Sprachen
English, español (Latinoamérica), français, עברית, bahasa Indonesia, italiano, 日本語, 한국어, português (Brasil), 简体中文, 繁體中文, Deutsch und Türkçe

Die Möglichkeiten von Challenge-Labs

Sie können jetzt schneller ein Skill-Logo erwerben, da Sie dafür nicht den gesamten Kurs absolvieren müssen. Wenn Sie sich sicher fühlen, können Sie direkt zum Challenge-Lab wechseln.

Vorschau