This deep learning course provides a comprehensive introduction to attention mechanisms and transformer models the foundation of modern GenAI systems. Begin by exploring the shift from traditional neural networks to attention-based architectures. Understand how additive, multiplicative, and self-attention improve model accuracy in NLP and vision tasks. Dive into the mechanics of self-attention and how it powers models like GPT and BERT. Progress to mastering multi-head attention and transformer components, and explore their role in advanced text and image generation. Gain real-world insights through demos featuring GPT, DALL·E, LLaMa, and BERT.



Empfohlene Erfahrung
Was Sie lernen werden
Apply self-attention and multi-head attention in deep learning models
Understand transformer architecture and its key components
Explore the role of attention in powering models like GPT and BERT
Analyze real-world GenAI applications in NLP and image generation
Kompetenzen, die Sie erwerben
- Kategorie: Deep Learning
- Kategorie: Natural Language Processing
- Kategorie: Generative AI
- Kategorie: PyTorch (Machine Learning Library)
- Kategorie: ChatGPT
- Kategorie: Tensorflow
- Kategorie: Artificial Neural Networks
- Kategorie: Artificial Intelligence and Machine Learning (AI/ML)
- Kategorie: OpenAI
- Kategorie: Large Language Modeling
- Kategorie: Machine Learning Methods
Wichtige Details

Zu Ihrem LinkedIn-Profil hinzufügen
Juni 2025
7 Aufgaben
Erfahren Sie, wie Mitarbeiter führender Unternehmen gefragte Kompetenzen erwerben.

In diesem Kurs gibt es 2 Module
Explore the power of attention mechanisms in modern deep learning. Compare traditional neural architectures with attention-based models to see how additive, multiplicative, and self-attention boost accuracy in NLP and vision tasks. Grasp the core math and flow of self-attention, the engine behind Transformer giants like GPT and BERT and build a solid base for advanced AI development.
Das ist alles enthalten
10 Videos1 Lektüre3 Aufgaben
Master multi-head attention and transformer models in this advanced module. Learn how multi-head attention improves context understanding and powers leading transformer architectures. Explore transformer components, text and image generation workflows, and real-world use cases with models like GPT, BERT, LLaMa, and DALL·E. Ideal for building GenAI-powered applications.
Das ist alles enthalten
11 Videos4 Aufgaben
Erwerben Sie ein Karrierezertifikat.
Fügen Sie dieses Zeugnis Ihrem LinkedIn-Profil, Lebenslauf oder CV hinzu. Teilen Sie sie in Social Media und in Ihrer Leistungsbeurteilung.
Dozent

von
Warum entscheiden sich Menschen für Coursera für ihre Karriere?





Neue Karrieremöglichkeiten mit Coursera Plus
Unbegrenzter Zugang zu 10,000+ Weltklasse-Kursen, praktischen Projekten und berufsqualifizierenden Zertifikatsprogrammen - alles in Ihrem Abonnement enthalten
Bringen Sie Ihre Karriere mit einem Online-Abschluss voran.
Erwerben Sie einen Abschluss von erstklassigen Universitäten – 100 % online
Schließen Sie sich mehr als 3.400 Unternehmen in aller Welt an, die sich für Coursera for Business entschieden haben.
Schulen Sie Ihre Mitarbeiter*innen, um sich in der digitalen Wirtschaft zu behaupten.
Häufig gestellte Fragen
The attention mechanism allows transformer models to focus on relevant parts of input sequences, weighing relationships between tokens to improve context understanding and accuracy in tasks like translation or text generation.
Yes, ChatGPT is built on the transformer architecture, specifically using a variant of the GPT (Generative Pre-trained Transformer) model, which enables it to generate human-like responses.
The Vision Transformer (ViT) applies self-attention to image patches instead of pixels, enabling the model to capture spatial relationships and global context for accurate image classification and understanding.
Weitere Fragen
Finanzielle Unterstützung verfügbar,