◼️概要
自然言語処理における革命的技術であるTransformerモデルについて学びます。2017年に「Attention is all you need」論文で提案されたTransformerは、従来のリカレントニューラルネットワークの限界を超え、長い文章でも効率的に特徴を抽出できる画期的なモデルです。本回では、Transformerの核となるAttention機構の仕組みと実装について理解を深め、GPTなどの大規模言語モデルの基盤技術を習得します。
◼️コース内容
生成AIエンジニア講座(全6回)
第五回:Transformerモデル
目的:現代の自然言語処理の基盤となるTransformerモデルの原理を理解し、基本的な実装方法を習得する
対象者:第四回までを受講した方、またはニューラルネットワークの基礎知識を持つ方
内容:
Transformerモデルの基本構造と特徴
Attention機構の原理と数学的基礎
Self-AttentionとMulti-head Attentionの仕組み