BERT ばーと
双方向Transformer事前学習ファインチューニング文章分類質問応答Google
BERTについて教えて
簡単に言うとこんな感じ!
Googleが2018年に発表した「言葉を理解するAI」の大ヒット作だよ!「文章を左から読む」「右から読む」を同時にやる双方向読解で、文脈の意味をよりよく理解できるんだ。検索エンジンの精度向上や、文書分類・感情分析・Q&Aシステムなどで大活躍してる!
BERTとは
BERT(Bidirectional Encoder Representations from Transformers) とは、Googleが2018年に発表した事前学習済み言語モデルです。名前の通り 双方向(Bidirectional) にテキストを処理するTransformerベースのエンコーダーで、文章の意味理解において当時の最高性能を大幅に更新しました。
BERTの最大の特徴は 双方向の文脈理解 です。従来のGPTなど「次の単語を予測する」方向性(左→右)のモデルと異なり、BERTは文章全体を両方向から同時に読み込むことで、単語の意味を前後の文脈から総合的に理解します。「銀行(bank)」という単語が「川岸」か「金融機関」かを文脈で正確に区別できるのはこのためです。
事前学習済みモデルを ファインチューニング(少量のタスク特化データで追加学習)することで、感情分析・文書分類・質問応答・固有表現抽出など多くのNLPタスクで高精度を実現できます。2019年にはGoogleの検索アルゴリズムに採用され、検索精度が大幅に向上したことでも有名です。
BERTの事前学習タスク
BERTのモデルサイズ
| モデル | Transformerレイヤー数 | ヘッド数 | パラメータ数 |
|---|---|---|---|
| BERT-Base | 12 | 12 | 1.1億 |
| BERT-Large | 24 | 16 | 3.4億 |
| Japanese BERT(東北大) | 12 | 12 | 1.1億(日本語特化) |
歴史と背景
- 2018年10月 — GoogleがBERT論文を発表。11のNLPベンチマークで最高性能を更新
- 2018年11月 — BERTのオープンソース公開。多数の派生モデルが誕生
- 2019年10月 — GoogleがGoogle検索にBERTを適用。特に長いクエリの理解精度が向上
- 2019年 — RoBERTa(Facebook)、ALBERT(Google)など改良版が次々登場
- 2020年 — 日本語BERTモデル(東北大・NICT等)が公開。日本語タスクへの適用が容易に
- 2022年〜 — GPT-3/4の登場で生成系が注目されるも、理解系タスクではBERT系が引き続き活躍
BERTと GPT の違い
| 観点 | BERT | GPT |
|---|---|---|
| Transformerの構造 | エンコーダーのみ | デコーダーのみ |
| 処理方向 | 双方向(前後から同時) | 一方向(左→右) |
| 得意タスク | 文章理解・分類・抽出 | 文章生成・チャット |
| 事前学習 | 穴埋め(MLM) | 次単語予測 |
| 応用例 | 検索・QA・分類 | ChatGPT・Copilot |
関連する規格・RFC
| 規格・RFC番号 | 内容 |
|---|---|
| — | 学術論文ベースの技術のため公式規格なし |
関連用語
- Transformer — BERTの基盤となるアーキテクチャ
- アテンション機構 — Transformerの中核となる仕組み
- GPT — BERTと対をなす生成系言語モデル
- ファインチューニング — 事前学習済みモデルをタスクに合わせて追加学習
- 自然言語処理(NLP) — テキストを扱うAI技術の総称
- 大規模言語モデル(LLM) — 大規模な言語生成AIモデル
- トークナイゼーション — テキストをトークン単位に分割する処理