用語集

BERT(トランスフォーマーからの双方向エンコーダ表現)

Google の革新的な NLP モデル、BERT をご覧ください。双方向のコンテキスト理解により、検索やチャットボットなどのAIタスクがどのように変化するかをご覧ください。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

BERTとは、Bidirectional Encoder Representations from Transformersの略で、Google AI Languageの研究者によって開発された自然言語処理(NLP)の事前学習のための画期的な技術である。2018年に影響力のある論文「BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding」を通じて紹介されたBERTは、機械が人間の言語を理解する方法に革命をもたらした。これは、ウィキペディアのようなプレーンテキストコーパスのみを使用して事前訓練された、最初の深い双方向の教師なし言語表現の1つであった。BERTは、強力なTransformerアーキテクチャ、特にエンコーダ部分を活用し、単語を順次処理するのではなく、文中の他のすべての単語と同時に関連して処理する。これにより、従来の一方向モデルと比較して、文脈をより深く理解することができる。

バートの働き

テキストを単一方向(左から右または右から左)で処理する以前のモデルとは異なり、BERT は、Transformer エンコーダと自己注意メカニズムを使用して、単語のシーケンス全体を一度に処理する。この双方向アプローチにより、BERT は、その前後の単語に基づいて単語のコンテキストを把握することができる。たとえば、BERT は、文全体の文脈を考慮することで、「現金を引き出すために銀行に行く必要がある」 と「川の土手は濁っていた」の「銀行」の意味を区別することができる。

BERT は、膨大なテキストデータに対する事前学習段階で、これらの複雑な言語関係を学習する。これには主に2つの教師なしタスクが含まれる:

  1. マスク言語モデル(MLM):入力トークン(単語またはサブワード)のある割合がランダムにマスク(非表示)され、モデルは文脈に基づいてこれらのマスクされたトークンを予測するように学習する。
  2. 次文予測(NSP):このモデルは文のペアを受け取り、2番目の文が原文で最初の文に続く実際の次の文なのか、それとも単なるランダムな文なのかを予測するように学習する。

この事前学習の結果は、構文と意味論を捕捉する豊富な言語埋め込みを持つモデルである。この事前訓練された BERT モデルは、その後、より小さなタスク固有のデータセットを使用して、さまざまな特定の下流の NLP タスクにすばやく適合させたり、「微調整」したりすることができます。事前に訓練された知識を活用するこのプロセスは、転移学習の一形態です。

主な特徴と利点

  • 深い双方向文脈:BERTの主な革新点は、単語の前後の単語を同時に見て、単語の文脈を理解する能力です。これは、GPTの初期バージョンのような一方向のモデルと比較して、言語のニュアンスをより豊かかつ正確に理解することにつながる。
  • 最先端の性能:リリースと同時に、BERTは、(SQuADデータセットのような)質問応答や 自然言語理解(NLU)タスクを含む、広範なNLPベンチマークで最先端の結果を達成しました。
  • トランスファー学習大国:BERT の事前学習済みモデルは、強力な基盤として機能します。センチメント分析や固有表現認識(NER)のような特定のタスクで BERT を微調整することにより、開発者は、ゼロからモデルをトレーニングする場合と比較して、大幅に少ないタスク固有のデータとトレーニング時間で高いパフォーマンスを達成することができます。
  • 幅広い利用可能性:事前に訓練されたBERTモデルは、以下のようなプラットフォームを通じて容易にアクセスできます。 Hugging Faceなどの一般的なディープラーニング(DL)フレームワークで使用できます。 PyTorchTensorFlow.

実世界での応用

言語のニュアンスを理解するBERTの能力は、さまざまな実世界の人工知能(AI)アプリケーションの大幅な改善につながった:

  • 検索エンジン: Google 検索は、ユーザーのクエリ、特に会話や複雑なクエリをよりよく理解し、より適切な検索結果を導くためにBERTを組み込んだことで有名である。Google AI Blogの投稿で説明されているように、BERTは、"for "や "to "といった前置詞の重要性を理解することで、"can you get medicine for someone pharmacy "のような検索の背後にある意図を把握するのに役立つ。
  • チャットボットとバーチャルアシスタントBERTは、チャットボットと バーチャルアシスタントが、ユーザーの要求をより正確に理解し、会話の文脈を維持し、顧客サービス、予約システム、情報検索においてより役立つ応答を提供する能力を強化します。
  • センチメント分析:企業は、BERT ベースのモデルを使用して、顧客レビュー、ソーシャルメディアコメント、および調査回答を分析し、世論と製品フィードバックをより高い精度で測定します。
  • テキスト要約と質問応答:BERT は、長い文書を自動的に要約したり(テキスト要約)、与えられたテキストの一節に基づ いて質問に答えたりするシステムを作成するために微調整することができる。

BERTは主にNLPで使用されていますが、BERTが普及させたトランスフォーマー・アーキテクチャーは、次のようなモデルで使用されているヴィジョン・トランスフォーマー(ViT)など、コンピュータ・ビジョン(CV)の進歩にも影響を与えています。 RT-DETR.Ultralytics HUBのようなプラットフォームは、Transformerの原理に基づいて構築されたものを含む、様々なAIモデルのトレーニングと 展開を容易にします。

すべて読む