AI・機械学習

AI・機械学習

BERTを理解する

今回は自然言語処理で一つのブレイクスルーとなったBERTについて解説したいと思います。 現時点で、BERTは極めて重要なモデルですので是非しっかり理解していただければと思います。 もちろん新しい仕組みはありますが、基本的には今...
AI・機械学習

事前学習-ファインチューニングをもう少し理解する

こちらの記事で事前学習-ファインチューニングについて説明しましたが、もう少し深く理解したいと思い、論文を読みましたので紹介したいと思います。 今回読んだ論文は以下の論文で、自然言語処理における転移学習(Transfer ...
AI・機械学習

【論文解説】OpenAI 「GPT」を理解する

今回はOpenAIが提案するOpenAI 「GPT」を解説したいと思います。 なお、現在ではGPT2、GPT3というのがありますので、そちらが気になる方は以下の記事をご参照ください。 ただし、GPT2、...
AI・機械学習

ULMFiTを理解する

前回、事前学習-ファインチューニングに関する記事を書いたので、次はその発展形ともいえるUniversal Language Model Fine-tuning(ULMFiT)について説明していきたいと思います。 事前学習-ファインチ...
AI・機械学習

事前学習 – ファインチューニングを理解する

今回は「事前学習(pre-training) - ファインチューニング(fine-tuning)」を説明したいと思います。 以下の2015年の論文を参考に説明していきます。 『Semi-supervised Sequence ...
AI・機械学習

Transformer-XLを理解する

今回は、Transformerの改良版であるTransformer-XLの論文を読んでみたので、詳しく見ていきたいと思います。 Transformer-XLは“Transformer Extra Large”の略で、通常のTrans...
AI・機械学習

【データ分析実践】RNNを使って文章生成を実装してみる

では、今回は今までの星の数当てではなく、再帰的ニューラルネットワーク(RNN)を使って、文章生成をやってみたいと思います。 こちらのTensorflowのチュートリアルを参考にしています。 RNNについては、こちらをご参照くだ...
AI・機械学習

【論文解説】Transformerを理解する

では、今回は2017年に論文「Attention Is All You Need」で提案された“Transformer”について詳しく解説したいと思います。 Transformerとは自然言語処理において、現時点ではもっと...
AI・機械学習

Attentionメカニズムを理解する

今回は、論文「Neural Machine Translation by Jointly Learning to Align and Translate」で提案され、そこからTransformerやBERTに展開していくきっかけとなったA...
AI・機械学習

再帰的ニューラル・ネットワーク(Recurrent Neural Network; RNN)を理解する

再帰的ニューラル・ネットワーク(RNN)とは 時系列のデータをうまく処理するモデルシンプルなRNNだと勾配消失という問題があり、長期の依存関係をうまく取り扱えないそこでLong Short-Term Memory(LSTM)やGated ...
タイトルとURLをコピーしました