大規模言語モデルについて調べ始めると、早い段階で「事前学習」と「ファインチューニング」という言葉に出会います。
大規模言語モデルについて学び始めると、まず注目されやすいのは対話性能や文章生成の自然さです。
大規模言語モデル(LLM)は高い性能を持つ一方で、モデルサイズが非常に大きく、実運用ではメモリ使用量と推論レイテンシが大きな課題になります。
実務で大規模言語モデル(LLM)を使おうとすると、多くのチームが早い段階で同じ壁にぶつかります。
大規模言語モデル(LLM)が文章を生成するとき、内部では次に出すべきトークン候補に対して確率分布(Probability Distribution)を作り、その中から一つを選び続けています。
大規模言語モデルの議論では、しばしば「モデルは大きいほど強い」という見方が前面に出ます。