イノウエサイシン
LLM は私たちの身近な存在になりましたが、その「中身」はブラックボックスのまま使われがちです。 本セッションでは、PyTorch と Python だけを用いて Transformer ベースの小さな LLM を自作し、さらに RAG(検索+生成) と組み合わせる方法を紹介します。
外部 API や商用モデルには依存せず、仕組みを理解しながら実装力を鍛えることができます。
本セッションは、LLM の仕組みを基礎から理解したい方向けに、Python と PyTorch だけで Transformer ベースの小さな自作 LLM をゼロから構築し、RAG(検索+生成)の基本的な組み合わせ方を解説します。外部 API や商用モデルに頼らず、トークナイズ → 埋め込み → 因果 Self-Attention → MLP → 損失計算までの流れを、コードと図で段階的に追体験します。さらに最小構成の実装、Retriever による文脈検索、ハイパーパラメータ設定のコツを共有し、図解と最小コードも用意して理解を深めます。小規模データでも動かせる実践志向の内容で、学びを現場に生かせます。
「中身を知らないまま使う」状態に疑問を持ち、実際に小さな LLM を自作して仕組みを追体験した経験を共有します。 自作してみることで、Transformer の動きを具体的に理解できるようになりました。
プロフィール
2014年よりWebエンジニアとして活動し、現在は生成AIを活用したオンラインカウンセリングアプリを個人開発で制作しました。その際、OpenAIのリアルタイムAPIを使いましたが、APIをなぞるだけでは理解が浅く、難しさを感じた経験があります。そこでAIの仕組みを根本から学ぶべく、ゼロからLLMを作る取り組みを始めました。書籍『つくりながら学ぶ!LLM自作入門』を読みながら、自作を通じて理解を深めることの重要性を実感し、本発表に至りました。