ご縁があり、講談社から共著で『Kaggle ではじめる大規模言語モデル入門 〜自然言語処理〈実践〉プログラミング〜』を出版します。 Amazon ページ や講談社の書籍ページは先日公開され、年明け 2026 年 1 月中旬に出版予定です。

書籍概要
書名の通り、Kaggle と大規模言語モデル (Large Language Models; LLM) を題材とした書籍です。 機械学習コンペティション(コンペ)での事例を通じて、LLM をはじめとした自然言語処理に関する実践的な知識やプログラミングを学ぶ内容になっています。
本書の大きな特徴は、学習済みのモデルを所与のものとして、どうモデルを活用するかに焦点を当てていることです。 一般的な LLM の解説は、肝となる Transformer などのモデル構造や事前学習の仕組みなどから丁寧に始まることが多いかと思います。 一方で本書では、これらについては簡素な説明にとどめ、公開されているモデルをどうファインチューニングするかという視点で実践的な暗黙知や勘所について積極的に取り上げています。
大きく基礎編と応用編に分かれる本書の構成を、次の図に示します。

基礎編では最初に、自然言語処理(1 章)とコンペ(2 章)の概要をそれぞれ学びます。 その後に、日本語のコンペプラットフォームである「atmaCup」で開催されたコンペを用いて、サンプルコードを動かしながら上位に相当するスコアを出す道のりを追体験していきます(3 章)。 最後に、コンペの制約の中でスコアを高める技法を学びます。 具体的には、LLM 自体の性能を改善(4 章)と、LLM の軽量化・高速化・省メモリ化(5 章)に分かれています。
応用編(6〜13 章)は、8 つの Kaggle コンペの上位解法です。 Kaggle で BERT が活用される契機となった 2019 年の「Jigsaw Unintended Bias in Toxicity Classification」から、2025 年 4 月に終わった「AI Mathematical Olympiad - Progress Prize 2」まで、代表的な自然言語処理コンペを時系列順に取り上げます。 それぞれのコンペで上位に入った参加者の方々に、概要や上位解法などの解説を依頼しました。
本書は実践的な課題解決の現場で得られた知見をもとに構成しており、教科書的な書籍とは異なる実用的な視点を提供できるはずです。 コンペ参加者に限らず、LLM に関心を持つエンジニアや研究者にとっても有益な内容を含んでいると考えています。
筆頭著者の高野さんのブログでも、書籍執筆への思いや具体的な目次が掲載されています。 ぜひご覧ください。
出版の経緯や思い
筆頭著者の高野さんとは、自然言語処理や金融情報学の領域で Kaggle 以外でも以前から親交がありました。 高野さんは、LLM を題材にした Kaggle コンペで個人の金メダルを獲得するなど精力的に活動されており、最近も複数のコンペで金メダルを獲得しています。 私自身はここ数年 Kaggle に十分な時間を割けていなかったのですが、2024 年 11 月に高野さんから本書の企画についてお声がけいただき、良書の出版に貢献できるならば是非お手伝いしたいと思いました。 私へのお声がけ前から高野さんとやりとりしていた齋藤さんも含め、3 名での執筆体制となりました。
LLM 周辺の技術進化は非常に速く、書籍化も話題を見定めながら迅速に進めるのが重要と考えました。 8 月末の入稿時期を自主的に設定し、限られた期間の中で最新動向を追いながら、書籍として過不足のない構成になるよう議論を重ねてきました。 応用編に寄稿いただいた参加者の方々には、短期間にもかかわらず非常に充実した上位解法の原稿をご執筆いただきました。
私自身はまず、基礎編 2 章のコンペ概要を執筆しました。 ここには過去の Kaggle 関連本の執筆経験を活用し、さらに毎週発行している「Weekly Kaggle News」でも扱った最新の話題も盛り込みました。 そして残りの時間の多くは、書籍全体の編集者的な立場の作業に充てています。 執筆者のよる説明の差異を統一する、コンペ経験者にしか伝わらない説明を極力減らす、応用編の寄稿で登場する話題に対して基礎編との対応関係を確認するなど、多くの読者にとって無理なく楽しめる書籍となればと思い調整を続けています。
まとめ
年明け 2026 年 1 月中旬に出版予定の『Kaggle ではじめる大規模言語モデル入門 〜自然言語処理〈実践〉プログラミング〜』(講談社) を紹介しました。 本書の作成に当たり、数多くの方にご協力いただいています。 ご期待に沿えるよう、出版まで精一杯の作業を進めてまいります。