言語処理学会2026 参加レポート
この記事の目次
はじめに
私たちは、マイナビでの業務で推薦システムの開発や面接対話システムの開発プロジェクトで自然言語処理の技術を使っています。
その知見を深めるべく、2026年3月9日〜13日に栃木県宇都宮市で開催された「NLP2026(言語処理学会 第32回年次大会)」に現地参加し、各種発表を聴講しました。
この記事では会場の様子や講演、ポスターセッションの様子をお伝えし、気になった発表についていくつかご紹介します。
言語処理学会とは
言語処理学会が主催する言語処理に関する理論から応用まで幅広く研究発表が行われます。
情報科学に限らず、言語学、心理学、認知科学など多様な分野から参加があります。
毎年3月ごろに開催され、アカデミアだけでなく多くの企業も積極的に参加しており、社会実装を主眼に置いた研究も多くなっています。
ChatGPTの登場から3年あまりがたち、自然言語処理に分野は大きく進展しました。
今回のトピックとしては、LLMの解釈性、法規制・倫理、複雑な対話や図表読解など高度なマルチモーダル研究が挙げられ、実世界での運用を一層意識した会となりました。
開催地の宇都宮について
近年西日本で開催されることが多かったのですが、今回は栃木県宇都宮市で行われました。
会場となったライトキューブ宇都宮は宇都宮駅の目の前で、周辺の飲食店や商業施設など充実していました。
開催期間中に宇都宮では21年ぶりの大雪に見舞われましたが、大きなトラブルなく参加することができました。
会場目の前の様子

宇都宮はギョーザの町としても知られていますが、マグロの消費量が上位の地域でもあります。
駅周辺には寿司屋が多数あり、ランチの時間はシャリの大きいお寿司を満喫しました。

会場の様子
初日にはチュートリアル講演、2~4日目は研究発表と招待講演、5日目はワークショップというスケジュールで開催されました。
今回の最終的な参加者は2316名、発表件数797件で、ともに過去最高の規模で行われました。
この発表件数の増加に対応するため、口頭発表は選考のうえシングルセッション形式のみとなり、ポスター発表が標準形式となりました。
招待講演は以下の2件で、いずれも盛況でした。
松井智子先生「非典型な言語発達と言語使用:発達障害とバイリンガルから考える」
尾形哲也先生「ロボット基盤モデルにおける言語の役割—運動と言語の統合—」
セッション以外のホスピタリティも充実しており、昼時には中庭にキッチンカーが出展されていたり、終日茶菓と飲み物が提供されました。
また、託児所やコワーキングスペースも設置され、幅広い参加者に配慮されていました。
発表の紹介
ここからは、学会を通して気になった発表を簡単にご紹介します。
ハルシネーションから学ぶ:内部表現への介入によるハルシネーション抑制
門谷 宙, 西田 光甫, 西田 京介 (NTT)
NTT研究所からの発表でLLMのハルシネーションを低減するための研究です。
LLMが嘘をつく能力を容易に獲得することに着目し、嘘を含むデータでanti-expert LLMを構築し、この出力確率をペナルティとすることでLLMの事実性を向上させることができるという手法です。
この手法では二つのLLMを動かすことによる推論コストを、モデルの統合によって削減する新たな手法を提案しました。
この結果、出力確率の操作ではなくLLMの内部表現に介入して事実性を向上させることができました。
ハルシネーションの原因は知識不足と、知識の想起失敗とされていますが、この手法は後者に効くとされています。
RAGで知識不足を補うだけではなく、本手法のように原因別で対処することでハルシネーションを抑制することができます。
感想・考察
LLMのハルシネーション問題はLLMの登場からずっと問題となってきましたが、最近では内部的なふるまいの研究が進んでおり、この研究もその流れの一つとなっています。
業務でハルシネーションを可能な限り減らさなければいけない場面で、RAG以外で有効な対策だと思いました。
LLM の生成する方言テキストを音声合成したデータによる音声言語モデルの方言理解能力向上
三森 俊祐, 藤田 雄介, 水本 智也 (SB Intuitions)
国産LLMのsarashinaなどで知られるSB Intuitionsからの発表です。
音声言語モデルと方言を話すために、LLMで生成した方言を学習させた結果、方言性能が向上したという研究です。
手法としてはまず標準語を方言の指示プロンプトを与えLLMを用いて方言に翻訳し、これを音声合成で標準語の韻律で疑似方言データを作成する。このデータで音声言語モデルを学習し、方言適応を行いました。
標準語の翻訳と英語の翻訳の比較で実験を行った結果、文法や語彙については学習が成功したことが分かった一方で、実音声特有の音韻変化への適応は難しいことがわかりました。
感想・考察
日本各地で幅広い人に音声対話システムを使ってもらうとしたとき、方言理解が必要になることもあると思われるのでこれからの対話システムの開発で重要な発表だと思いました。
また、合成データのみでモデルの向上が期待できるというのも参考になり、商談や就職面接など機密保持の観点から学習が難しいデータでも合成データによって性能向上が見込めるかもしれません。
Transformer事前学習における最終層隠れ状態ジャンプの抑制
柴田 圭悟, 矢野 一樹 (東北大), 高橋 良允 (東北大/理研), 李 宰成, 池田 航 (東北大), 鈴木 潤 (東北大/理研/NII)
Transformerにおける"最終層隠れ状態ジャンプ"の抑制が精度改善に寄与することを示した研究です。
まず、"隠れ状態ジャンプ"とはモデルの隠れ状態(ベクトル)の角度がある層を通したときに急激に変化することを指しています。
Transformerにおいて、この隠れ状態ジャンプが最終層付近でのみ発生していることが確認されており、中間層の冗長性が議論されているようです。
この研究では
"Transformerの性能面において最終層隠れ状態ジャンプは悪い現象"
と仮説立てています。
発表者は仮説から隠れ状態ジャンプを抑制するような損失計算を設計しています。
また、これを実際にベンチマークタスクで評価し、性能の向上を確認しています。
感想・考察
Transformer内部で起きている現象に着目し、そこから仮説を立て、直観的かつシンプルな修正によって性能改善につなげている点が非常に印象的でした。
近年は、データや評価から仮説を立て、入力、モデルを取捨選択、修正をするアプローチが主流になりつつあり、特にLLMの普及以降、そもそもモデル内部には手を加えないことも増えてきているように感じます。
そのような背景を踏まえると、本研究のようにモデル内部の挙動そのものに焦点を当てた研究は、今後も高い価値を持つと私は考えています。
また、Transformerの発表から9年経過している現在においても、十分に解明されていない現象が存在する点も非常に興味深く感じました。
おわりに
今回は、言語処理学会の様子をお伝えしました。参加してよかった点は、現在の自然言語処理の流れと今後の発展方向を直接把握できたことです。実社会でLLMの活用が一層進むなか、性能向上の方策や安全性の確保などに向けて、多くの示唆を得られました。
次回の開催地は福岡の博多ということなので、ぜひ次回も参加したいと思います。

※本記事は2026年04月時点の情報です。