NLP2025, day 3
学会3日目はずっとAセッション(A5〜A7, NLPモデルの解釈可能性・分析)に参加してました。
-
A5-1: 層の冗長性と層同士の独立性に基づく言語モデルの層交換の成否の特徴づけ
- モデルマージしやすい条件を明確にしたい。層を線形変換で近似することで冗長性と独立性を計測して検証したという話。
-
A5-2: 束縛変項照応を用いた大規模言語モデルのプロービング
- 複数要因が絡む状況下でそれを判別する質問項目追加することで被験者をカテゴライズするという考え方自体はあちこちで役立ちそう。
-
A5-3: Tracing the Roots of Facts in Multilingual Language Models: Independent, Shared, and Transferred Knowledge
- データサイズと事実生指標P@1が必ずしも相関しないという話。同じぐらいのデータ量でも指標が大きく異なる言語があったりするし、データ少なくても高い評価を示す言語もある。言語間でのトークン共有が効いているのではということであれこれ検証してみてる話。
-
A5-4: プロンプトに基づくテキスト埋め込みのタスクによる冗長性の違い
- 分類タスクなら次元数4096→16次元まで削減しても性能劣化なしという話。PCAとかしてなくて「先頭16次元」というざっくりした削減でもこのぐらいの精度が出た模様。検索タスクでは劣化が激しくて機能しにくい(ということを別観点からも考察)。
-
A5-6: 知識編集が confidence calibration へ与える影響
- 知識編集手法あれこれ+RLHFが「モデルの自信度と精度」の一致度合いにどのように影響するかを観察した話。
-
A6-1: スパースオートエンコーダーを用いた大規模言語モデルのチェックポイント横断分析
- 内部表現を含む情報が学習警戒に伴いどう変化するか?という観点で「チェックポイント毎に何を習得しているか」を観察した話。観察しやすくするためにSAEする。予備実験で事前学習済み時点に対してそれなりに機能しそうといことを確認した上でチェックポイント観察に。
-
A6-5: Derivational Probing:言語モデルにおける統語構造構築の解明
- 文の統語構造らしきものを捉えているという事前研究(structural probing)を踏まえ、その構造がどういう過程を経て構築されているかを観察しようという試み。アーキテクチャにより異なりそうだけど、下位タスクで失敗するケースについては「構造タイミングが遅い(出力層に近いタイミングでやっと構築される)」というのは面白い。
-
A7-1: What Language Do Japanese-specialized Large Language Models Think in?
- モデルの思考途中に用いる言語は何か?というような問いに取り組んだ話。Llama2は英語、SwallowとLLM-jpは日本語と英語の両方を潜在言語として使うことを観察により検証。英語、フランス語、中国語、日本語では近い言語を潜在言語として用いることがあることもあるらしい。
-
A7-3: 構成的汎化におけるTransformerの内部機序の分析
- 特定タスクを解くサブネットワークを抽出し、元のモデルとサブネットワークとで統語的特徴の因果効果を評価する話。観察から一定程度の統語的特徴の利用を確認できたが、そうではない「非構成的な特徴」にも依存しているらしい。生得性仮説(人間はもともと文法のひな形を持っていて,それに知識を当てはめて言語習得する)を後押しするような結果ではないかとのコメントも。
-
A7-4: 大規模言語モデルにおけるIn-context Learningの推論回路
- ICLが機能するメカニズムを解明したいという話。推論過程を3ステップに分解した基板回路を構築して観察。この基板回路がないとICL性能が大きく落ちる=主要メカニズムではないか、というストーリー。
最後らへん急用仕事入ってきて聞けず、しくしく。