【論文まとめ】Prompt-Tuning による個性を持った対話システムの構築

【論文まとめ】Prompt-Tuning による個性を持った対話システムの構築

本記事において使用される図表は,原著論文内の図表を引用しています.

また,本記事の内容は,著者が論文を読み,メモとして短くまとめたものになります.必ずしも内容が正しいとは限らないこと,ご了承ください.

論文情報

タイトル: Prompt-Tuning による個性を持った対話システムの構築

研究会: NLP

年度: 2022

キーワード: dialogue system, persona, Prompt-Tuning

URL: https://www.anlp.jp/proceedings/annual_meeting/2022/pdf_dir/B2-1.pdf

データセット: PERSONA-CHAT, DailyDialog

概要

与えられたキャラクター設定(ペルソナ)を考慮した応答生成をする雑談対話システムの構築

一貫した発話をしない対話システムは魅力的ではない

→ 一貫性を持たせるためペルソナに着目

Prompt-Tuningを行うことで,Fine-Tuningに比べて学習時間と計算資源を削減しつつ,より自然で個性を持ったシステムの構築

提案手法

ペルソナ情報を埋め込むトークン(Persona Info Token)用のEmbedding層を追加したTransformerモデルを提案

この新たに追加したEmbedding層のパラメータを更新する

新規性

事前学習済みモデルのパラメータを更新しないPrompt-Tuningによって学習

→ 学習に要する時間と計算資源の削減が可能

数百個の対話ペアからなる小規模なデータセットであっても,個性を持ったシステムの構築が可能

実験

データセット:Persona-Chat/DailyDialog

1往復の2初話ずつに分割→これを対話ペア

使用するペルソナ:Persona-chatにおける対話ペア数の多い上位3種類のペルソナのみ

ペルソナとは無関係な対話ペアとしてDailyDialogを使用

→ TopicがRelationshipの対話ペアを使用

中でも発話と応答の両方の長さが50文字以下の対話ペアを一定の比率で学習用データセットに混ぜる

→ なぜ?:短い発話やペルソナと無関係な一般的な発話おデータセットに取り込む

ペルソナ文を与える際,長さ<200の時は,200になるまでペルソナぶんを繰り返し並べる

生成の戦略にはGreedy searchを採用

まとめ

自動評価時:distinct-{1, 2}

GPT-J-6BをPrompt-Tuningしたモデルが最も多様性のある生成

Fine-Tuningの時は入力にペルソナを孵化しない方が良い性能

人手評価時

全ての項目においてGPT-J-6BをPrompt-Tuningしたモデルの評価が高い

その他(なぜ通ったか?等)

LINEとの共同研究

AI-Bridging cloudを用いてA100(40GB)を使用した実験

次読みたい論文

引用

タメになったらSHARE!!!