第13回AAMTセミナー

AAMT若手翻訳研究会

■本イベントのスポンサー


日本ビジネス翻訳株式会社

■概要

AAMTでは機械翻訳システムの開発・改良・啓蒙・普及を通じて機械翻訳の発展に努めております。その一環として、若手研究者による翻訳・通訳・機械翻訳研究の発表の場を設け、研究者及び利用者間のコミュニケーションの促進を図ります。
なお特に優秀であると認められた発表に関しては表彰し、副賞を進呈いたします。多数の発表および聴講、また優秀賞への投票をお待ちしております。
また本研究会ではスポンサーを募集しておりますので、ご検討いただければ幸いです。

■日時

2025年3月21日(金)14:00~17:00(予定)

■プログラム (仮)


14:00-14:05 オープニング
14:05-14:20 (1)事前訓練済みモデル・LLMを用いた特許翻訳の二段階自動後編集
武馬光星、西村柾人、宇津呂武仁(筑波大学)、永田昌明(NTT)

特許翻訳では,その専門性と厳密さから高い翻訳精度が求められるが,従来の TransformerベースのNMTモデルでは,特許文特有の長文構造や複雑な書式に起 因する訳抜けや繰り返しといった誤訳が発生しやすいという課題がある.一方, 近年急速に発展しているLLMの翻訳訂正能力については,特許翻訳における有 効性が十分に検討されていない.本発表では,mBERTを用いたトークンレベル の誤訳検出と大規模言語モデル(LLM)を用いた訂正手法を組み合わせた手法を 提案する.BLEUおよびCOMETのスコアで評価を行い,提案手法が最も高い翻訳 精度を達成し,誤訳や繰り返しの改善に寄与することが示された.
14:20-14:35 (2)Developing a Japanese-English Literary Parallel Corpus from Aozora Bunko and Project Gutenberg: AoGu
Guanyu Ouyang、Xiaotian Wang、Takehito Utsuro(筑波大学)、Masaaki Nagata(NTT)

We introduce a Japanese-English parallel corpus of literary works, constructed using bi-texts from Aozora Bunko and Project Gutenberg. Experiments with transformer models on the constructed dataset demonstrate limited performance, highlighting the inherent challenges of literary translation.
14:35-14:50 (3)複数のLLMを活用した機械翻訳のための協力デコーディング
白井尚登、衣川和尭、伊藤均、美野秀弥、河合吉彦(NHK)

大規模言語モデル(LLM: Large Language Model)は対話などの生成タスクで成功する一方,翻訳性能の向上や計算コストの高さに課題がある.そこで,これらの課題を解決するために機械翻訳に適した新たな協力デコーディング手法を提案する.提案手法は各言語の単言語データの継続事前学習をしたのち,対訳データによる追加学習を行った小型LLMと,より大型なLLMを組み合わせて翻訳を行う.日英翻訳タスクを中心に実験した結果,提案手法はパラメータサイズの小さなモデルを学習することで計算コストを抑え, 既存の協力デコーディング手法を上回る翻訳性能を示した.
14:50-15:05

(4)大規模言語モデルは講義動画の吹き替え翻訳をどこまでできるのか?
吉橋智希、宮田玲(東京大学)
本研究では、講義動画の吹き替え翻訳タスクを対象に、LLMによる翻訳性能の現状を分析的に評価した。3Blue1Brownの数学講義シリーズから選んだ英語原文739文をGPT-4oにより日本語に翻訳し、その訳文を人手で修正・改善した。得られた結果を翻訳イシューと翻訳方略の分類体系を用いて分析し、321件のイシュー事例と277件の方略事例を得た。ここから「不適切な用語選択」イシューが35%を占めるなどの傾向が可視化された。また、事例分類を通じて、動画教材の吹き替え翻訳特有の課題として「教材としての機能」「講義形式」「映像との一致」「音声の特性の考慮」を明らかにし、LLM翻訳の改良に向けた示唆を得た。

15:05-15:20

(5)LLM時代に問う人間翻訳のプロセス:感情・行動・認知の統合モデルによるシミュレーション
溝脇孝哲、山田優(立教大学)、Michael Carl(Kent State University)、Yuxiang Wei(Saint Francis University)、Xinyue Ren(Kent State University)
ChatGPTなどの大規模言語モデル(LLM)の登場で、機械翻訳の性能は飛躍的に向上した。しかし、LLMは高精度な訳文を生成できても、人間の翻訳プロセスを再現しているわけではない。本研究では、人間が翻訳する時の「読む・考える・書く」プロセスを再現することを目指し、能動的推論(Friston et al.,2017)に基づくエージェントを構築した。このエージェントは与えられた原文からリーディングやタイピング行動を自律的に選択する。本発表では、研究の基本コンセプトと初期的な動作結果を報告する。これにより翻訳者の認知プロセスを捉え、LLM時代の翻訳者の役割を再考するきっかけとなることが期待される。

15:20-15:25 スポンサー発表 日本ビジネス翻訳株式会社
15:25-15:40

(6)An Investigation on Entropy Patterns in A Parallel Corpus of Korean and Japanese Lyrics
方希文、大関洋平(東京大学)
The promotion of K-Pop music in Japan represents a distinctive case, where songs are redistributed with Japanese lyrics while preserving the original Korean melodies. This process of lyrical adaptation provides valuable material for translation research. As an initial step toward developing a specialized lyric translation system, this presentation examines a small parallel corpus of Korean and Japanese lyrics. In particular, entropy patterns displayed at the lexical and syntactic levels were analysed to provide insights for possible solutions to machine translating lyrics.

15:40-15:55

(7)画像説明による思考の連鎖を利用した料理動画の機械翻訳に関する研究
高田一慶、二宮崇、後藤功雄(愛媛大学)
英単語には多くの多義語が存在し,これが料理動画内の英文を翻訳する上で問題となる.例えば「pepper」は,「ピーマン・パプリカ・唐辛子・胡椒」のように複数の意味が存在するため、これを字面のみで正しく翻訳するのは難しい.本研究では,料理動画の英日機械翻訳タスクを対象として,画像をモデルに説明させ,その説明を基に翻訳する思考の連鎖 (Chain-of-Thought) を用いる手法を提案する.実験では,通常の翻訳,単に画像をモデルに見せる場合,思考の連鎖を利用した場合の3つを比較した.実験結果より,多くの場合で画像を用いることの有効性を示せた.

15:55-16:10

(8)多言語文符号化器からの言語非依存な文埋め込みの抽出
福島啓太、梶原智之、二宮崇(愛媛大学)
本研究では,多言語文符号化器から言語非依存な文埋め込みを抽出し,機械翻訳の品質推定や言語横断の文類似度推定に応用する.先行研究では,多言語文符号化器から得られる文表現に対して意味表現と言語表現をそれぞれ抽出し,前者を言語非依存な文埋め込みとして使用してきた.提案手法では,このアプローチに対して,意味表現と言語表現の分離を改善するための工夫を加える.実験の結果,機械翻訳の品質推定と言語横断の文類似度推定の両方において,既存手法を上回る性能を達成した.

16:10-16:25

(9)llmMT+1: 非英語言語対 LLM 翻訳の実現法の検討
傅星儿(京都大学)、永田昌明(NTT)、Chenhui Chu(京都大学)
近年,大規模言語モデルを使った機械翻訳が注目を集めている.しかし,そのモデルの多くは英語中心の言語対のみを対象としており,英語を含まない非英語言語対の翻訳がサポートされておらず,性能が低い問題が残されている.この問題に対して本論文では,対象言語の訓練状況に応じて3つに場合分けして,英語中心の翻訳モデルにおいて非英語言語対の翻訳を実現する方法について体系的に検討する.

16:25-16:40

(10)What language do Japanese-specialized large language models think in?
鐘承志、程飛(京都大学)、劉倩瑩(国立情報学研究所)、江俊锋(東京大学)、万振、褚晨翚、村脇有吾(京都大学)、黒橋禎夫(国立情報学研究所/京都大学)
In this study, we investigate whether large language models trained with substantial Japanese data exhibit higher probabilities for Japanese in their intermediate layers when projected onto the vocabulary space.

16:40-16:45 クロージング

■実施形式

Zoomオンライン
(講演後2週間のオンライン配信)

■参加費:発表・聴講ともに無料

 

■発表者募集

本研究会で研究発表をしていただける若手研究者を募集いたします。
対象者 :学生、または開催日で35歳未満の社会人(社会人博士含む)
対象研究:翻訳、通訳、機械翻訳に関するすべての研究
発表方法:オンラインでの15分程度(質疑応答込み)の発表
締め切り:3月7日 18日まで延長しました
応募方法:以下よりお申込みください。

■聴講者(審査員)募集

若手研究者による最新の研究成果を知ることができます。また聴講した発表が優れていると思われる場合には、優秀賞への推薦を行うことができます。直前までお申し込みが可能ですので、ぜひご参加ください。

■表彰

発表内容が特に優秀と認められた発表に関しては表彰し、以下の通り副賞を進呈いたします。
副  賞:最優秀賞1名(20,000円相当)、優秀賞2名(10,000円相当)
審査方法:聴講者による投票を考慮し、AAMTセミナー委員会が判定し、決定(投票数及び選考基準等は公表致しません)。
優秀賞の発表は、集計結果と審査の上、3月中にAAMTのウェブサイトに公開します。

■スポンサー募集

若手翻訳研究会ではスポンサーを募集しております。
金額:5.5万円 (いただいたスポンサー費は、全て研究会の運営費用に充てさせていただきます)
特典:
・本サイトへのロゴの掲示
・スポンサー賞の設置
・研究会中に5分間の会社紹介時間を用意
スポンサーに関するお問い合わせは aamtseminar@aamt.info までお願いいたします。


〒160-0004
東京都新宿区四谷4-7新宿ヒロセビル5F
一般社団法人アジア太平洋機械翻訳協会(AAMT)事務局
URL: https://aamt.info/  MAIL: aamtseminar@aamt.info

Translate »