(Engage media)大規模言語モデルの時代におけるローカリゼーションと翻訳の未来

Categories
< Back
You are here:
Print

(Engage media)大規模言語モデルの時代におけるローカリゼーションと翻訳の未来


Khairil Zhafri
2023年7月4日
午前10:00

写真:Mojahid Mottakin on Unsplash

世界の相互接続が進むにつれ、ローカライズされ、翻訳されたデジタル・テクノロジーに対する需要は高まり続けている。多様なターゲット・オーディエンスに対応するためには、組織はデジタル製品やサービスを、異なるグループの人々にとってよりアクセスしやすく、文化的に適切なものに適合させる必要がある。大規模言語モデル(LLM)-言語処理タスクに深層学習技術を使用する機械学習モデル-は、ここで重要な役割を果たす可能性を秘めている。この記事では、デジタル領域におけるローカリゼーションと翻訳にLLMを適用することの利点と課題について議論する。

ローカライゼーションと翻訳は、あらゆる種類のデジタル技術の開発において、特にフリーでオープンソースのソフトウェア・コミュニティにおいては重要な側面である。ソフトウェアをローカライズし、翻訳することで、開発者は、異なる言語的・文化的背景を持つ人々が製品を使用し、理解できることを保証する。ウェブベースの翻訳ツールは、翻訳者やプロジェクトメンテナーのコラボレーションを促進し、翻訳プロセスを合理化し、進捗状況を追跡し、異なる言語間の一貫性を維持するために不可欠である。CrowdinWeblateのようなウェブベースの翻訳ツールの中には、すでにGoogle翻訳やDeepLのサービスを統合し、提案を行って翻訳プロセスを加速させているものもある。しかし、このような機械翻訳の応用には、不正確な翻訳を生み出したり、慣用的な表現や文化的なニュアンスを捉えるのに苦労したりといった限界がある。

OpenAI GPT-4Marian NMTのようなLLMは、デジタル技術のローカリゼーションと翻訳に革命を起こす可能性がある。これらのモデルは、より正確で文脈に関連したテキストを処理・生成するために、トランスフォーマーアーキテクチャアテンション・メカニズムのような高度な技術を利用している。アテンション・メカニズムは、翻訳を生成する際にモデルが入力テキストの異なる部分に焦点を当てることを可能にし、文脈を捉えて正確さを維持するのに役立つ。モデルは、学習中に様々な言語パターン、慣用表現、文化的ニュアンスに触れることで、言語に対する理解を深めていく。これらのモデルは、チャットボット、文章作成プロンプト、コンテンツ生成ツールなどにすでに応用されている。

ソフトウェアやアプリの開発者は、LLMを翻訳ツールに統合することで、手作業による編集に必要な時間と労力を削減しつつ、文化的ニュアンスをより的確に捉えることができるようになる。フリーでオープンソースのソフトウェアプロジェクトでは、翻訳の質が全体的に向上し、ローカリゼーションプロセスが効率化される可能性が高い。

別のアプローチとしては、HitL(Human-in-the-Loop)システムの利用がある。このセットアップでは、LLMは人間の翻訳者の補助として機能し、翻訳者がレビューして改良できるような提案や初期翻訳を提供する。人間の翻訳者が自然言語処理システムと連携することで、LLMの限界やバイアスを克服し、より高品質で正確な翻訳を保証することができる。HitLシステムはまた、翻訳プロセスのコラボレーション性を維持することができ、翻訳者はオープンソースコミュニティのオープンで包括的な精神を犠牲にすることなく、LLMの力を活用することができる。

では、なぜソフトウェアやアプリのローカリゼーションや翻訳にLLMを統合しないのだろうか?

潜在的な利点があるにもかかわらず、翻訳ツールにおけるLLMの使用には課題や制限が伴う。例えば、これらのモデルは、学習データの偏りや文脈の欠如により、誤った翻訳や無意味な翻訳を生成する可能性がある。これらのモデルは膨大な量のテキストデータから学習するため、テキストに存在するバイアスを不注意に採用してしまい、偏見に満ちた、不快感を与える、あるいは事実と異なる翻訳を生成してしまう可能性がある。文脈の欠如は、文法的には正しいが意味的には不正確な翻訳をもたらす可能性がある。これは、モデルが原文のニュアンスや正確な翻訳に必要な特定の分野の知識を完全に理解していない可能性があるためだ。

LLMは、英語のようなリソースの豊富な言語のローカリゼーションや翻訳では有望な結果を示しているが、利用可能な学習データが限られているリソースの乏しい言語では、そのパフォーマンスが望めず、結果として最適な翻訳ができない。EngageMediaのデジタル・セキュリティ・ローカリゼーション・プロジェクトのようなコミュニティ主導のイニシアチブは、機械翻訳の限界に対処する上で重要な役割を果たしている。高度な翻訳技術の利点をすべての言語コミュニティに確実に普及させるためには、リソースの少ない言語のデータ収集とキュレーションに投資することが極めて重要である。ローカライゼーションや翻訳業界、機械学習エンジニア、ネイティブスピーカーが協力することで、これらの言語の学習データを改善し、より正確で文化的に配慮した翻訳を実現することができる。

LLMを実行するためのコストは高額になる可能性があり、その使用はソフトウェア開発とユーザーエクスペリエンスの両方に課題をもたらす。これらのモデルを実行するために必要な計算リソースは膨大なものになる可能性があり、モデルのサイズが大きいため、スケーラビリティの問題が発生する。これらのモデルを既存の翻訳システムに統合するには、開発者がソフトウェア・アーキテクチャを大幅に変更する必要がある。リソースが限られている小規模なオープンソースプロジェクトでは、これらのモデルを効果的に実行するために必要なハードウェアやクラウドインフラへの投資が実行不可能な場合がある。ユーザー側では、モデルのサイズが大きいため、翻訳タスクの完了速度が遅くなる。

もう1つの懸念は、大規模な言語モデルに依存することで、デジタル技術開発におけるローカリゼーションや翻訳が、オープンソースコミュニティの中核的価値観であるオープンで協調的なプロセスでなくなる可能性があることだ。LLMの開発とトレーニングは通常、資金力のある企業や機関によって行われ、その基礎となるアルゴリズムやデータソースは公開されていないことが多い。その結果、翻訳プロセスは、多様な貢献者のグループによって推進されるオープンで協力的な取り組みというよりは、むしろ、少数の事業体によって中央集権化され、管理されるようになるかもしれない。

さらに、ほとんどの先進的なLLMの閉鎖的な性質は、オープンソースコミュニティが翻訳プロセスを理解し、適応させ、改善する能力を制限し、特にモデルによって生成された翻訳のエラーや偏りを特定し、修正する能力を制限する。その結果、ローカリゼーションプロセス自体の品質や信頼性が低下する可能性がある。

LLMの時代におけるデジタル技術のローカリゼーションと翻訳の未来は、大きなチャンスをもたらすが、深刻な課題がないわけではない。このような先進的なモデルは、翻訳の精度と効率を向上させる可能性がある一方で、その限界や、オープンとコラボレーションの潜在的な低下が、その完全な実現を妨げている。デジタル技術が進歩し続ける中、ローカライゼーションと翻訳業界は、LLMのパワーを活用することと、オープンソースコミュニティを定義する協調精神を維持することの間でバランスを取る必要がある。

Khairil Zhafriは、EngageMediaのオープンでセキュアなテクノロジー・スペシャリストであり、アジア太平洋地域における同組織のデジタル権利およびテクノロジー・イニシアティブの実施を推進するためのプログラム計画、戦略、ネットワーク構築に取り組んでいる。
この著作物は、クリエイティブ・コモンズ 表示 – 非営利 – 改変禁止 4.0 国際ライセンスの下でライセンスされている。

https://engagemedia.org/2023/localization-large-language-models/
Table of Contents