(Vice)裁判官がChatGPTを使って裁判の判決を下した――このケースは、裁判所がAIテキストジェネレーターの回答を法的判断に使用したことを認めた初めてのケース

Categories
< Back
You are here:
Print

(Vice)裁判官がChatGPTを使って裁判の判決を下した――このケースは、裁判所がAIテキストジェネレーターの回答を法的判断に使用したことを認めた初めてのケース

ヤヌス・ローズ
米国・ニューヨーク
2023年2月4日、午前2時28分

コロンビアの判事がChatGPTを使って判決を下した。AIテキストジェネレーターの助けを借りて法的判断が下されたのは、どうやら初めてか、少なくともわれわれが知る限りでは初めてだ。

2023年1月30日付の裁判所文書によると、カルタヘナ市の第1巡回裁判所を管轄するフアン・マヌエル・パディージャ・ガルシア判事は、AIツールを使ってこの件に関する法的質問を投げかけ、その回答を判決文に盛り込んだと述べている。

“この判決の論拠は、人工知能(AI)の使用に沿って判断される “とガルシアはスペイン語から翻訳された判決文に書いている。”したがって、これらの手続きで提起された法的問題の一部を記載した。”

“これらのAIが作成した文章を含める目的は、決して裁判官の判断に代わるものではな い。”と彼は付け加えた。”我々が本当に求めているのは、AIが提供する情報を裏付けした上で、判決文の作成に費やす時間を最適化することなのです。”

この事件は、自閉症の子供が治療のための保険を受けるべきかどうかをめぐり、健康保険会社と争ったものである。裁判資料によると、AIツールに入力された法的質問には、”自閉症の未成年者は治療費の支払いを免除されるか?”、”憲法裁判所の法理は同様のケースで有利な判断を下しているか?”などが含まれていた。

ガルシアはチャットボットの全回答を判決文に盛り込み、判事がそれを認めたのは初めてのことらしい。裁判官は、適用される判例に関する独自の洞察も盛り込み、AIは “採択された判決の論点を広げる” ために使用されたと述べている。AIとのやりとりを詳細に説明した後、裁判官はその回答や自身の法的主張を判決の根拠として採用 している。

コロンビアの法律では、裁判の判決にAIを使うことは禁じられていないが、ChatGPTのようなシステムは、偏った、差別的な、あるいは単なる間違った答えを出すことで知られている。これは、言語モデルがテキストを実際に「理解」していないためで、システムのトレーニングに使用された何百万もの例から確率に基づいて文章を合成しているに過ぎないのです。

ChatGPTの開発元であるOpenAIは、より問題のある反応を排除するためのフィルターを実装している。しかし、開発者は、このツールにはまだ大きな限界があり、結果的な意思決定には使うべきではないと警告している。

今回の事件は、裁判官がChatGPTのようなAIテキスト生成ツールを使用したことを認めた初めてのケースらしいが、一部の裁判所は、議論の余地はあるものの、すでに判決の決定や刑事被告人の保釈の可否に自動意思決定ツールを使用し始めている。こうしたシステムの法廷での使用は、人種差別や性差別のステレオタイプを定期的に強化し、既存の不平等を増幅させると指摘するAI倫理学者から激しい批判を受けている。

コロンビアの裁判所に提出された資料では、AIは主に判決の起草を早めるために使用され、その回答は事実確認されたことが示されているが、今後さらに増えていく兆候であると考えられる。

https://www.vice.com/en/article/k7bdmv/judge-used-chatgpt-to-make-court-decision
Table of Contents