昨年、私は公選弁護人として働く友人に、AI システムが彼女の仕事をこなせると思うかと尋ねた。私は彼女が、AI 弁護士は法廷で依頼人の代理をすることはできないだろうと話すだろうと予想していた。しかし、彼女は会話を予想外の方向に導いた。
彼女は、自分の仕事の大部分は依頼人に自分を信頼してもらうことだと語った。依頼人が事件の詳細を話してくれるほど自分を信頼してくれなければ、弁護士は仕事を効果的にこなすことができない。しかし、多くの刑事被告人は「システム」を信頼しておらず、誰とも話したがらないのだ。
では、同じ被告が弁護士として人間ではなくチャットボットを与えられたとしたらどうなるでしょうか。対面での会話ができないと、信頼関係を築くのが難しくなるのは明らかです。被告はチャットボットについてまったく正当な疑問を持つかもしれません。誰がそれをプログラムしたのか?隠された意図があるのか?誰がチャットログにアクセスできるのか?被告は会話のたびに「同じ」チャットボットと話すことになるのか?
弁護士は依頼人に代わって独立した判断を下すことが求められています。依頼人の秘密を守ることが求められています。そして、たとえそれが弁護士の給料を払っている人々の利益に反する場合でも、弁護士はこうしたことを行う義務があります。
AI システムにこのような独立性を与えるのは難しく、ユーザーに独立性があると納得させることはさらに困難です。すべての AI システムは、誰かが所有および運営するサーバー上で実行されます。その人または会社は常にモデルを変更する権限を持ち、過去の会話を閲覧できる場合もあります。したがって、弁護士にチャットボットを選択する人は、実質的に会社を信頼していることになります。つまり、その会社で働く不特定多数の人々を信頼していることになります。
You may also enjoy…
コメントを残す