投稿者: | 2025年11月4日

自動運転システムと人間のドライバーを行き来できるシステムで、どのように責任を分担すればよいのだろうか? ドライブパイロットの場合、メルセデスは、システム作動中に同社の技術が引き起こした衝突事故の賠償責任を負うとしている。しかし、これは本質的に条件付きであり、ドライバーが指示に従って制御を引き継がなかった場合やシステムを誤用した場合は依然としてドライバーが責任を負う。

テスラはすでに、レベル2システムであるオートパイロットと完全自動運転でこの曖昧さを有利に利用している。テスラが関与した数十件の衝突事故を調査した結果、オートパイロットは衝突の「1秒未満」前に解除されることが判明している。捜査官らは、テスラが責任逃れを企てていたことを示す証拠は発見しなかったが、同社にとって確かに不利な状況となっている。

分別と分別カメラ、赤外線トラッカー、トルクセンサーといったこれらのシステムを制御するセンサーは、衝突事故発生時に誰がいつ制御していたかを示す証拠として、GMが活用することもできる。

GMのメアリー・バーラCEOは、新しい「アイズオフ」システムを発表したイベントで、こうした事例においてセンサー数の増加が同社の無罪を立証する可能性があると指摘した。「今後はより多くのセンサーを搭載することで、何が起こったのかをほぼ正確に把握できるようになります」と、レベル3の自動運転に関する責任問題について問われたバーラCEOは述べた。

「そして、ゼネラルモーターズが、必要な責任を常に負っていることは、皆さんもご存知だと思います」。レベル3の定義自体が矛盾をはらんでいる。ドライバーは自動運転から外れても良いと告げられる一方で、すぐに再接続できるように待機していなければならないのだ。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です