アメリカでは、自動車メーカーのみならず実に多くの企業が「完全自動運転」に挑戦しています。例えばグーグルやアマゾンなどです。
今回事故を起こしたUBER(ウーバー)は、アメリカのタクシー配車を専門とする企業であり、日本の福岡をはじめ、世界的に事業を展開しています。
しかし、この会社、自動運転技術については、グーグルから盗んでいたのですね。以下Wikipediaから:
ウェイモの営業秘密盗用
米Alphabet(Google等の持株会社)の子会社で自動運転車を開発しているウェイモの元エンジニアが持ち出した知的財産等の営業秘密を盗用したとして、同社から提訴された。2018年2月9日、Uberが0.34%(約2億4500万ドル)相当の株式をウェイモに譲渡、およびウェイモの秘密情報は今後Uberのハードウェア・ソフトウェアに使用されないことをもって和解した。William Alsup裁判長によると、審理の途中において和解が成立することは稀であると述べている。
1件目はいわずと知れた電気自動車メーカーのテスラです。本ブログでも度々取り上げました:
テスラでは、完全自動運転ではないにも拘わらず、メーカの不完全な宣伝も相まって、かなりのレベル2自動運転事故が発生しています。
それらが死亡事故にならなかったのは単にラッキーだったからです。
画像出典:Wikipedia ウーバーはこの死亡事故の他、自動運転中に相当事故を起こしているようです。
画像出典:Wikipedia 屋根の上についた何かの装置がウーバー自動運転車の特徴のようです。
わたしが何回も述べているのは:
❶自動運転には機械の「誤作動」「誤認識」が発生する。
❷そのとき、人工知能を搭載していない限り、人間(運転者)がクルマの制御をとって代わる必要あり。
❸事故が発生したときの責任は誰がとり、保険金の支払いはされるのか?
以上3点についての問題解決がない限り、実現は難しいと思います。現時点での試験走行は、実際、この部分に目をつぶって実施されており、今回の事故のように運転者が乗っていても、手を下す判断をしたときは「既に遅い」のです。あるいは、手を下す時間さえなかった可能性もあります。
ピンバック: 米ウーバー(ユーバー?)死亡事故は、運転手が乗っていたのに何故起こったか? | ペダル踏み間違い事故防止