自動運転など100年早いわ
このシステム開発者連中はバカなのか?
「最後まで人間だと認識できず」UberのAI車、初の死亡事故が起きた理由 | 新聞紙学的
2019/11/07 配信
米アリゾナ州で自動運転車が人を轢き殺した理由が、
「システムのデザインが、車道にいる歩行者を想定していなかったため」
だとさ。
は? 路上に異物があれば減速するのが当然でしょが。1kmも手前から認識していたのに、減速を開始したのが衝突の0.2秒前ですと。AIがぶつからない「だろう運転」してどーすんだ。
結局、ネット動画に見入っていた運転席のドライバーよりも劣るシステムで、よくも路上テストなどできたもんですね。「誤検知を回避するための仕様」って、単に功を焦っただけどしょうが。せめて2、3秒前には「かもしれない」警告くらい出しなさいよ。
そもそも、このようなシステムは100%安全を維持しながら改善していくもの、という原則を守るべきと思うけど、ド素人でもそんなことわかるでしょうに。