テスラの自動運転中に事故が起き、運転手がなくなったとのニュースがあった。テスラの自動運転ソフトは正確な操作性で非常に高い評価を受けていたらしいのだが、始めての死亡者を出すことになってしまった。事故原因は、中央分離帯のある道路を走っていたら、大型トラックが前方を垂直方向に横切ったため、トラックに潜り込む形で起こったものらしい。事故自体はテスラに非がない状況下だったけど不幸なことに、晴天の青空が背景だったため、白いトレーラーの車体をうまく認識できずに自動ブレーキが効かなかったというトラブルが重なって事故ってしまったようだ。
すごい痛ましいニュースだけど、一番びっくりなのはもうすでに普通に走っているんだ、ってところだよね。道路の状況とか、法的な整備とかはどうなの?と疑問が次から次へと出てきてしまう。テスラが言うには自動運転はま開発中であり、100%の自動ではない。やはりドライバーがハンドルに対する責任をもたないといけない、ということらしいんだけど、すでに約2億キロメートル走っているらしい。地球一周が4万キロだから、これって全然人間より優秀じゃないか?
興味深かったのは、同じように自動運転を開発している色んなメーカーが「ユーザーにテストさせるなんてまだ早い」と批判している所。きっと熾烈な開発競争の裏では色んな戦いがあって、その中には倫理的というか、価値観の違いもあるんだろうと想像できる。初の死亡事故が出たところで、これから色んな論争が始まりそうだ。





