ハッキング、トロッコ問題など…完全自動運転に立ちはだかる壁とは?
日々進歩していく自動運転の技術。
日本でも、2020年のオリンピックに向けて、無人タクシーなどの開発が盛んになっています。
完全自動運転の車が実現すれば、交通事故がなくなる...などと言われていますが、一方で、人工知能が運転することによって新たに生じた問題もあります。
今回は自動運転の実現を妨げる問題について、実際に起こった事例を交えながら、紹介いたします。
※ 2016年12月03日時点
ハッキングの問題
まず、紹介するのは、ソフトウェアによるハッキングの問題です。
自動運転車は、車体に装備されたソフトウェアによって、走りをコントロールしています。
そのため、ソフトウェアがハッキングされた場合、自分の乗っている車が意図しない動きをする可能性があります。
ハッキングに対する車の脆弱性は、すでに自動運転車以外でも報告されています。
2016年2月、セキュリティ研究者トロイ・ハント氏が自身のブログで、日産「リーフ」が遠隔操作できてしまうことを発表しました。
同氏は、オーストラリアからイギリスにあるリーフのエアコンを操作することに成功。
リーフの走行日時や距離などの運転履歴を取得することもできました。
こちらがその時の動画です。
ハッキングの原因となったのは、リーフに搭載されていたエアコンの遠隔操作などを行えるアプリです。
こちらのアプリは、車両識別番号さえ分かってしまえば、遠隔操作ができてしまうという脆弱性がありました。
こちらは、走行や車両の安全性に影響を与えられるほどの問題ではなかったものの、自分の情報を知らない間に抜き取られてしまう可能性がある、ということを考えると、恐ろしいニュースですよね。
なお、このアプリによるハッキング被害は確認されておりません。
日産はこの事態を認識しており、問題があったアプリのサービスの提供を中止しています。
もし、完全自動運転が実現した場合、運転のすべてをソフトウェアに委ねることになります。
ハッキングされた場合、重大事故につながる可能性が極めて高いです。
完全自動運転を実現するには、ソフトウェアが正しく動作するかに加えて、絶対にハッキングされないという高い安全性能を示す必要があるでしょう。
道徳的な問題
次に紹介するのは、道徳的な問題です。
これは、もし、自動運転の車の前に歩行者が飛び出してきた場合、歩行者を避けるためにドライバーの危険を犯してハンドルを切るか、それとも、ドライバーの安全を優先して歩行者を轢いてしまうのか、といった問題です。
これは倫理学の思考問題になぞらえて「トロッコ問題」と呼ばれています。
自動運転の車は事前に車の動きをソフトウェアにプログラミングしておく必要があります。
その際に不測の自体には、どのような判断を下すべきかも決めておかねばなりません。
もし、自動運転の車の運転で事故が起こった場合、それは元々プログラミングされていた行動の結果となります。
人間の起こす事故のように、偶然そうなったでは済まされないのです。
この問題は、様々な場面で起こります。
例えば、前を走っているトラックが積荷を崩してしまった場合、落下する積荷を避けるためにハンドルを切るのか、切らないのか。
また、ハンドルを切る場合、どちらにハンドルを切るべきなのかが問題になります。
もし、この状況で両サイドにバイクが走っていた場合、積荷を避けてハンドルを切ってしまうと、バイクの運転者を轢いてしまいます。
また、バイクの運転者の一人がヘルメットを被り、もうひとりがヘルメットを被っていなかった場合、ヘルメットを被っていない方にハンドルを切った方が、ヘルメットを被っていない方の運転者を轢いてしまうより、事故による死者の数は減少する可能性が高いでしょう。
しかし、ヘルメットを正しく着用している運転者が優先的に事故に遭うようにソフトウェアを設定することは道徳的に問題があります。
この状況については以下の動画で、詳しく解説されています。
この問題には正しい答えはないでしょう。
しかし、自分を犠牲にする判断をするかもしれない車には乗れないという人は少なくないと思います。
完全自動運転を実現させるには、事故の際にはどのような動きをするか事前にルールを決め、消費者に伝える義務があるのではないでしょうか?
現時点ではメルセデス・ベンツが、完全自動運転の際には、ドライバーの安全を優先すると表明しています。
ここまで自動運転の現段階の課題を紹介いたしましたが、現在実用化されている多くの半自動運転の車は事故の減少の手助けをしています。
もし、完全自動運転が実用化されれば、もっと事故の数を減らすことができるかもしれません。
ぜひ、これらの課題を解決して、実用化して欲しいですね。