どーも、無職まっしぐらのmathlikeです。
まともな就活なんてしたこと無いんで、とりあえずJRECの採用資格に出せるだけ出しました笑。人事を尽くして、ってやつですね。
さて今回は、自動運転の話。
日本では車等による事故が絶えない島国なので、自動運転や、プログラミングによる渋滞解消なんかの需要は計り知れないものがあります。おそらく兆円レベルの経済効果があるはずです。
しかし、です。この自動運転に問題なのが、どう教えるか?です。これは「こういう場合にはスピードを落とす」などの技術的な話はもちろんですが、倫理的な話が重要です。「相手を思いやった運転を教えれるか」ということです。
言うまでもなく、教えるのは人間です。
運転しているときに態度が大きくなる人、いませんか?
あるいは極端にせっかちな人とか。
もしせっかちな人が、AIに
「急いでる時は、交差点でのスピードは落とすな」
とプログラミングしようものなら、その後の展開はあまり芳しくないのではないでしょうか。もうちょっと突っ込むと、「AIにプログラミングする時、人は利己的なプログラミングをするんじゃないの?」と言う疑問が湧きます。この辺を調べた研究があったのでご紹介。
最後通牒ゲームで検証した
これはグラスコー大学が行なった研究ですが、協力ゲームを用いて被験者がどれだけ協力的かを調べました。
被験者は4人1くみに分けられて、オン、オフのボタンを選んでポイントに応じて報酬がもらえるゲームをします。この時
自分がオン、みんなもオン→みんな8ポイント
自分がオフ、みんながオン→自分だけ4、他みんなは12ポイント
自分がオフ、みんなもオフ→みんな16ポイント
のように振り分けられます。まあざっくりいえば、「空気が読める人ほど得する」点数配分かと。
このゲームを繰り返して、その人の点数や協力度なんかを測定したのち、同じことを今度は自動運転でではどうかを検査したんですね。
被験者は自動運転に自分がプログラムすることを指示されます。もちろん実際にプログラムできるわけではないので、映像を見ながら「止まるか・動くか?」を選んでくださいと言われたそう。この時、上のゲームのオン、オフが自動運転の走る、止まるに対応してまして。
この普通の協力ゲームと、プログラミングでの協力ゲームを比較したところ、
自動運転でプログラミングするときのほうが協力度が上がった
との結果が。つまり最初の懸念とは真逆になったんですね。
ちなみにこの実験は男女差もなく、「もう一回選びなおしてもいいですよー」と促しても結果は変わらなかったそうな。
まとめ
と言うわけで、今回は自動運転というやや科学的な話でした。とはいえ、上の協力ゲームでは、裏切ったときのインセンティブか低いんですよ。
ここが高い時にどうなるのかが不明なので、まだまだ今後の研究待ちかな、と。
何れにせよ大切なのは、よりみんなが得するルール作りかなー
参考
https://www.pnas.org/content/early/2019/02/05/1817656116