如果有这样一道问题摆在你的眼前:当你已经无法刹车控制车速,要么撞上有三名乘客的另一辆车,要么紧急转弯撞击路旁行走的三名儿童,假设你有充足的时间思考你会如何选择?诚然这是非常难以回答的问题,人类尚且如此那么当这辆汽车的驾驶权交给机器人,机器人又会做出什么样的选择?对此Google的工程总监Ray Kurzweil在上周也给出了自己的答案,总结来说就是:“我们都不知道。”
在奇点大学的演讲中,Kurzweil解释为何说“汝不能杀戮”的机器人戒条是非常错误的。如果某个人想要炸毁一座建筑或者一座城市,那么从道德上我们自然有权利去阻止他。那么再回归到自动驾驶汽车上,机器人同样需要一个“道德编程”,他表示Isaac Asimov的机器人三大戒律是很好的“第一关”。
当你面临某些抉择的时候,如果两种结果都会导致一些人死亡你会怎么做?对此他也承认当无人驾驶面临这样的抉择的时候还没有准备好答案。他表示:“我会继续进行深入研究,我的分析工作还未结束。”

微信扫一扫打赏
支付宝扫一扫打赏:format(webp):quality(80)/https://assets.bohaishibei.com/2025/12/24/1_x7n3a.webp)
:format(webp):quality(80)/https://assets.bohaishibei.com/2025/12/24/4_bnezx.webp)
:format(webp):quality(80)/https://assets.bohaishibei.com/2025/12/24/leaves-9986904-1280_q34yw.webp)
:format(webp):quality(80)/https://assets.bohaishibei.com/2025/12/24/3_b37v6.webp)
:format(webp):quality(80)/https://assets.bohaishibei.com/2025/12/24/2_3re2u.webp)
:format(webp):quality(80)/https://assets.bohaishibei.com/2025/12/24/1_4hvyt.webp)
