无人驾驶碰上三定律 阿西莫夫著名机器人三定律是否适用?
已经逐渐融入到我们的生活。从快餐厅的自助点餐设备到家用的扫地机器人,再到汽车,机器人正以各种各样的形态存在于我们的日常生活与工作当中。那么对这些逐渐融入到我们生活的机器人来说,阿西莫夫著名的机器人三定律是否适用呢?
人工智能的进步不断推动机器人大范围的应用于我们的日常生活。曾经看起来非常昂贵,只能用于重型制造业的机器人,已经逐渐向低成本和小型化演变。虽然我们还没有打造出梦想的那种管家式机器人来照顾我们的日常生活,但家用的真空吸尘器事实上就可以看作是一种机器人。
关于机器人,很多人都听说过作家艾萨克•阿西莫夫的机器人三定律。他的科幻小说《Runaround》于1942年出版后,人们对这个传奇定律的兴趣和热情似乎就变得势不可挡。
后来,阿西莫夫加入了一条新定律“第零定律”,该定律规定“机器人不得伤害人类整体,或因不作为使人类整体受到伤害。”
虽然阿西莫夫提出了这些定律,但它们并非真正的法律。这些定律都是人为制定的,而人类可以自由支配。我们既可以遵守,也可以完全无视,选择权完全在我们自己。
法律其实是人类建立的规章制度。从这一点来说,阿西莫夫提出的机器人三定律或许应当写入到我们的法律当中,因为在未来某个时期,机器人很可能将和我们大家一起游走在街头。而且这样的做法是明智的。
当提到阿西莫夫的机器人三定律时,人们可能会想用机器“人”这个词来代替人工智能。因为你可能会狭义的认为,好像它们只适用于一个碰巧长得像人类的机器人,有腿、有胳膊、还有头和身体等等。但并不是所有的机器人都必须这样设计。
一些最新的机器人看起来更像动物。也许你已经看过一些流行的,视频里的机器人有的看起来像狗,更不可思议的是昆虫机器人。它们看起来有点吓人,但却能够在一定程度上帮助我们弄清如何利用机器人实现各种可能性。
机器人设计并不一定要有生物学上的灵感,比如自动真空吸尘器看起来并不像任何常见的动物或昆虫。可完全预料到,未来会有各种各样的机器人问世,而且似乎并不仅仅基于生物。
无论我们将打造啥样子的机器人,阿西莫夫三定律非常有用。这可能有点牵强,但真空吸尘器真的可当作遵守三定律的候选人。当然,你家里的吸尘器“机器人”不会试图伤害你,而是应该尽其所能避免这样做。
有些机器人已然浮现在我们眼前,但我们可能不会认为它们是机器人。基于AI的无人驾驶汽车就是一个例子。
由人工智能系统驾驶的汽车能够说是一种机器人。而你可能不认同它们的机器人身份,原因是它没有一个会走路、会说话的机器人坐在驾驶员的座位上。负责驾驶的电脑系统隐藏在汽车底盘或后备箱里,尽管它确实是机器人,但其实际身份似乎也常被人们忽视。
令人鼓舞的是,科学家们正在努力创造能够行走和说话的机器人,它们将能够驾驶汽车。想象一下它们将给我们的世界带来什么样的改变。
目前,无人驾驶汽车都是汽车改装而成的。如果我们制造出的机器人能驾驶汽车,这将意味着所有现有的汽车大多数都可以被视为无人驾驶汽车。我们没必要因为无人驾驶汽车的到来而抛弃传统汽车,也没有必要设计一种全自动驾驶汽车,那些行走的机器人能充当我们的司机。
目前,最快捷的无人驾驶汽车打造方式是将机器人内置到汽车中。有的人觉得,这些新兴的无人驾驶汽车将不可避免地被那些会走路会说话的机器人取代。也就是说,今天的无人驾驶汽车将会过时,再次让位于传统的驾驶控制方式,也会是说最终汽车要么由人类驾驶,要么由机器人驾驶。
另外,也有人希望,当我们在无人驾驶汽车领域已经走得足够远,不会再使用独立的机器人来驾驶汽车。
如果机器人驾驶员控制方向盘,这在某种程度上预示着传统的驾驶控制仍然会保留。这也代表着,只要人们愿意他们仍然能够驾驶汽车。但人们相信,无论是内置驾驶系统还是能走路的机器人,人工智能都将成为更好的司机,能够减少酒驾和其它不良驾驶行为。事实上,一辆真正的无人驾驶汽车不会有任何驾驶控制功能,这可能会让独立的机器人以及人类无法驾驶汽车。
人们或许会产生这样一种想法:世界将完全转向真正的无人驾驶汽车。尽管一个能走路、会说话的驾驶机器人也可能成真,但也许无人驾驶技术的发展会让人不愿让时间倒流,也不愿重新推出传统汽车。这种想法似乎有点一厢情愿,但不管怎样,无人驾驶的核心似乎都是把人类驾驶员排除在外。
这就引出了另一个关键的、有时却被忽视的关于机器人的观点,即它们能被置于涉及生死活动的位置。你的家用真空吸尘器机器人不太有几率会成为生死攸关的决策者。但是,一辆内置人工智能驾驶系统的无人驾驶汽车,甚至一个机器人司机,无疑将处于决定人类生死命运的位置。
当你每天开车的时候,不管你是否意识到,你都是一个生死攸关的决策者。如果方向盘控制得不好,你可能丧命,也可能会引起他人死亡。这看起来虽然相当悲观,但同样是需要强调的严酷现实。当新手司机驾驶汽车的瞬间,生死的担忧就会突然变得相当明显。
既然这关系到生死存亡,我们该考虑将阿西莫夫的三条定律应用到无人驾驶汽车的使用中。因此我们就有了一个有趣的问题:阿西莫夫机器人三定律是否适用于基于AI的真正的无人驾驶汽车?如果适用,我们该做些什么?
需要澄清的是,真正的无人驾驶汽车是指人工智能完全独立驾驶汽车,在驾驶过程中没有一点人工辅助。这些无人驾驶汽车被认为是4级和5级,而一辆需要人类驾驶员共同驾驶的汽车通常被认为是2级或3级。后者被描述为半无人驾驶,通常包含各种自动附加组件,称为ADAS(高级驾驶辅助系统)。
目前还没有线级无人驾驶汽车,我们甚至不知道这是否有可能实现,也不知道需要多长时间才能实现。与此同时,4级无人驾驶汽车已经逐渐得到一些机会在非常狭窄的特定公共道路上试验。但是人类对于这种测试是否应该进行颇具争论。
对于半无人驾驶汽车,公众需要警惕的是最近出现的一个令人不安的问题。部分司机拍摄了自己在驾驶2级或3级汽车时睡觉的视频。我们都需要避免被误导,认为司机在驾驶半自动汽车时可以分散他们的注意力。无论2级或3级的自动化程度如何,你都要为车辆的驾驶行为负责。
对于4级和5级真正的无人驾驶汽车来说,驾驶过程中不会有人类驾驶员参与。所有的人类都是乘客,全程由AI系统进行驾驶。让我们简要地看看阿西莫夫的三条定律,看看它们如何适用于真正的自动驾驶汽车。
首先,第一条定律规定,机器人(或者说AI系统)不得伤害人类,无论是通过公开行为还是不作为。当它们操控方向盘的时候,这是一个很高的要求。为什么呢?
当无人驾驶汽车在街道上行驶,它会对周围环境进行积极的探测。但是当一个小孩站在两辆停着的汽车之间时,由于超出了自动驾驶汽车的感应范围,它是看不到的。当汽车正在以规定的速度行驶时,或许会遭遇孩子突然走上街道的情况。
有人认为,自动驾驶汽车永远不会撞上人,因为人工智能拥有最先进的感知能力,不会成为醉酒司机。不幸的是,在刚刚设想的那种情况下,自动驾驶汽车必定会撞到那个孩子。之所以这么说,是因为任何人工智能驱动系统都逃不开物理定律。
如果孩子突然冒了出来,而且距离移动的汽车15英尺(约4.5米),而自动驾驶汽车以每小时30英里(48公里每小时)的速度行驶时,它的刹车距离约为50至75英尺(15至23米),这意味着孩子很容易被撞到。
这意味着人工智能驾驶系统刚刚违反了阿西莫夫的第一条定律。人工智能伤害了人,但是需要保证AI系统确实会触发无人驾驶汽车的刹车,并尽其所能避免撞到孩子。尽管如此,人工智能系统没有足够的时间和距离去避免这种碰撞。
既然我们已经证明了严格遵守阿西莫夫的第一条定律是不可能的,那么你至少可以假设,人工智能驾驶系统试图遵守这条定律。通过刹车,人工智能驾驶系统似乎试图避免撞击儿童,而且如果汽车在撞击时几乎停下来,其结果可能不会那么严重。
那么,第一定律还规定了不应该有任何不作为导致对人类的伤害。有人认为,如果无人驾驶汽车不试图停下来,这种不作为可能就属于这一范畴,也就是说,它再次未能遵守定律。我们可以做一点别的假设。假设人工智能驾驶系统能够让汽车转向,从而避免撞到孩子,但是无人驾驶汽车却撞上了一棵树,导致车里的一位乘客扭伤了脖子。
虽然孩子得救了,但是无人驾驶汽车里的乘客受了伤。你可以考虑一下,拯救孩子与伤害乘客的结果相比是否值得。此外,你还可以考虑人工智能是否未能采取适当措施,避免对乘客造成伤害。这种道德困境非常适用于无人驾驶汽车,随着自动驾驶汽车的不断出现,应该得到更多的关注。
总而言之,阿西莫夫三定律中的第一条,对于基于人工智能的全自动驾驶汽车来说,是一个极具挑战性的目标。尽管实现这一目标将非常困难,但它可能是我们必须要解决的难题。
阿西莫夫定律的第二条规定,机器人或者说这种人工智能的驱动系统应该服从人类给它的命令,除非人类发出的命令与第一条定律冲突。这似乎很简单,也很令人愉快。但这条定律也有它的问题。
曾经有一篇文章报道了一个男人用车碾压一个在桥上随意开枪杀人的枪手的故事。司机阻止了枪手的恶行,这是一种英雄行为。
如果阿西莫夫第二定律被编程到自动驾驶汽车的人工智能驾驶系统中,假设一名乘客命令人工智能碾压枪手,人工智能大概会拒绝这么做。这是显而易见的,因为这条指令会伤害人类。但是,这个案例似乎推翻了我们一贯坚持的惯例。简言之,认为第二条定律应该得到执行需要有根据,否则就意味着在那些罕见的情况下,它会因不作为而导致人类受到伤害。
问题是,让人工智能驾驶系统毫无疑问的服从乘客也是不切实际的。如果自动驾驶汽车的乘客告诉人工智能把车开到人行道上。而此时人行道上没有行人,因此不会有人会受伤。那么,人工智能驾驶系统是否应该服从人类发出的这种命令?
人工智能当然不应该这样做,我们最终将不得不解决这个问题,让人工智能驾驶系统能够判断人类乘客的的哪些命令可以顺从哪些命令需要拒绝。
阿西莫夫提出的第三条定律是,只要第一条和第二条定律没有被推翻,机器人或说人工智能的驱动系统必须保护自己的存在。那么无人驾驶汽车是否应该试图保护自身?
有的人觉得无人驾驶汽车将有大约4年的寿命,最终在短短4年的驾驶时间里就会严重磨损。这似乎很令人惊讶,因为我们预计汽车的运行时间会更长,但无人驾驶汽车的区别在于,它们的运行时间接近24小时,行驶里程也比传统汽车长得多。
那么,假设一辆无人驾驶汽车正接近它的寿命终点。该车将自动行驶到垃圾堆进行回收利用。人工智能驾驶系统可能会决定不去回收中心,从而试图保护自己,这可以接受吗?如果有人让它去那里,那么按照第二定律,无人驾驶汽车就必须遵守。
基于上述逻辑,我们对阿西莫夫的三条定律在无人驾驶汽车上的应用不得不有所保留。人工智能驾驶系统可以根据这些定律来设计,将其作为总体架构的一部分,但这些定律是一种愿望,而不是不可改变的法则。
开车存在一个巨大的道德困境,人们往往认为这是必然的。我们需要弄清楚人工智能驾驶系统将如何做出生死抉择。而且这必须在我们让无人驾驶汽车充斥我们的街道之前完成。
大约80年前,阿西莫夫曾说过:“现在生活中最悲哀的方面是,科学积累知识的速度快于社会积累智慧的速度。”但这句话很值得我们回味。
比较 /
(Kirchhoffs laws)是电路分析中最基本且重要的原理之一。基尔霍夫电流
被广泛应用于解析和计算复杂电路中的电流和电压。它们的本质可以用以下方式解释
,其中V表示电压,I表示电流,R表示电阻。这个简单的方程提供了电子学和电路分析的基本框架。然而,欧姆
。它的数学表达式为 V = IR,其中V代表电压,I代表电流,R代表电阻。 然而,欧姆
”,它被描述为一组“以安全为重点的提示”,指示LLM避免选择涉及人类、动物、尖锐物
宪法”到高效决策 /
,它们都描述了电流、电压和电阻之间的关系。然而,它们在一些细节上不一样,下面将详细的介绍这两个
的网络安全 /
LVDS用法:LVDS RX 时钟选择 LVDS的PLL的复位信号的处理
am571x工业开发套件(IDK)评估模块(EVM)硬件用户指南_英文版
【Vision Board创客营连载体验】基于Vision Board的垃圾分类
下一篇:上下料机器人-应用和功能有哪些