提示:本文共有 902 个字,阅读大概需要 2 分钟。
人工智能悖论:当警察和小偷发生冲突,机器人应该帮谁?
我们一直都在向往着人工智能的这项科技,幻想着在某一天人类能够和机器人一起共存,我们所有的生活都由机器人所接管,他们代替我们生产,代替我们工作,而我们只需要每天好好的享受生活。但是理想是非常完美,科技的障碍却是一个非常现实的存在,我们在研究人工智能发展的过程中有着数不清的悖论阻碍着科技的进步。
因为我们无法确保机器人在无限发展的过程中,是否会对人类一直保持着中性的状态,机器人它本身的思考方式,终究还是和人类不同,它的伦理道德真的能够用人类的框架来约束吗?记得当年还是莫夫提出过机器人三大定律,要保机器人保护人类的大前提下来约束它自身的发展,这种框架约束虽然有一定的逻辑性,但是这只是人类的思考方式,对于机器人而言存在着很多的漏洞。例如当年科学家就提出了一个机器人悖论,假若小偷和警察发生的生命冲突,那么请问机器人应该帮谁?
我们都知道机器人的发展速度是人类的好几倍,而且它的速度加速度一般都是呈指数型增长,并且它的发展是没有任何上限的。在这种状态下,人类发展人工智能确实有着极大的科技前景,但是我们一定要想好一个大前提的约束它的发展。当年阿西莫夫所提到的机器人三大定律非常的完美,也成为了现在的人工智能学的金科玉律。但是机器人毕竟还是有着自己的思考方式,人类的基本伦理道德未必能够约束得了他。
例如当小偷和警察发生冲突时,作为遵守机器人三大定律的机器人可能就会陷入到一个逻辑圈的崩溃,因为为了遵守机器人三大定律的第一法则,它不能眼看人类受伤而置之不理,那么它肯定要保护弱小的小偷一边,但这很明显就破坏了人类的法律道德。如果机器人帮助警察的话,那么它又侵害了小偷的生命权益,这明显和机器人三大定律冲突了。
我们在看很多电影里面,机器人正因为被这个逻辑怪圈的玩弄,最终发生了自我解脱,反而对人类发起了非常残酷的冲突行为。所以说我们人类看起来逻辑圈非常完美的机器人三大定律,对于机器人而言根本就难以适用,机器人未来的发展还需要其他的大前提和防火墙的约束。若是未来真的出现了警察和小偷的冲突,或许我们要让机器人学会融入人类社会,拥有自己的情感,才能够学会自己的辨识。
看到此处说明本文对你还是有帮助的,关于“人工智能悖论:当警察和小偷发生冲突 机器人应该帮谁?”留言是大家的经验之谈相信也会对你有益,推荐继续阅读下面的相关内容,与本文相关度极高!