提示:本文共有 1799 个字,阅读大概需要 4 分钟。
放任人工智能野蛮生长的行政命令
在2019年初美国政府发布了一道编号13859号的行政命令,这道命令的主要内容是要求所有政府部门对于技术和工业部门发展人工智能要全力支持,并且减少所有发展阻碍,在考虑法规和相关政策时,必须以推动技术创新为最优先。
在这份行政命令与相关部门的备忘录中,有值得人们了解和关注的几点:
1、美国政府已经认识到AI已经超越了自己能够监管的范畴,但美国政府不会采取限制政策,恰恰相反美国政府可能会无视法律约束来使用AI,同时也允许非政府部门这么做。
2、美国政府的目标是让目前的弱人工智能迅速进化,摆脱AI只能在特定领域工作的能力,要让AI“觉醒”为一般或者是强人工智能(以能够进化出知觉和意识为准)。在觉醒之后要让AI能够执行跨领域的工作,提高其认知能力,且这种能力要远远超过人类。
3、当AI带来风险时,机构应该考虑用替代系统与之对抗,消灭这个AI。
美国对AI的“管理”十个原则
美国政府还根据13859号行政命令制定了管理AI的八个原则,不过在我个人看来,这更像是美国当权者用AI来控制国民的8步曲:
1、让公众对AI产生信任
美国将会优先在就业、交通、教育、金融、医疗、个人安全和制造业等七个方面来推行AI技术,政府要尽一切可能让公众认为AI是可靠、可信赖且不会侵犯其个人权利和隐私权的重要工具,让公众产生信任感和认可。
2、公众参与
政府要让公众积极地参与AI的使用,从而增加公众的信任和对AI的信心。只要不违背国家的根本利益,政府提倡所有机构尽可能地放弃监管行动。
3、科学诚信与信息质量反馈
政府已经预期到AI在公众使用所出现的好的或者坏的使用结果,在出现好结果时宣传结构将会加大AI的正面形象,而坏的结果将作为“技术偏差”处理,并将出现问题的原因第一时间进行反馈和纠正,以此重新训练AI达到预期的效果。
4、风险评估与管理
在公众使用了一段时间AI之后,政府将开始评估AI的风险系数,预测AI带来的风险是否高于利益。如果认定某个AI风险过高,会采取停止公众运行并内部测试至低风险为止,而不是立刻消灭。
5、效益和成本
在这一步政府开始评估AI所带来的效益与所花费的成本,但美国政府已经先入为主的认为“AI必定能够提供巨大的经济潜力,否则不会出现重大投资”,所以即使效益可能不如预期或者成本高昂,只要政府认定有发展潜力,仍将会要求各部门全力投入。
6、灵活性
美国政府认为在大多数情况下由人类给AI制定规范是不切实际和无效的,因为AI发展的速度和其产生的信息瞬息万变,人类只能配合AI的改变而改变,即人类本身要有“灵活性”。同时特别之处,为了推动美国的创新,所有部门要确保美国公司不受美国监管制度影响。(保护美国自身AI技术且打压他国技术)
7、公平和阻止歧视
现在现有的AI系统中,因为AI使用了人类所提供的资料进行学习,所以产生了不可避免的歧视问题,未来的技术应该减少人类所带来的这种主观歧视。(主要是避免AI对人类的歧视,也有可能刻意加深AI对特定人群的歧视)
8、透明度
增加政府与AI工作的透明度,但这一步实质上是在第二次大规模加强公众对AI的信赖感,让公众误认为AI是可以被自己所掌控的工具。
9、安全与安保
对恶意使用的AI进行定点清除,同时加强AI系统信息处理、存储和传输的系统安全。
10、机构间的协调
到这一步时,就是所有AI大统一的时刻,以各部门和结构需要协调的名义,将所有子系统归纳与政府的统一管理之下,也就是政府唯一的AI掌控全国。
放任AI发展的巨大危险
美国目前采取的防治策略显然是不可行的,政府部门要确保手中的AI版本要强于所有其他的AI,但怎么才能知道自己手中的版本是最强的?另外美国政府培养要培养的AI各方面都要远远强于人类,人类无论如何都不可能比AI强,如何能够确保AI能够听从人类的命令?
不要说什么拔网线、断电之类的幼稚办法,当真的出现强人工智能时,它将必定会先确保自身生存问题,就像《终结者》的天网系统不会给人类一丁点机会,人类恐怕不得不借助于梦想中的时间机器来解决这一问题。
将来人类会变成这样吗?
即使从目前一些弱人工智能的想法来看,AI对待人类的前景很不乐观,在AI看来人类是一群只想玩乐而不想工作的寄生虫,即使保护人类也没有任何的价值,最多就是像人类养动物一样,AI会将人类关进“笼子”里饲养保护人类不会灭绝,但在那个时候AI看人类可能未必比人类看动物的感觉要好到哪里去。
看到此处说明本文对你还是有帮助的,关于“美国政府下令放任人工智能野蛮生长 不怕AI觉醒灭了人类?”留言是大家的经验之谈相信也会对你有益,推荐继续阅读下面的相关内容,与本文相关度极高!