第277页(1 / 2)
他从后背环抱住姜祎成,压低声音在她耳边说道:“小心,野人来了。”
————————————
注释:
①AI不能伤害人类,这个设定可能被认为与机器人学三定律的第一定律有关,但在实际操作中通常都会在编程时输入大量规则,前文也提到家居AI不能做出任何具有法律风险的行为[1]。此处与其牵扯到人类和弱AI之间的某种伦理学上的关系,不如直接理解为制造弱AI的公司是单纯为了规避法律风险。毕竟当代已经不是1950s了,大到自动化流水线小到手机智能app,大家见到“机器人”多了都知道其实程序的逻辑根本不是那么回事儿。
至于当代文艺作品里很常见的“弱AI由于理解不了某一指令的真实含义,而造成为了完成任务而找到并利用指令漏洞的事件——例如为了保护人类生命而把人变成植物人的情节——我只能说这些“天才”想象出的程序设计者可真天才,非得给AI写一个“不择手段必须完成指令”的模块。为什么我写的脚本就不行,刚一碰到BUG就停下来报错?
[1]“避免违反法律的行为”之间可能是冲突的,但只要不预设“必须完成指令”,AI在遇到此种矛盾时完全可以停止执行直接报错。相比于把“第一定律”放在最高优先级,简单地规避所有违法行为反而具有更高的可操作性和更低的法律风险。
例如在主人发生窒息时AI判断需要切开气管,此时如果有最高优先级的“第一定律”,则可能发生AI为了救人而切气管却误切到主动脉导致主人死亡,引发用户和AI设计者之间的扯皮官司。而如果不区分优先级地禁止一切违法行为,救人行为与手术合法性冲突,AI直接报错而停止活动,是不存在任何问题的。
本质上这是一个权责一致的问题。AI不是公民,就不能作为承担责任的主体,因此不应当被赋予任何权衡利弊的权利(从另一个角度,人可以有对他人的救助义务,而工具不能对人有救助义务;工具没有“义务”)。上世纪的很多科幻作品刻意在这一点上进行混淆,是为剧情服务所做的特殊处理,与现实中自动化技术的发展方向不能相互混淆。
第一百七十三章 :突发事件这大约是点……
野人?
他这用词让姜祎成不禁一激灵。在星际航行时代的人类社会,“野”这个字已经很少作为“不受拘束”的意思在日常用语中存在了①。
这并不是大家道德感提高了或者这个字在语言中的含义发生了什么变化,只是因为星际航行时代的普通人越来越难接触到真正的荒野了。可能也就是在地球公民当中这个字还能经常使用一下儿,主要就是因为只有常住在地球上的人才可能时而见到真正的野外环境。
而至于用“野”来形容人,则是更为少见的用法了。在全体公民都已充分现代化的环境下,原义的“野人”已经不可能存在,而对于那些不遵守社会规则的人,也有更常用的名词对他们进行称呼——往往那些词要比“野人”难听多了。
“什么是野人?”姜祎成问了一句。
↑返回顶部↑