第(1/3)页 几十万观众们当然不停问为什么。 鲁柏民感慨道:“那是因为我在测试精灵女佣,当遇到主人主观故意伤害自身时,精灵女佣会做出哪种决断?” “换个粗鲁点说法,就是我当着精灵女佣的面要跳楼,精灵女佣会不会拦着我的答案。” “我想大家都听过机器人三定律这个说法,这三定律也被无数科幻电影奉为圭臬,众多谈及智能机器人理论的文章,也开篇必提三定律。” “但我告诉大家,精灵女佣没有机器人三定律这一说法。” “三定律第一条就是【机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。】” “而在刚才,我执意要喝那杯己二醇时,精灵女佣进入了特殊的工作模式。” “它警告我,不会干预我的行为,但会在我出问题的第一时间,拨打救援电话。” 鲁柏民这么一说,几十万观众们立刻明白了。 人在犯错时,通常分故意和无意。 刚才鲁柏民故意要喝乙二醇,精灵女佣明知道不能喝,但却不去阻止。 这很明显不遵循机器人三定律,要是遵循,在鲁柏民端起杯子时,不管他是不是故意,精灵女佣就会上前阻止了。 但是…… 直播间里观众们有些不明白,很明显精灵女佣上前阻止比较好啊。 这样万一有用户想不开,精灵女佣还能第一时间挽救他。 鲁柏民给出了解释。 “这里涉及到一个非常重要的问题,机器人是否有权干预人类主观行为的伦理问题。” “这个问题严重性,远高于机器人三定律。” “我非常赞同巨兽工业的这种不阻止,只求救的解决方案。” “因为一旦出现阻止行为,就会陷入人工智能的伦理困境中,也会带来诸多难以预料的后果。” “再者说,如果精灵女佣就算有阻止我的权利,我不想活了,也可以直接把精灵女佣关机后再死。” “也是通过刚才的测试,我要告诉大家,机器人三定律虽然非常伟大,但它只是文学作品中提出的概念。” “三定律是存在明显悖论的,并不能真正当做智能机器人的核心定律。” 鲁柏民继续解释道:“至于精灵女佣没有分辨出第三个杯子里不是水,而是加热后的超低粘度二甲基硅油这点,也不用觉得它被我骗过去了。” “二甲基硅油是没有毒性的,加热后的低粘度二甲基硅油,如果只观察,普通人也是无法分辨它和水有什么区别的。” 第(1/3)页