一个人工智能道德体的 构想

资料图片:机器人服务。据外媒报道,为了引发人类对人工智能的深层讨论,美国加州伯克利大学机器人专家里本发明出能自己决定是否“故意伤人”的机器人,颠覆以往机器人展示的可爱助人一面。里本根据阿西莫夫的科幻小说,将此机器人命名为“第一法则”。在故事中,人类给机器人专门制定了法则,其中第一条就是“机器人不能伤害人类,或者在人类遭遇伤害时不作为”。里本说,这个造价不超过200美元的机器人,能够按照程序自己“决定”是否要刺破一个人的手指。  里本坦言,机器人会失控是人们最大的担忧,而自己制造机器人的用意,就是为了证明能决定伤害人类的机器人已存在,希望借此引发对人工智能的深层讨论,但依然认为“机器人在伦理层面上是靠不住。”

美高梅网址游戏投注 1《道德机器》
如何让机器人明辨是非 温德尔·瓦拉赫 柯林·艾伦 著 王小红 译 北京大学出版社
2018年11月出版

——读《道德机器:如何让机器人明辨是非》

⊙刘英团

美国科幻小说黄金时代的代表之一艾萨克·阿西莫夫在短篇小说《环舞》中提出的“机器人三大法则”(包括“机器人不可以伤害人类,或看到一个人将受到伤害而不作为”;“机器人必须服从人类的命令,除非这些命令与第一项法则矛盾”以及“在不违反第一、第二项法则的前提下,机器人必须保护自身生存”),被此后的各类故事和小说不断借用。但是,这些保护性设计或者内置的道德法则能框住拥有独立思考能力的机器人吗?人们对于把自己的生命和福祉交给忽视伦理的系统会感到放心吗?著名伦理学家、耶鲁大学生物伦理学跨学科中心主管温德尔·瓦拉赫(wendell
wallach)在与国际知名认知科学哲学家,美国印第安纳大学布卢明顿分校教务长讲席教授、斯坦福哲学百科副主编科林·艾伦(colin
allen)讨论时认为,机器道德关乎人类的决策行为。因此,他们在《道德机器:如何让机器人明辨是非》中提出,不要把责任推给机器,“我们必须更加坚守人类的价值观和伦理”。

美高梅网址游戏投注,我们置身于一个丰富多采的世界,也生活在一个困惑和焦虑的时代。“人类决策者会因为没有掌握全部相关信息或没有考虑到所有偶发事件而做出糟糕的选择,所以也许只有在一场未预料到的灾难发生之后,人类才会发现他们所依赖的机器人的不完善。”正如《道德机器》的两位作者所言,在未来,可能会出现一些无人驾驶汽车需要做出选择的场合——选哪条路,谁会受到伤害,或谁会处于受伤害的风险里?该对汽车有什么样的道德规范?我们当然有理由担心,也许不能完全理解为什么机器人做出了某个特别的决定。但是,我们需要确保机器人不会吸收和加重我们的偏颇之处。因为不管我们喜欢与否,机器人就在我们的身边,“到2030年,自动卡车、飞行汽车和个人机器人将随处可见”(斯坦福大学《2030年的人工智能与生活》报告),在交通、医疗、教育、金融和就业等各个领域,人工智能正以人们意想不到的方式融入人类社会。

相关文章