如何赋予智能机器人道德能力?

共 1 个回答

切换为时间排序
in7娘

2020-06-16 12:19:23


打造具备道德自主能力人工智能装置的人该负什么样的责任?我们该如何透过有责任感的方式,为机器人添加道德能力?研究人员将为这些链接机器人与人工智能工程、巨量数据分析以及道德哲学的迷人题目找出答案;它们正为工程师们带来挑战,也不应该被忽视。来自美国塔夫斯大学(Tufts University)、布朗大学(Brown University)、以色列理工学院(Rensselaer Polytechnic Institute)与世界其他学术机构的研究人员们,正与美国海军共同探索以上相关问题,目标是开发出能成功植入机器人的道德算法。


为了解更多针对机器人应用的嵌入式道德算法开发现况,《电子工程专辑》美国版编辑专访了塔夫斯大学计算机科学教授Matthias Scheutz,他也是该校的人类-机器人互动实验室(Human-Robot Interaction Laboratory,HRI Lab)的负责人。


设计具备道德能力机器人所遭遇的挑战有哪些?Scheutz表示:"相关挑战有很多,例如理解道德判断情境,可解决道德冲突的恰当道德推理能力,以及判断适合的行动路线等,还要将所有的算法以一种让它们能坚定地实时运作之方式,布建在机器人架构中。"


Scheutz也表示,它们目前正在研究推理算法的不同设计选项,例如扩增道义逻辑(augmented deontic logic,形成义务与许可概念的逻辑),以及侦测出道德判断情境的方式、主要是根据语言。


机器人Nao乖乖地安静坐在一边,等待塔夫斯大学教授Matthias Scheutz开始上机器人程序编写课程(来源:Alonso Nichols,Tufts University)


机器人不当决定导致原本可避免的伤害发生时,谁该负起责任?


在一篇题为《让自主代理体系架构更具功能性的需求(The Need for More Competency in Autonomous Agents Architectures)》之论文中,Scheutz以医疗与战场做为自主式机器人的两个应用案例,讨论机器人设计师与工程师所面临的部分挑战;包括机器人将做出什么决定?以及不当决定导致原本可避免的伤害发生时,谁该负起责任?


Scheutz表示,身为机器人设计者:"我们负责开发所有支持道德推理之算法的控制架构,但我们不会对机器人将被赋予的道德原则做出任何承诺,那应该是机器人布署者的任务──他们负责定义道德准则、规范等等。"


因此Scheutz认为,法律专家应该要提早定义出对机器人行为应负的责任,这是一个关键问题,特别是因为具备学习能力的机器人,也会在执行任务的过程中吸收新的知识。


塔夫斯大学教授Matthias Scheutz与他在HRI实验室的机器人伙伴Cindy (来源:Kelvin Ma,Tufts University)


如何赋予机器人道德能力?


要赋予机器人道德能力,就是让机器人在一个道德判断情境中,模仿人类的决策过程;而首先,机器人就是能意识到一个道德判断情境,接着依循所布建的推理策略──包括道德原则、基准与价值等。这呼应了美国达特茅斯学院(Dartmouth College)教授James H. Moor提出的第三种道德主体(ethical agent)"──也就是明确(explicit)的道德主体。


根据Moor的说法,明确的道德主体能在多样化的情境之下判别并处理道德信息,并做出应该要做的敏感判断;特别是它们能在道德两难的情境下,在不同道德原则相互冲突时,做出"合理的决定"。


Scheutz指出,现今的机器人与人工智能科技进展,已经能制作出具备自我决策能力的自主机器人,不过大多数这类机器人的功能仍然很简单,其自主能力也有限;因此它们有可能因为缺乏从道德角度来考虑的决策算法,而成为具伤害性的机器。


"如果我们不赋予机器人侦测并适当处理道德判断情境的能力、而且是透过人类可接受的方式,我们可能会增加人类受到不必要伤害与苦难的风险;"Scheutz表示:"自主性机器人可能会做出我们认为在道德上有错误的决定──例如被授权不提供病患止痛药。"


在论文中,Scheutz表示机器人开发者能采取一些行动,减轻布署在人类社会中的机器人面临道德判断情境可能造成的问题:"第一,机器人设计者可以透过机器人的设计与编程,降低遭遇道德判断情境中的潜在性,例如当机器人不会回报社交关系时,就不利于社交连结(social bonding),这将会减少人们与机器人建立单向情感连结的情况。"


相较于有些机器人的行为会表现情感,或是拟人化的设计,可能会暗示人们它有能力特定类型的关系,但实际上并不会。身为人类,对机器人可能在道德判断情境或是道德两难情境下可能做出的抉择做出批判,可能会是挑战。


考虑到我们身为人类,在评估我们自己的道德社交行为时,会一直表现出许多前后不一致的行为,无疑人类需要为打造具备道德自主性的人工智能负责。


Scheutz表示,实际上人类面对道德判断情境时也会有不同的看法,但这不一定会成为替机器人布署道德推理功能的限制因素:"未受过正规训练的人类通常不擅于正确的逻辑推理,而且有可能会犯错──例如所得结论并未根据已知信息的逻辑──特别是在复杂的道德情境下。至于机器人,我们能确保它永远或只会依循逻辑推理,不会执行未受允许的动作。"


Scheutz期望,未来每一个布署在人类社会中的自主性机器人,包括辅助机器人、娱乐机器人、军事机器人等等,都是"懂道德的机器人"


共 1 条
  • 1
前往
62回答数