当人工智能算法出现问题时谁来承担责任呢

时间:2020-04-14 15:12:57来源:
导读 小编发现不少朋友对于 当人工智能算法出现问题时谁来承担责任呢 这方面的信息都比较感兴趣,小编就针对 当人工智能算法出现问题时谁来承

小编发现不少朋友对于 当人工智能算法出现问题时谁来承担责任呢 这方面的信息都比较感兴趣,小编就针对 当人工智能算法出现问题时谁来承担责任呢 整理了一些相关方面的信息 在这里分享给大家。

人工智能的最新进展已使许多领域发生了积极变化,包括公共安全,可持续性和医疗保健。但是,当算法出现问题时(不可避免地会出现问题),谁来承担责任呢?

Yochanan E. Bigman和合著者在《认知科学趋势》中写道,简单的答案是,对那些故障机器人进行编程的人应对其可能造成的任何伤害负责。但是随着诸如深度神经网络之类的高级解决方案的开发,该技术正在不断学习和发展,建立了一种自治感,使我们处于道德上的灰色地带。

Bigman及其同事说,科学家将自主性视为机器人可以在动态的,真实的环境中长时间运行的能力,但对于外行人来说,想法更简单:自主性等同于智力。人们如何看待事物的“思想”预示着他们的道德判断,并且随着机器人变得越来越自主,他们承担道德责任的潜力也会不断提高。

作者写道:“有些人可能会反对机器人拥有(或将拥有)任何类似于人类的智力能力的想法,但人们也长期以来对动物拥有思想的想法感到厌恶,现在认为它们具有丰富的内在生命。” 。“当然,动物是有血有肉,而机器是硅和电路,但研究强调,思想永远是感知的问题。”

他们说,某些因素将比其他因素对人类对机器人的感知的影响更大。例如,与单独的软件系统相比,人们更有可能将道德责任归于具有类人身体,面部和声音的机器。

当人们认为机器人具有意图,情境意识和自由意志时,他们更有可能将责任归于机器人。考虑到AI人工编程的透明性,所有这些特征在今天都是相对可预测的,但是像神经网络这样的进步允许机器在无需人工输入的情况下自学,这意味着机器的内部工作变得越来越不清楚。

Bigman等人说:“随着技术的进步,这些增加的能力(例如行走,射击,操作和驾驶的能力)将使机器人对人类造成更大的伤害。” 写道。“如果人们找不到其他人来承担责任,他们将寻求其他代理人,包括公司和神灵,并推断出意图的能力。

“痛苦与意图之间的这种联系意味着,机器人造成的破坏越多,它们似乎越具有意图,从而导致人们对道德责任的认识增加。”

作者说,这种逻辑还可能使某些人工智能制造商,例如大公司和政府,将技术错误归咎于机械本身,这很危险。展望未来,他们建议我们需要确定将机器人视为道德存在者的界限。

Bigman和合著者说:“无论我们是在考虑道德责任还是权利问题,目前看来机器人死亡问题都像科幻小说。” “但是,我们建议,尽管现在机器和我们对机器的直觉仍在不断变化,但是系统地探讨机器人道德问题的最佳时机。”

最新文章