首页 科技 > 内容

人工智能正在学习应该在什么时候尊重人类

时间:2020-08-06 15:52:20 来源:

研究表明,当人与人工智能系统一起工作时,它们可以胜过任何一个单独行动。医疗诊断系统通常由人类医生检查,内容审核系统会在需要人工协助之前过滤其功能。但是,很少有算法针对这种AI到人类的切换进行优化。如果是这样的话,那么,如果该人实际上可以做出更好的决定,那么AI系统只会顺应其人类同行。

研究:麻省理工学院计算机科学和AI实验室(CSAIL)的研究人员现在已经开发了一种AI系统,可以根据人类协作者的优缺点来进行这种优化。它使用两个单独的机器学习模型;一个人做出实际的决定,即是诊断病人还是删除社交媒体帖子,一个人预测AI还是人是更好的决策者。

后一种模型(研究人员称为“拒绝者”)会根据每个决策者的长期跟踪记录来迭代地改进其预测。它还可以考虑性能以外的因素,包括人的时间限制或医生对AI系统无法获得的敏感患者信息的访问权限。

结果:研究人员在各种场景中测试了混合人类AI方法,包括图像识别任务和仇恨语音检测。人工智能系统能够适应专家的行为,并在适当的时候顺应他们的行为,从而使两个决策者能够迅速达到比以前的混合人工人工智能方法更高的精确度。

案例研究:尽管这些实验仍然相对简单,但研究人员认为,这种方法最终可以应用于医疗保健和其他领域的复杂决策。考虑一个可以帮助医生开出正确抗生素的AI系统。广谱抗生素非常有效,但过度使用会导致抗生素耐药性。另一方面,特定的抗生素可以避免该问题,但只有在它们具有较高的工作机会时才应使用。考虑到这种折衷,AI系统可以学会适应处方上有不同偏见的各种医生,并纠正广谱抗生素使用过量或不足的趋势。

标签: 人工智能