负责任的AI可以有效地部署以人为中心的机器学习模型

时间:2020-09-07 15:38:24来源:
导读人工智能(AI)作为一项令人难以置信的惊人创新而迅速发展,其应用无限。它显示出能够自动执行例行任务(例如我们的日常工作)的能力,同时还通

人工智能(AI)作为一项令人难以置信的惊人创新而迅速发展,其应用无限。它显示出能够自动执行例行任务(例如我们的日常工作)的能力,同时还通过新的洞察力增强了人员的能力。借助机器学习的适应性来巩固人类的想象力和创造力,正在以惊人的速度推动我们的洞察力和理解力。

然而,巨大的力量带来了巨大的责任。尤其是,由于其可能造成破坏性影响,人工智能在许多方面引起了担忧。这些忧虑包括劳动力流离失所,失去保护,决策中可能存在的偏见以及对自动化系统和机器人缺乏控制。尽管这些问题值得注意,但同样可以通过正确的计划,监督和治理来解决。

众多的人工智能系统与人接触时,应该了解人们的行为方式和需求。这将使它们更有价值,并且使用起来更加安全。理解人们至少可以通过两种方式使智能系统受益。首先,智能系统必须收集个人需求。在很长的一段时间内,我们将设计可以从人们那里获得指导和目标的AI框架。但是,人们并不总是准确地说明他们的意思。误解一个人的意图可能会导致失败。其次,要克服无法理解人类的演讲或书面语言的问题,请考虑以下事实:如果部分准则或目标被隐含或理解,则完全可以感知的方向会导致失望。

以人为中心的AI同样也承认人们对智能系统同样难以理解。当我们考虑可以理解人的智能框架时,我们通常会考虑正常的语言和语音处理,即智能系统是否可以对发声做出适当的反应。自然语言处理,语音处理和活动识别是构建有用的智能系统的重大挑战。为了真正有效,人工智能和机器学习系统需要一种关于人类的思维理论。

负责任的AI研究是一个新兴领域,倡导在部署机器学习模型时采用更好的实践和技术。目的是在建立信任的同时,将潜在风险不仅限于部署这些模型的组织,还不仅限于它们所服务的用户。

负责任的AI是将大量这些基本实践整合在一起的结构。它围绕以一种可预见的,以用户期望,权威性质量以及文化法律和标准可预测的方式,保证对AI技术进行道德,透明和负责任的使用。负责任的AI可以防止单方面信息或算法的使用,确保倡导自动化决策和合理决策,并有助于保持用户信任和个人隐私。通过给出明确的参与规则,负责任的AI可以使受到公共和国会审查的公司提高并了解具有说服力和负责任的AI的突破性能力。

以人为本的机器学习是迄今为止业务中更重要的概念之一。斯坦福大学和麻省理工学院等领先组织正在明确设立实验室以鼓励这种科学。麻省理工学院将此概念定义为“设计,开发和部署以深远,有意义的方式向人类学习并与人类合作的信息系统。”

人们经常将工作的未来描述为由机器人设备和大量声称是人的算法所控制。然而,根据德勤(Deloitte)最近对企业高管的研究,实际上已经在很大程度上计划采用AI,以使流程更有效,升级产品和服务以及制造新产品和服务,该公司将减少员工人数作为其最不重要的目标进行了评估。

在机器人技术和自动操作员中设置常识性故障是无关紧要的。例如,机器人去药房并获得了专业处方药。由于人类生病了,因此个人可能希望机器人尽快返回。如果机器人直接去药店,在柜台后面,拿到药,再拿回来,它将成功并且将执行时间和金钱减到最少。我们同样会说,它洗劫了药店,因为它对为产品交换金钱的社会结构不感兴趣。

常识性知识的程序形式可以作为与人互动时使用心智理论的理由,可以使人与人之间的合作更加自然。尽管ML和AI决策算法在人类决策中的工作原理是独一无二的,但该框架的行为随后对于个人而言更为明显。同样,它也使与个人的交互更加安全:鉴于操作员使用常识性的程序细节填写了一个不确定的目标,因此可以减少常识性目标失误;以及一名专家,该专家将按照个人的期望进行示范,从本质上避免了与将人类行为的思想理论应用到智能主体上的个人发生冲突。

标签:AI
最新文章