为什么人工智能并没有我们想象的那样智能?(徐英瑾 人工智能)

时间:2023-05-10 01:09:40来源:网络整理
导读有人担心人工智能会取代人类,甚至会反人类。然而几年下来,我们发现人工智能并没有我们想象的那样智能。我经常会听到各种各样的误解,第一个误解就是认为人工智能是个新东

本月初,世界人工智能大会在南京召开。 会议期间,张文宏博士的一句“人工智能如火如荼的明天徐英瑾 人工智能,这场抗疫还是靠传统智慧”引起了很多人的共鸣。

人工智能曾经是一个颇具悬念的话题。 有人担心人工智能会取代人类,甚至反人类。 但是几年后,我们发现人工智能并没有我们想象的那么聪明。 “哪里有问题?

从2004年开始,清华大学哲学院院士徐应进就开始关注人工智能。 除了撰写了大量相关论文和著作外,他开设的人工智能哲学课程也深受中学生欢迎。

近日,他在“君子之知”复旦大学EMBA人文与商学讲座上,就上述议程分享了自己的思考。 他的分析是从“什么是人”和“什么是智能”这两个问题出发的。

徐英瑾 人工智能_徐英瑾 复旦大学_徐英瑾 男

7月17日,在北京体育大学中国乒乓球学院训练馆,多台庞伯特多球训练机器人已经开始投入使用。海沙尔摄

分不清现实与理想的区别

会造成“泡沫”

上观新闻:世界人工智能大会的召开,引起了很多非专业人士对人工智能的兴趣。 你很想知道人工智能能走多远。 您如何看待当前人工智能的发展?

徐应进:现在大众对人工智能有很多期待,但据我观察,这种期待很大程度上是基于对学术界实际发展的一些误解。

我经常看到各种误解。 第一个误区是认为人工智能是近几年兴起的新事物。 事实上,人工智能(artificial intelligence)这个词在1956年的日本达特茅斯会议上即将成为公认的主题词,看来这已经是很久以前的事了。

至于今天谈得比较多的深度学习技术,它的前身就是人工神经网络(artificial neural network)。 这个概念在 1960 年代被学术界注意到。 人工智能的奠基人之一艾伦·图灵生前也对人工神经网络做了一些简单的研究。 这样一来,这项技术至少可以追溯到1940年代。

因此,严格来说,人工智能这一主流技术并不新鲜,它是在传统技术的反复迭代中发展起来的。

上观新闻:那么,到目前为止,人工智能技术的现状如何?

徐应进:关于当前人工智能的发展,目前存在三种说法:“乐观论”、“悲观论”和“泡沫论”。

其中,“乐观主义者”可能是主流。 思想开放的人认为,人工智能的发展将能够在短时间内解决我们面临的各种问题。

这些争论勾勒出一个乌托邦式的场景:当你回到家里,所有的设备仍然可以通过新的网络技术和物联网与你通信; 它会带你到目的地,无需做任何事情,一路上,你可以和你的车聊天,就好像它是你的人类司机一样。

悲观者更多是站在那些可能失业的人的立场上,认为人工智能太强大了,会取代很多人的工作。 到时候,如果社会暂时不能提供更多的新工作,我们怎么办?

我的观点是泡沫理论。 “泡沫”并不意味着人工智能的未来一片黯淡,而是在短期内,这项技术的发展已经无法支撑很多人的梦想。

理想很丰满,技术还很“骨感”。 如果你没有意识到理想与现实之间的差异,就会产生泡沫。 如果因为对人工智能持开放态度而去市场募资,则需要慎重考虑。

历史上确实有成功的案例,比如IBM360计算机项目。

它的成功徐英瑾 人工智能,使计算机从过去极其笨重、只有中级科研单位才能买得起的状态,逐渐成为可以在办公室使用的计算机,为个人PC的出现奠定了基础。 但也有很多失败案例。 如果人工智能的融资计划都把未来描述得很漂亮,画了一个很大的饼,最后可能会出问题。

我个人对人工智能未来发展的基本判断是——

徐英瑾 人工智能_徐英瑾 男_徐英瑾 复旦大学

人工智能对我们生活的改变不是全局性的、颠覆性的,而是局部的改善。 比如在在线教育、养老等领域,人工智能可以促进一些变化,带来一些商机。 但有些项目,比如人工驾驶,可能会存在一些泡沫,需要谨慎对待。

其实,我所提倡的“泡沫论”是基于一些基本概念的划分,比如“特殊用途人工智能”和“通用人工智能”。

徐英瑾 复旦大学_徐英瑾 人工智能_徐英瑾 男

青年学生在北京科技馆参观四足机器人新华社

使用传统方法解决问题的能力下降

很危险

上观新闻:如何区分“特殊人工智能”和“通用人工智能”?

徐应进:专用人工智能是指只能做一两件事的人工智能。 通用人工智能是指可以做一些事情的人工智能。

例如,李世石是国际象棋选手,AlphaGo 是国际象棋程序。 如果我们把李世石看成一个智能系统,他就是一个通用的智能系统。 因为他不仅会下棋,还会做很多其他的事情。 比如,他应该会泡面,会开车。 与AlphaGo下棋后,他还能接受媒体采访,谈谈自己的经历吗? 而且,AlphaGo肯定不会开车,更别说和李世石下棋后与人类和媒体交流了。 通过这样的比较,我们可以清楚地看到专用人工智能的局限性。

我们人类的特点是,我们可能在一件事上是专家,而在另一件事上会做,但做的不是很好。 而且,专用人工智能只能做专门的事情,基本很难同时做其他事情。 单从这一点来看,专用人工智能与综合通用人工智能的区别还是很大的。

我们今天看到的人工智能都是专用的,他们的生产思路都是基于专用人工智能的思路,比如人脸识别,语音识别。 目前,人工智能已经通过频域神经网络技术的进步获得了一项重要的能力,即可以通过人脸和声音两种方式识别人。 但是对于人工智能来说,基于神经网络的图像识别系统和语音识别系统是两个不同的东西。

上观新闻:现在很多人对人工智能的想象都是基于“通用人工智能”。

许映进:对。 这就成了一件比较麻烦的事情。

很多人喜欢看韩剧,发现里面出现的一些机器人已经很厉害了。 一些机器人除了具有人的特征外,还开始反抗人类。 有的人看了这样一个故事就会开始联想:如果我们和这样的机器人一起生活,我们会被吓到到什么程度呢?

自然而然,很多人对人工智能的思考都是基于这种悬疑影视作品。 悬疑影视作品受众面广,不需要太多的科学素养就可以看懂,具有很高的人气和影响力。

我有一个观点:软悬疑看多了,硬悬疑看多了。 硬悬疑更接近明天的科学,对科学知识的应用更严谨。 相比软悬疑,硬悬疑更适合科普,也能提高普通人思考和把握现实世界的能力。

今天的人工智能以大数据为基础,缺乏应对小概率事件和随机风暴的机制。 当它面对这个充满变化的世界(比如新的病毒、规模不明的洪水等)时,它不知道该如何应对。

所以,我担心的问题不是人工智能有了人类意识之后会和人类对抗,而是人类过于依赖人工智能之后,大脑会变得更简单。

不要以为有了现代先进的工具就可以抛弃传统。 例如。 假设今天有两支军队相持,双方都有能力使用最新的网络信息技术,但只要一方攻破了对方的网络防线,对方的信息基础设施就会陷落。 那时,我们只能求助于最原始的方式(如赛鸽、鸡毛信等)来传达信息。

人工智能充满合理的想象力并没有错,但如果我们把人工智能的能力想象得太强大,同时又忙于保持用传统方法和传统智慧解决问题的能力,这可能会让人类陷入某种尴尬。 困境。

徐英瑾 人工智能_徐英瑾 复旦大学_徐英瑾 男

7月3日,北京临港智能网联汽车综合试验示范区,商汤科技无人车行驶在路上,驾驶员无需握方向盘。李茂军 摄

为什么还没有开发

通用人工智能

上观新闻:目前的“深度学习”技术是否有望在短期内达到通用人工智能的水平?

徐应进:人们过去常常想象有一种机器,不需要任何外部能量输入,或者只需要一个初始能量,就可以一直手动移动。 从哲学家的角度来看,这个想法是经不起严格推敲的,不能从根本上成立。 在我看来,通用人工智能还只能停留在构想阶段。

通用人工智能系统具有通用性的特点。 既然是通用的,那肯定是处理全局问题。 哪些是全球性的? 它是在不同理论体系之间进行权衡的能力。 不同的诉求之间往往会发生冲突,而人类有能力在各种冲突之间找到出路,找到能够平衡各种矛盾的中间点。

举一个你比较容易理解的反例。 一名家庭佣工去雇主家工作。 如果雇主是知识分子,家里的书很多,他可能会要求管家尽可能打扫客厅,但不能打扫得找不到书。

家里藏书多的人都知道,书籍的可取性和整齐度往往是矛盾的。 如果把书放好,家里会更干净整洁,但如果同时看几本书,堆起来后要找和拿起来就很费时间了。 这时候,是追求干净还是方便进出? 这里有一个平衡。 达到这个平衡点需要家佣和雇主之间的长期调整,但很难通过程序来设定。

任何综合系统都必须具备处理各种复杂甚至突发情况的能力。 其中一些情况甚至是极端和零星的。 例如,一辆手动驾驶的车辆正在路上行驶。 有一个路人走在路的一侧,有五个路人走在路的两边。 如果车速太快来不及刹车,应该往哪个方向转? 假设这个程序突然得到消息,右边的路人是我国非常重要的专家,它应该如何选择呢?

很多人一开始认为专家更重要,但转念一想,每个人的生命都是平等的。 当遇到这样的问题时,人类会做出痛苦的选择,并做出反复的选择。

如果是机器,问题就麻烦了。 我们都知道,人工智能是根据一系列规则设定的,规则的背后是各种逻辑原理。 一旦情况太过特殊或复杂,机器内部根据不同的逻辑规则设置的程序也会打人。

我再举一个反例。 假设有个外国姑娘来少林寺学散打,但语言不通,怎么办? 有一种方法,就是主人做动作,姑娘跟着; 做对了,师父笑,做错了,师父笑。 通过这些方法,女孩喝醉后,就知道自己做错了。 但究竟是哪里出了问题,如果师傅没有表达清楚,没有解释清楚,他就只能猜测,不断试错。 这就是语言派上用场的地方。 如果对方只能听懂对方的语言,师父可以教给他包括跆拳道规则在内的一整套内容,帮助他理解,然后中学生自己将其转化为行动。 深度学习是基于神经元网络的运作而形成的。 神经网络的操作类似于上面提到的笨教学法。

徐英瑾 人工智能_徐英瑾 男_徐英瑾 复旦大学

人在犯错后的反思是基于理性和规则的。 但系统不是。 遇到障碍物后,它的应对方式是调整各种参数。 经过反复试验,发现不对,重新猜测。 它通过大量的猜测逐渐将事情引向正确的方向。 它的优势在于可以完成人类短时间内无法完成的海量猜想。 基于深度学习的神经网络技术就是利用强大的机器质量估计来掩盖方法本身的“愚蠢”。 但问题是对于深度学习来说,如果有现成的数据,会特别好办。 如果没有高质量的数据,自己去收集数据是非常有问题的。

徐英瑾 复旦大学_徐英瑾 人工智能_徐英瑾 男

2020世界人工智能大会云会议期间,世博中心一层设置了智能机器人展示区。 图为智能积木编程机器人。摄影:haishal

上观新闻:通用人工智能如果要解决全球性问题,需要收集的数据就更复杂了。

徐应进:对。 因此,当前深度学习机制的根本问题是缺乏跨领域学习能力。 这就是人工智能难以泛化和全球化的根本原因。

在我们的日常生活中,不同的系统以不同的方式工作。 国际围棋有围棋之道,国际象棋有下棋之道。 人类可以适应变化,但人工智能很难适应这一点。

上观新闻:很多人会问,各种特殊的人工智能能不能融合成一套通用人工智能?

徐应进:还有一个问题——协调。 这和企业里的运筹帷幄一样,需要各个团队、各个部门的通力合作,需要一个综合能力强的人来领导,而人工智能不具备统筹调度和配置的能力。

为了研究人工智能与人类智能的差距,有专家提出了所谓的“Cartel-Horn-Carroll”三层智能模型。 他们将一般智力分解为许多部分,例如流体智力、结晶智力、定量推理、读写能力、短期记忆、长期记忆、视觉处理和触觉处理。

定量推理无非就是算术,素养就是能不能看懂课文,看懂要点。 结晶智力就像老师今天给你出一道题,把解法告诉你之后,看你能不能把问题的思路转移到新的问题上。 流体智力要求更高。 在很大程度上,它指的是一种灵活运用各种智力能力的状态。

至少目前,人工智能并没有按照人类智力的发展方向发展。 从长远来看,它的“拟人化”问题很大,离真正的通用人工智能还有很大差距。

标签:
最新文章