复旦教授徐英瑾:人工智能研究为何需要哲学参与?(研究人工智能需要什么)

时间:2023-05-17 22:12:58来源:网络整理
导读而且玛格丽特除了是哲学专家以外,在计算机、生物学、心理学方面都有相应的学位。一、哲学能够为人工智能做些什么?根据我对教育部的分类了解,人工智能在中国是不存在的学

基于改进人工势场法的机器人路径规划算法研究_研究人工智能需要什么_研究人工智能的上市公司

作为一个专业,人工智能哲学在国外基本上还没有建立起来。 总的来说,美国的情况比我们好一点,算得上马马虎虎的一个哲学分支。 比如Marguerite Borden,是人工智能哲学研究中比较大牌的人物,女哲学家,法国人。 为什么她更擅长研究? 因为她与研究人工智能的重镇麻省理工学院和卡耐基梅隆大学的关系非常密切,与那里人工智能领域的巨头私下是同事。 但玛格丽特不仅是哲学方面的专家,而且还拥有计算机科学、生物学和心理学的相应学位。 我国在工程与科学的交叉方面确实做得不是很好。

1. 哲学能为人工智能做什么?

与哲学家相比,普通的自然科学家在自己的研究中往往只是预设相关问题的答案,而很少系统地反思这些答案的合法性。

打个反例,打个军事类比,哲学更像是战略思维。 如果您在陆军大学,研究陆军战术的各种士官会讨论陆军战术中涉及的具体几何形状。 而在战略层面,可能会忽略那些非常细微的问题,更多的会考虑陆军在军事编制中发挥的功能作用,从更高的层面来看待。 这可能会帮助你理解哲学应该做什么。

人工智能需要哲学吗?

我个人认为,如果说物理学家、物理学家、生物学家对哲学的敌视是有道理的,那么人工智能对哲学的敌视是最没有道理的。 就哲学文化的包容度而言,人工智能科学绝对是科学界的异类。 从某种意义上说,学科本身的诞生恰恰是“头脑风暴”式哲学思辨的产物。

人工智能有多不同? 以至于今天教育部的学科目录里竟然没有人工智能,这很讽刺。 好像后面还会出一级弟子,现在还没出。

让我们先看看艾伦·图灵。 艾伦·图灵(1912-1954)在美国哲学杂志《心灵》上发表了论文《计算机器与智能》(Turing1950)。 在文章中,他提出了著名的“图灵测试(Turing Test)”的思想。

基于改进人工势场法的机器人路径规划算法研究_研究人工智能的上市公司_研究人工智能需要什么

本文涉及对“什么是智能”这个大问题的追问,试图通过一种行为主义的心智理论,最终平息楚河汉在心理学研究和机器编程之间的界限。 提供了丰富的指控。 这一特点也使得这篇论文不仅成为人工智能科学的先驱,也成为哲学史上的经典之作。

1956 年有一场大风暴——达特茅斯会议。 今年秋天,一群志同道合的学者驱车前往日本达特茅斯学院开会,讨论如何借助刚刚问世的计算机实现人类智能。 洛克菲勒基金会为这次会议提供了7500英镑的捐款(这种美元与明天的原始订购力相比是无法比拟的)。

研究人工智能需要什么_基于改进人工势场法的机器人路径规划算法研究_研究人工智能的上市公司

各方聚集在 2006 年达特茅斯会议上,左起:摩尔、麦卡锡、明斯基、塞尔弗里奇、所罗门诺夫

在会议筹备期间,麦卡锡(John McCarthy,1927~)建议学术界用“人工智能”一词来标记这个新兴的学术领域,得到与会者的附议。

虽然没有专业的哲学家出席达特茅斯会议,但会议的哲学基调依然浓厚。 首先,与会者喜欢讨论大问题,即如何在人类智能层面实现机器智能(而不是如何使用特定算法来解决特定问题)。

其次,参与者喜欢讨论不同子主题之间的联系以寻求统一的解决方案(此类子主题包括:自然语言处理、人工神经网络、计算理论和机器创造力等)。

最后,不同的学术观点在这次会议上自由碰撞,显示出很高的学术信噪比(来自麦卡锡的会议计划[McCarthy et al. 1955]研究人工智能需要什么,没有证据表明这个松散的会议在任何连贯的、强制性的研究计划下) . 令人意外的是,这种“哲学特质”在日本未来的人工智能研究中也得到了保留。

为什么人工智能科学的帧率相对高于哲学? 这背后有何玄机?

这首先与人工智能科学本身研究对象的特殊性有关。

人工智能研究的目的是通过在人工机器上模拟人类的智能行为来实现机器智能。 事实上,要做到这一点,我们必须回答“什么是智能”这个问题。

如果你认为实现“智能”的本质是尽可能地模拟自然主体的生物硬件。 你去研究人脑的结构,并使用某种物理模型来重建一个简化的神经元网络(这就是联结主义者所做的)。 现在我们都知道有一个类脑研究项目。 这些研究有复杂版本和简单版本。 复杂版本就像蓝脑计划。 它尽可能真实地模拟了大脑运作的信息流。 比较简单的是简化的神经元网络。 路。

从骨科专业研究的角度来看,神经元网络不是神经的,它是从真实的神经活动中高度简化而来的,而且从非常宏观的角度来看,至少你说神经元网络也受大脑的启发和影响。 很多人认为这条路线是对的,我觉得可以取得一些成果,不要有太高的期望。

如果你认为智能的本质在于智能体与人类行为在行为层面的相似性。 然后你会用尽一切办法去装满你理想中的智能机的“心理相机”(无论是在里面预装一个庞大的知识库,还是连上互联网随时更新你的知识—— - 只要它有效)。

由此看来,正是因为自身研究对象的不确定性,AI研究者在哲学层面对“智能”的不同理解,才会对技术实现层面产生如此大的影响。 值得注意的是,学科内部的这些基本分歧在相对成熟的自然科学中是比较少见的。

其次,人工智能科学的研究方法本身缺乏剔除不同理论假设的决定性力量,这在很大程度上为哲学思辨的发展留下了空间。

二、哲学文化融入AI的几个具体案例

下面我们来谈谈一些案例,可以证明哲学思维对于人工智能是非常有用的。

休伯特·莱德勒·德雷福斯(Hubert Lederer Dreyfus,1929-),英国伯克利校区哲学院士,英国最优秀的现象学家之一,在海德格尔哲学、福柯哲学、梅洛-庞蒂哲学方面的研究具有深厚的基础。 令人惊讶的是,立足于欧洲人文主义哲学的德雷福斯写出了人工智能哲学领域最具争议的专着《计算机不能做什么? (Dreyfus1979)及其修订版(Dreyfus1992),并促使他在人工智能领域的社会影响力赶上了他的学术路线。 那么他为什么要转行去写一本关于人工智能的哲学书呢?

研究人工智能的上市公司_基于改进人工势场法的机器人路径规划算法研究_研究人工智能需要什么

休伯特·莱德勒·德雷福斯 (1929-)

HubertL.Dreyfus,在RoboCop中,某位反对机器人具有手动开火能力的哲学家与这位哲学家同名。 我觉得导演是故意的,因为他在日本很有名。 人工智能哲学专家。 他为什么要从事人工智能哲学?

研究人工智能的上市公司_基于改进人工势场法的机器人路径规划算法研究_研究人工智能需要什么

很有意思,据他和记者说,这与他在麻省理工学院任教时受到的一些刺激有关。 1962年,一些中学生明确地告诉他,哲学家对人性的思索现在已经过时了,因为明斯基等人工智能科学家听说,人类智能的方方面面都可以在不久的将来通过工程实现。

德史认为这已经接近天方夜谭,为了公平起见,他很快就去加拿大顶级私人智库“兰德公司”(Rand Corporation)进行了考察——因为恰好在那个时候,司马贺、纽厄尔而肖(Cliff Shaw)等顶级人工智能专家也在那里做研究。 经过一段时间的分析,德士最终确定他当时对 AI 规划的怀疑是有根据的,并在 1965 年抛出了他向主流 AI 世界抛出的第一块砖:《Alchemy and AI》(Dreyfus 1965).

Deshi 对主流的 AI 方法有很多批评。 其中一个比较有趣的是,真正的思考不能被明确陈述的程序耗尽。 比如打篮球,是不是要先听到球声,然后估计球门的角度,估计自己的球拍抛球的角度和速度,最后接球? 事实上,情况并非如此。 由于上述计算带来的计算负荷非常大,我们人脑可能“承受不起”。

事实上研究人工智能需要什么,技术娴熟的篮球运动员仅依靠某种前符号直觉来把握正确的投篮时机——而对于这些直觉本身,传统的编程解决方案往往无能为力。

不过,德士本人并不认为所有的人工智能手段都无法解决上述问题。 换句话说,一些更新颖的人工智能方法实际上可以为如何掌握这种前符号直觉提供解决方案。 他觉得这种做法必须更忠实地反映身体的结构,以及身体与环境的相互作用,而不是仅仅在符号的内部世界中打转。 他的观点后来被中信在人工智能专家布鲁克斯的理论建立中得到推广。

布鲁克斯在他的论文《大象不下棋》中用哲学家的语气评论道:时髦的人工智能是建立在物理接地假说之上的。 这个假设说明的是,为了构建一个足够智能的系统,我们绝对需要将其表示建立在化学世界中。 我们在这方面工作的经验告诉我们,一旦我们做出这些承诺,传统符号表示的要求很快就会黯然失色。

研究人工智能的上市公司_研究人工智能需要什么_基于改进人工势场法的机器人路径规划算法研究

人工智能专家 Rodney Brooks

这里的核心信息是世界是认知系统可以拥有的最佳模型。 世界仍然能够及时更新自己。 它总是包含一些需要理解的细节。 这里的诀窍是让系统以正确的方式感知世界,这通常就足够了。 为了完成体现这一假设的模型,我们必须通过一系列传感器和执行器将系统连接到世界。 可复制的字符输入或输出将不再引起我们的兴趣,因为它们在化学世界中没有基础。

根据布鲁克斯的说法,AlphaGo 击败李世石是不是很棒? 他的第一反应是什么? 因为他认为智力的重要性不在下棋,所以举了他的例子,小象不下棋。 你创造一头人造小象来模拟小象的所有生命活动,虽然小象的活动非常复杂。 或者鲸鱼不会下棋,你造一条人造鲸鱼,会下棋是什么能力? 什么泰安麻将他都不管。 他更关心的是如何在智能系统与外部世界之间建立一种嵌入式认知,让外部世界本身直接成为这样一个认知对象,而不是在它们之间创造一个中间符号。

这些观点在很大程度上具有哲学上的创新性。 布鲁克斯自己的研究越来越注重对机器动物等低级植物行走能力的模拟,对中等智能更加畏惧。 这也是基于一个非常基本的观察。 人工智能研究的特点是,小儿子做的越容易,今天的人工智能做起来越难。 例如,在很大程度上很难感知和掌握。

为什么科学培训中缺少哲学培训?

首先,对于处于“学徒期”的科学初学者来说,学会遵守既定的研究范式是第一要务,而对这种范式的“哲学怀疑”会让他们入门难,而不是像哲学一样重蹈覆辙,这个范式之外还有其他的可能性,不同意见交流。

二是严格的一级、二级、三级学科划分,导致中学生忽视了如何熟悉特定领域的研究规范,从而完美地开阔视野,发挥自己的潜能。想象力天马行空。 按照我对教育部分类的理解,中国不存在人工智能,这很奇怪。

稍微了解人工智能这门学科的人都知道,十多年前搞人工智能的人都不敢说自己是搞人工智能的,怕被人抛砖引玉。 你以为是骗局,现在行情突然变了。 如果从具体的学科分类内部看学科,就不容易被其他学科的思维方法所滋养。

第三,你对权威科学模型的服从在很大程度上阻止了你接受异议。 人工智能学科最大的特点就是喜欢攻击对方的异端理论。 现在流行深度学习,但是深度学习的前身是神经元网络。 它最大的敌人是符号人工智能。 符号人工智能和神经网络之间存在差距。 曹操和刘备的关系,基本上就是曹操和刘备的关系,就是汉贼不和,双方的人脉、资金、学术观点几乎都有。 宫斗比《甄嬛传》还要激烈。

基于改进人工势场法的机器人路径规划算法研究_研究人工智能的上市公司_研究人工智能需要什么

从今天整体来看,神经网络的女儿是深度学习抢占了比较高的位置,在历史上长期被压制。 就我自己的观察,人工智能的不同争论,就是对资金流向的把控。

传统AI最典型的哲学问题就是框架问题:

常识告诉我们,如果手去抓积木,只会改变积木的位置,不会改变积木的颜色和大小,因为抓积木的动作与被抓物的颜色和规格。 但是人工智能系统如何知道这一点? 除非你在定义“抓取”动作的时候一定要说清楚,否则这个动作肯定不会引起什么。

但这些定义一定很繁琐,因为它会迫使你提前列出事物的任何方面,并在相应的“框架公理”中提前排除这一方面。 事实上,对于“手抓”命令的任何执行,那些公理也会被调用,这将导致系统在执行任何简单任务时消耗大量的认知资源。 然而,我们都希望系统能够用相对较少的资源来解决看似简单的任务。 这构成了巨大的冲突。

到底什么是语义相关性? 既然计算机只能在复合句运算层面根据符号的特性进行运算,那么它如何理解自然词之间的内涵语义关系呢? 是否有可能通过一种方式逻辑或另一种方式系统,以一种方便的形式描述语义相关性?

你可以事先用逻辑和公理来解释万物之间的相关和不相关,没办法写出一个可执行的程序。 你写这样一个程序,不管怎样,你的机械手举起任何一个方块,这个东西只会引起它的位移,而不会改变举起的方块的颜色。 你觉得长篇大论吗? 这还不是最可怕的,更可怕的是机器会不停地问你,它会导致这个或那个吗? 这很烦人,也很可怕,因为机器不理解我们可以立即掌握的相关性和无关性。

于是Daniel Dennett写了一篇论文说,如果你用这个原理造一个拆弹机器人,你把黄线或者红线剪断会发生什么,剪断线会造成什么? 他想了很久,以为炸弹爆炸了。 因为剪线弹是有时间限制的。 你想不到这东西是个有用的东西。

研究人工智能的上市公司_基于改进人工势场法的机器人路径规划算法研究_研究人工智能需要什么

三、从哲学的角度反思当下

自然语言处理和机器翻译

让我们看看比较新的话题,从哲学的角度反思一下当前的自然语言处理和机器翻译。 严格来说,自然语言处理是一个大概念,而机器翻译是一个小概念。 机器翻译属于自然语言处理,但有时又是分开的。

现在历史上有不同的机器翻译方式,有基于神经元网络的,基于统计的,基于符号的,基于中介语的,还有很多很多的方式。 而且深度学习牛逼之后,大家都会用深度学习来做。 很大程度上,机器翻译的深度学习也会流行起来,也会结合一些大数据的方法。

“深度学习”技术主要作为一种“工程方法”进入我们的视野。 事实上,我们一直无法在科学层面上清楚地解释:为什么“深度学习”技术能够提升相关程序的应用性能——更不用说为这些“进步”的“可持续性”提供哲学辩护了。

与深度学习相比,传统神经元网络的特点是中间处理层数相对较少。 今天的深度学习依靠硬件的进步,可以把中间的处理层做成几十层甚至上百层。 以前是无法想象的。 做空之后,在很大程度上分析问题的层次会更多一些,因为层次越多,可以从不同的角度和层次分析问题。 因此,解决问题的方法在很大程度上会更加简单。 它确实代表了一项非凡的工程进步。

最大的问题是,这些进步是否可持续? 我本人对哲学领域持保留态度。 我觉得是可以做到的,而且我觉得这件事情能像霍金说的那样变成一个毁灭人类的超级人工智能是无稽之谈。 我们可以举一些例子来讨论讨论。

传统的人工神经元网络有输入层、中间层和输出层。 一个输出是通过数据处理得到的,它是通过反馈算法等东西完成的。 最重要的是调整估计单元之间的权重,通过这些权重的调整逐渐使其适应一类任务。 传统的神经网络最大的特点就是它可以执行一个比较单一的任务,也就是说,它在完成一个任务之后所做的事情,总是会在这个性能水平上去做。

研究人工智能需要什么_研究人工智能的上市公司_基于改进人工势场法的机器人路径规划算法研究

如果你让他把帧率大的图片中所有有刘德华脸的图片都标注出来,一开始他的标注水平比较差,至少他的标注比别的机器好。 关之琳的脸也被标记为刘德华,你的机器至少是走对了路,而且随着时间的推移,通过训练,你会逐渐会的。 之后,刘德华播放了一部新片,刚刚播出,但没有在训练样本上。 他被要求辨认是谁在上面,而且区别非常明显。

现在给它一个新的任务,它不是识别人脸,而是识别一个完全不同的东西。 应该修什么东西? 假设是武侠片,刘德华也参与其中,不认识刘德华,选择所有打螳螂拳或咏春拳的镜头。 我从来没有学过。 如果要这样做,则必须重新启动机器进行调整。

然而,人类可以做出推理。 举个例子,如果人类已经知道甄子丹经常演叶问,而叶问是咏春拳练习者,人类已经学会了识别甄子丹,如果我给你一个电影任务,什么样的画面是吗? 你在玩咏春拳吗? 不用看拳法,只看叶大师和甄子丹。

里面有三段论,很方便从一个知识领域转移到另一个知识领域。 如何识别甄子丹是一个领域,谁在练武术,谁在打叶问的咏春拳又是一门学问。 这中间有个桥段,就是叶问老师是甄子丹饰演的,甄子丹饰演的叶问老师就是这一拳打出来的。 如果你有这个桥梁,这两种知识就可以合而为一。

今天的问题是,对于符号 AI 来说容易的事情对于神经网络来说却很难。 现在很多人讲符号AI和神经元网络结合,这个结合点怎么找? 事实上,这非常困难。 深度学习只是它的一个升级版,而且是一个非常中等的升级版。 你觉得AlphaGo打败李世石是一件了不起的事情。 其实这是迟早要发生的事情,因为只能局限于棋网。 同一个深度学习系统同时做两件事,这被认为是很棒的。

日本生物统计学家 Jeff Leek 最近撰文强调,除非你拥有大量的训练数据,否则深度学习技术将成为“屠龙术”。 有人认为他的观点是错误的,我还是倾向于认为深度学习和神经网络需要大量的训练样本反复呈现某种模式,这样他才能掌握规律,整个系统才能逐渐调到一个相当不错的水平。 请问以上数据是不是在任何场合都可以得到呢? 其实没那么容易。

哲学家柏拉图如何评价现在的机器翻译?

柏拉图有个东西叫《美诺》,主要是用对话的形式写他的哲学专着。 《美诺》中有一个重要的段落,一个从未学过几何的年轻奴隶在哲学家苏格拉底的指导下学会了几何证明。 对面的人连声问,你真的没学过几何吗? 怎么证明这么好? 小奴才说,我还真没学过。 那边的人证明,这小子一个汉字都不会,连西班牙文的字母都背不出来。

由此产生的问题是:在“缺乏学习样本”的情况下,小奴这台“心智机器”是如何掌握几何证明相关技能的呢? 后来的语言学家乔姆斯基顺着柏拉图的思路提出了一个类似的问题:0-3岁的婴儿在语料库刺激相对较差的情况下,如何学习复杂的人类句型? 的? — 换句话说,按照柏拉图-乔姆斯基的说法,任何针对人类语言能力的建模方案,如果不能对“刺激的贫困”(the poverty of stimuli)具有容忍度,这样的相关建模结果就不能说是有理解人类语言的能力。

乔姆斯基的解释是,人天生就有造句的能力。 人们问乔姆斯基,这个东西是怎么来的? 他说,这是由进化中的基因突变引起的。 我最近在日本开会,见到了乔姆斯基。 他一方面承认这一定是进化的基因突变,另一方面又证实我们可以用实证的方法来严格研究语言的进化史。 哪一个,因为他觉得我们缺乏几十万年追溯语言基因突变的经验和能力。

我并不完全认同他的观点,而我认同他的一点是,他正确地提出了一个机器学习主流无法解决的问题。 小小年纪的学生如何掌握句型?

按照乔姆斯基或者柏拉图和苏格拉底的标准,我们能不能认为目前基于深度学习的机器翻译技术能够理解人类语言? 答案是否定的。

事实上,已经有专家强调,目前的深度学习机制所需的训练样本数量应该是“谷歌级别”——换句话说,小样本的输入往往会在参数复杂的系统中造成“过拟合”(overfitting) . )问题。 也就是说,一旦系统适应了初始小规模训练样本中的个体ad hoc特性,就很难灵活处理不同于训练数据的新数据。

总之,数字太假了,无法应对世界的真实复杂性!

比如有人说她很适合谈恋爱和异性相处。 她谈起自己的初恋,两人如胶似漆,只是她的情人是一个很可笑的女人,很家常,很邋遢,很奇怪,别的女人对他也有意见,这个男人和他一拍即合。 这是过度拟合。

作为她最好的朋友,你会害怕一件事。 和这个女人分手后,她还能适应一个正常的女人吗? 据统计,初恋成功的概率很低。 如果你第一次过拟合,之后你将如何玩这个游戏? 这很麻烦。 这就是恋爱中的过拟合问题。 你对每个人都很了解,无论你是谁,你都形影不离。

研究人工智能的上市公司_研究人工智能需要什么_基于改进人工势场法的机器人路径规划算法研究

另一个是不合适的,就是不给任何人打电话。 按照机器训练,不管你怎么训练,都训练不出来。 一个太容易训练的问题是,我现在可以很容易地用这组数据训练你。 之后,现实世界中的真实数据不同于实验室。 你能处理吗?

就语言而言,估计新数据和训练数据之间的差异会有一定的规范,因为可以根据现有的句型构造出无限多的新表达,这是所有自然语言学习者的潜力. 如果我愿意,我可以用你们听得懂的中文向你们描述各种令人震惊的情况。 这是语言的属性。 也就是说,现有的句型允许我们构造出无限多的新表达方式。

任何语言学习者都能利用已有的句型构造出更多新的表达方式,理解别人用自己的母语表达的任何可笑表达方式,也是一个合格的语言学习者。 胜者的能力,这个能力是多么的普通,对于机器来说又是多么的陌生。

换句话说,无论基于深度学习技术的机器翻译系统经过多少训练,都已经对现有数据进行了“拟合”,只要新输入数据与旧数据的表面差异足够大,就不会“过拟合”所有人的幽灵仍然困扰着附近。

因此,没有办法必然从过去推导出关于未来的知识,或者说我们不能真正了解未来。 这是休谟哲学的相应论点。 了解深度学习。 而且你会发现,经过很多年,休谟的哲学问题并没有得到解决。

研究人工智能的上市公司_基于改进人工势场法的机器人路径规划算法研究_研究人工智能需要什么

从我的哲学观点来看,人工智能的未来

要做的事情:

1、首先要强调的是,通用人工智能是大目标中的大目标。

很多人告诉我,通用人工智能是做不到的。 我的书强调,所有强调通用人工智能无法实现的论点都是无效的。 第二,如果你相信一些人的话,人工智能将对人类的生产和生活产生颠覆性的影响,而不是过去那种手工、零敲碎打的影响。 只有通用人工智能才能在未来的性影响中颠覆生活。 因为专用人工智能并不能真正取代人类的工作,只有通用人工智能才能做到。

比如管家,让机器人去做,你知道做家务多麻烦多难吗? 我一直认为做家务比做哲学更费脑。 我还是觉得一个合格的机器人做家务,比做哲学还慢。 十个人喊同一条短信,十个不同家庭的保洁情况就不一样了。

这个人家里有很多书,但他不想让你把它们整理得整整齐齐。 另一个人家里有很多书,他要你整理得整整齐齐。 这个小同学3岁了,喜欢看书。 这个地方有个13岁的学生,不太喜欢读书。 这种问题很复杂,人会被他搞垮的。 How can the machine figure it out?

2. Algorithmization of Cognitive Linguistics.

3. A universal reasoning engine based on meaning, instead of thinking of reasoning as a matter of form and logic, but thinking that it is related to meaning.

4. The combination of the frugal algorithm and the reasoning engine, our estimation should start from small data, to demonstrate frugality, and not rely on big data.

5. Combined with cognitive psychology research to add new elements such as artificial emotions.

最新文章