为什么说人工智能是一个大谎言(末日人工智能视频)

时间:2022-11-14 13:13:49来源:网络整理
导读人工智能是一个很大的谎言。所以,真正强大的,每个人都应该为此感到兴奋并不是所谓的人工智能。所以,戴上你的质疑之帽,是时候来一场人工智能版的“揭秘之旅”了!事实是

末日人工智能视频_红米note智能人工语音_智能人工机器人

资料来源:predictiveanalyticsworld,大数据文摘(ID:BigDataDigest)

编译:李新宇、朱帅、季算、姜宝尚

人工智能是个大谎言。

或者说得客气一点,这是一个令人困惑的概念。说得更严重一点,就是用来欺骗大众的流行语,知名度非常高。

其实真正的内涵是“机器学习”。所以,真正强大、大家应该为之兴奋的,并不是所谓的人工智能。

另一方面,人工智能确实为一些有趣的笑话提供了很好的素材。所以,戴上你的提问帽,是时候来一次人工智能版的“秘密之旅”了!

智能人工机器人_红米note智能人工语音_末日人工智能视频

施瓦辛格的两个标志性角色:幼儿园警察和终结者。

在阅读本文之前,需要澄清三件事:

1. 与人工智能不同,机器学习非常有意义。不过令人兴奋的进展。然而,这些进步几乎完全来自有监督的机器学习,它只能解决带有大量标记或实例数据的计算机学习问题。这种形式将机器学习限制在非常有限的范围内。

2.人工智能什么都不是。AI只不过是一个品牌,一个强大但空洞的承诺。“智慧”的概念完全是主观的,是从人身上衍生出来的。

那些支持人工智能无限可能的人,包括比尔盖茨和埃隆马斯克,都有一个相同的假设:人工智能发展是一条单行道。他们说,技术的进步推动我们沿着这条单行道前进,直到计算机达到人类水平的智能。事实上,即便如此,这条单行道的重点还是“标注数据”。我们正在快速前进,但方向不同,唯一可以确定的是,只能在非常具体、有限的能力范围内取得进展。

3. AI不会杀了你。科幻电影中描述的机器人灾难,实际上是“鬼故事”。机器将按照自己的意愿升级并消除人类的想法没有任何价值。

胜利神经网络

在电影《终结者 2:审判日》中,机器人说:“我的 CPU 是神经网络处理器,可以学习的计算机。” 机器人所说的神经网络实际上是一种机器学习方法。更准确地说,是一种描述复杂数学公式的方法。

红米note智能人工语音_智能人工机器人_末日人工智能视频

神经网络真的可以做很多不可思议的事情,你可以将它们用于图像识别。通过机器学习,计算机基本上已经被编程为自己完成这项工作。就其本身而言,它已经能够确定要寻找的图案或视觉特征的细节。机器学习实现这些目标的能力太棒了!

神经网络的最新改进称为深度学习。大大提高了物体识别的准确率。深度学习通过添加更多的神经网络层来使学习更深入。

红米note智能人工语音_智能人工机器人_末日人工智能视频

红米note智能人工语音_末日人工智能视频_智能人工机器人

具有四层的简单神经网络的体系结构

机器学习需要标记数据

那么,随着机器在对人类友好的任务上做得更好,这是否意味着它们变得越来越聪明?

不要。它可以很好地完成某些任务,但前提是你有正确的数据可供学习。对于上面讨论的对象识别,这可以通过从大量标记的照片中学习来完成。因为,其中的目标已被正确标记。

深度学习需要这些标记数据。这称为监督机器学习:当有预先标记的训练数据时,学习过程由标记数据引导或“监督”。

它不断地调整神经网络,让它在这个数据上做得更好,然后一个一个地改进,这就是学习的过程。神经网络可以改进或“学习”的唯一方法是在那些标记的数据上对其进行测试。如果没有标记数据,神经网络将无法知道改进是否正确,也无法知道在此过程中要坚持哪些改进。

红米note智能人工语音_末日人工智能视频_智能人工机器人

危险的沃森

这是另一个例子。2011 年,IBM 的 Watson 在电视问答节目 Jeopardy 中击败了两届人类冠军。

准确地说,计算机并没有真正理解这些问题,而是将每个问题转换为文本输入。但是,鉴于《危险边缘》中的问题都是基于人类习惯的,使用复杂巧妙的措辞,涵盖了多种对话场景,沃森能够一口气回答一个又一个问题。不得不承认,它是一个非常好的“类智能”对象。

但是,需要明确的是,Watson 之所以如此聪明,是因为它预先从大量带标签的样本问题中学习:它的学习样本是从过去几年电视问答节目中收集的 25,000 个问题,每个问题都有正确答案。

事实上,核心技术是将每个问题转化为“是/否”的预测。对诸如“某某是这个问题的正确答案吗?”之类的问题回答“是”或“否”。

如果你能回答一个这样的问题,那么你就可以回答所有类似的问题,你所要做的就是不断尝试数千种选择,直到你有足够的信心把它做对。例如,“亚伯拉罕·林肯是美国第一任总统吗?” 不。“乔治华盛顿在哪里?” 是的!现在,机器对这个问题有自己的答案,并且能够回答它。

可以像人一样说话的计算机

同样,另一个需要大量标注数据的语言应用领域是“机器翻译”。机器学习是通过学习大量标记数据来实现的。例如,在英语到日语的翻译过程中,计算机会学习用英语标注的句子文本以及每个句子对应的日语翻译。

近年来,人人都能在线使用的谷歌翻译通过将原有的底层解决方案替换为深度学习驱动的架构,实现了翻译质量的进一步提升。

另一方面,掌握像英语这样的自然语言是人类的标志,但只是人类。流利的自然语言仍然是我们“硅谷兄弟”的难题。而我们人类在理解别人的话的时候,在所有的单词和一些逻辑语法规则的表象下,往往是有“常识和推理”的。没有这种独特的人类技能,你就无法使用语言。

因此,人类与计算机对话的希望和梦想将破灭。因为,不幸的是,没有“像人一样说话”这样的标记数据。您可以为有限的特定任务获取正确的数据,例如电视上的问答,或回答人们希望 Siri 回答的有限范围的问题。

然而,“像人一样说话”的一般概念是一个无法很好定义的问题,计算机只能解决可以精确定义的问题。

所以,我们不能使用机器学习来实现我们在许多科幻电影中看到的可以正常说话的计算机,比如终结者,或者星际迷航中友好的宇宙飞船计算机。您可以像对待普通人一样用英语与这些机器交谈。这很容易,你只需要成为科幻电影中的角色。

智能人工机器人_末日人工智能视频_红米note智能人工语音

来自电影《2001太空漫游》

智能是主观的,所以人工智能没有真正的定义

现在,如果你觉得你对人工智能的了解不够,那你就错了。真的没什么好理解的,因为它太不真实了,没有任何有意义的明确定义。作为一个领域,人工智能只是一个幻想。作为一个推定的领域,人工智能有许多相互矛盾的定义,其中大部分可以归结为“智能计算机”。我必须警告你,不要在字典里查“自我参照”,否则你会陷入死循环。

红米note智能人工语音_末日人工智能视频_智能人工机器人

“蝙蝠”电脑

如果某些定义完全可能的话,它们比“智能计算机”更令人费解。他们只是在 AI 的定义中直接使用“智能”一词,例如“机器展示的智能”。

如果你认为这些定义有更深层次的含义,你可能会感到惊讶,因为没有。无法解释“智能”这个词有多主观。对于计算机和工程行业,“智能”可以是与任何精确目标无关的任意概念。由于无法解决歧义,所有定义 AI 的尝试都失败了。

令人困惑的是,在今天的实践中,“智能”这个词被用作机器学习的同义词。但就人工智能本身的定义而言,提出的定义大多是以下三个定义的变体:

1、人工智能就是让计算机像人一样思考,模拟人类的认知。目前,我们对大脑如何工作知之甚少。而试图通过神经元复制大脑神经元,就像科幻小说中使用的“假设”这个词一样,是一个白日梦。内省(当你思考你的想法时)是一件有趣且重要的事情,但最终我们不知道我们脑子里在想什么。

2.人工智能就是让计算机像人一样行动,模拟人类行为。想象一下像鸭子一样走路,像鸭子一样说话......但是,它不会,也不能。我们是如此复杂,以至于我们无法完全理解自己,更不用说将这些理解转化为计算机代码了。另外,让人误以为聊天室里的电脑是一个正常人(即人工智能领域著名的图灵测试)在这个定义中成为过早的断言。因为机器是一个移动的目标末日人工智能视频,就像我们人类通过辨别我们用来欺骗我们的行为变得更聪明一样。

3. 人工智能是关于让计算机解决难题,让它们能够实际执行看似需要“智能”或“人类水平能力”的任务,例如驾驶汽车、识别面孔或下棋。但是现在计算机可以做这些事情,这些事情似乎并不那么聪明。计算机所能做的只是机械的、易于理解的、行为简单的工作。电脑一旦能做到这一点,就不再给人留下深刻印象,自然也就失去了魅力。计算机科学家拉里·特斯勒建议将“智能”定义为“机器还不能做的事情”。这听起来像是一个笑话,因为它使用一个不断变化的定义来定义本身不存在的东西。

相信人工智能不可避免的谬误

事实是,“人工智能”本身就是一个谎言。仅仅使用这个流行语就像在说技术进步正在朝着人们期望的方向发展。实现类人的“常识”是一个非常诱人的目标,但这不过是一个不切实际的承诺。

你是独一无二的,你有抽象思考和理解周围世界的能力,在每一刻的体验中你可能会觉得很简单,但实际上它比我们想象的要复杂得多。这种简单的体验可能是由于独特的人类大脑已经非常擅长这些感觉,也可能是由于人类固有的错觉,或者两者兼而有之。

红米note智能人工语音_末日人工智能视频_智能人工机器人

现在,有些人可能会回答:“如果没有灵感,有远见的抱负是好事吗?

想象力鼓舞着我们,未知的世界向我们招手!“2001 A Space Odyssey”的作者 Arthur Clarke 提出了一个很好的观点:“任何足够先进的技术都与魔法没有区别。”

然而,这并不意味着我们可以想象的科幻小说中可能包含的所有“魔法”最终都可以通过技术实现。仅仅因为它存在于电影中并不意味着它会发生。

末日人工智能视频_红米note智能人工语音_智能人工机器人

来自 HBO 西部世界的机器人。

人类的独特性和机器学习的真正进步已经令人惊叹和令人兴奋,让我们尽情享受吧。但我们不需要童话,尤其是误导性的。

索菲亚:人工智能最臭名昭著的欺诈宣传噱头

童话的主角是索菲亚饰演的《公主》的主角,汉森机器人和人工智能最臭名昭著的欺诈宣传噱头的产物。这个机器人用她人造的优雅和魅力来欺骗媒体。吉米法伦和其他采访者“接待”了她。当与它“交谈”时,它的反应是预设的对话,这些对话被误认为是自发的对话,在某些情况下,只是基本的聊天机器人级别的反应。

红米note智能人工语音_智能人工机器人_末日人工智能视频

三大时尚杂志之一以机器人索菲亚为封面。

信不信由你,三大时尚杂志的封面都出现了索菲亚,沙特政府正式授予她公民身份,使她成为第一个机器人公民。

索菲亚是一个现代机械土耳其人,这是一个 18 世纪的骗局,它欺骗了拿破仑和本杰明富兰克林等人,让他们相信他们只是在机器上输掉了一场国际象棋比赛。你可以看到桌子后面的人体模型在移动棋子,被骗的人不会注意到柜子里实际上藏着一个人类国际象棋专家。

末日人工智能视频_智能人工机器人_红米note智能人工语音

机械土耳其人

在现代,亚马逊有一项在线服务,可以雇佣员工执行许多需要人工判断的小任务,例如选择最好的几张照片。它被称为 Amazon Mechanical Turk,其口号是“人工智能”。它让我想起了这家很好的素食餐厅,菜单上有“模拟假鸭”,味道和模拟鸭完全一样。如果它说话像鸭子,它尝起来像鸭子……  

末日人工智能视频_智能人工机器人_红米note智能人工语音

这是一只鸭子。

是的,最好的假人工智能是人类。1965 年,当 NASA 为将人类送入太空的想法进行辩护时,他们是这样说的:“人类是成本最低、重达 150 磅、非线性、通用的计算机系统,可以由非熟练劳动力大量生产.

智能人工机器人_末日人工智能视频_红米note智能人工语音

NASA 将人类视为人工智能的良好替代品。事实上,我的大多数朋友都是人类。

危险超级智能的神话

对于索菲亚来说,集体抗议,事实上情况变得更糟:人们声称人工智能对人类构成了生存威胁。最可信的消息来源表明,最精英的科技名人相信一个由杀手机器人和杀手电脑组成的世界末日。除了比尔·盖茨、埃隆·马斯克,甚至已故伟大的史蒂芬·霍金都没有加入“超级智能奇点”的潮流。

他们相信机器将达到使机器能够自我改进的能力水平,甚至会迅速升级超越人类智能,并以计算机闪电般的速度实现这一目标。计算机本身的速度通过它们的超级智能继续增加,以至于目标的轻微错位可能会消灭人类。就像我们天真地命令它制造尽可能多的橡胶鸡一样,它可能会发明一个可以生产 40 万亿只橡胶鸡的全新高速产业,但代价是人类灭绝。

这个理论有两个问题。首先,它是如此惊人的戏剧性,以至于毁了这部电影。如果最好的反派总是机器人而不是人类,那么 Nurse Ratched(恐怖电影“比利小姐的决定”角色)和 Norman Bates(恐怖电影“惊吓序曲”角色)呢?我需要我的汉尼拔!顺便说一句,“最好的坏人”是矛盾的。“人工智能”也是如此。

红米note智能人工语音_智能人工机器人_末日人工智能视频

汉尼拔

但这是真的:机器人启示录肯定要来了。《变形金刚》导演迈克尔·贝尔根据同名小说说,如果《机器人启示录》没有来,那你就生错了平行宇宙。

AI 末日论的第二个问题是:AI 聪明到会一不小心杀死所有人?成为一个非常愚蠢的超级智能?这听起来很矛盾。

相反,真正的问题在于该理论假设技术进步使我们沿着人类“思考”的道路前进。但他们不像人类那样“思考”。以后我会继续探索这个。现在多说一点这个末日论的辐射范围。

对超级智能的广泛信仰

牛津大学应用伦理学教授尼克博斯特罗姆(Nick Bostrom)的《纽约时报》畅销书《超级智能》是奠定基础的首选书籍。如果这本书不为人类而开火,这本书就会扼杀恐惧并煽风点火。它探讨了我们如何“使 AI 爆炸成为可能”。《卫报》报道了一篇文章《人工智能:我们就像玩炸弹的孩子》,《新闻周刊》也报道了《人工智能来了,它可以击倒人类》,这两篇标题都乖乖地引用了博斯特罗姆本人的话。

比尔·盖茨对这本书给予了高度评价;马斯克曾经说过:人工智能比朝鲜更危险。霍金一直坚持自己的观点:人工智能是人类的末日……

无论如何,“智能”的这种错误定义是问题所在。在许多采访和演讲中,几乎所有信徒都错误地认为“聪明”或“智慧”或多或少被削弱了。他们相信机器在一些具有挑战性的任务中排名会越来越高,最终超越人类。

但是机器学习让我们走上了一条不同的道路。我们正在快速前进,我们可能会走很长的路,但我们正朝着不同的方向前进,一个与人类能力有关的方向。

人类非常聪明,考虑个人经历会导致我们陷入思维陷阱。就像一些表面上简单的事情实际上非常复杂。一些独特的人类能力隐藏在意识的面纱下。“常识”对我们来说很简单,但没有任何技术或方法可以复制它。

智能人工机器人_红米note智能人工语音_末日人工智能视频

抽象思维常常让人感觉很简单。我们在脑海中画出视觉效果,比如我们正在模拟的城市的非比例地图,或者是两个大公司竞相出售的“空间”,每个区域都在某些领域占主导地位,但在其他区域不占优势。或者,当考虑人工智能时,日益精通的能力——智能和计算能力——的错误视野都走上了同样的道路,只是更窄了一点。

我们不应该拟人化未来智能机器的样子。它不是人类,所以很难推测它的细节。由于有些人认为技术在包括并超越人类认知的领域中发展,他们所设想的本身就是拟人化的,它具有人性的品质。

现在,在你看来,你的常识推理似乎是任何一种智力发展的“自然阶段”,但这是一种以人为本的观点。常识很复杂,也很特殊。正式定义包括人类认知在内的“智能范围”,远远超出了任何人的控制范围。

机器走向不同的方向

机器学习实际上只适用于带有标签数据的任务,例如图像中的对象识别。使用标记数据,可以比较和排序各种尝试来解决这个问题。计算机使用这些数据来衡量它的表现。例如,神经网络可以正确识别图像中 90% 的卡车,然后可能有 95% 的改进。

但在特定任务上做得更好显然不会产生一般常识推理能力。机器不会达到人类的水平,它只会越来越擅长识别物体,仅此而已。

智能不是人类独立的柏拉图式理想,它一直在等待被发现。它不会随着越来越好的技术而自发发生。

人们常常很容易相信复杂性的增加会导致智力的增加。毕竟计算机很通用,基本上可以做任何任务,只要把智能定义为任务。我们让他们做越来越复杂的事情,只是因为我们让他们做事,而不是自发的。

到目前为止,机器学习的任何进展都没有提供任何关于什么可以让计算机实现“一般常识推理”的提示或提示。梦想赋予机器这种能力。但这只是我们的一厢情愿。

经过几十年的创新,现在和过去没有本质区别。

让“AI”这个词结束

机器基本上还在我们的控制之下。计算“错误”可能会导致死亡,就像人们在自动驾驶和医疗自动化中所做的那样,但不会造成灾难性的后果末日人工智能视频,除非有人故意对其进行编程以攻击人类。实际上,当出现问题时,我们可以将系统脱机并修复它。

是时候结束“AI”这个词了。事实上,流行词“AI”弊大于利。在某种程度上,它有时可能有助于宣传,但至少在同样程度上,它会误导公众。

最重要的是,不要监管“AI”!技术在某些领域非常需要监管,例如,解决算法决策和自主武器开发中的偏见。所以在这些讨论中,“清晰”是绝对关键的。使用“人工智能”这个不精确和误导性的术语会严重破坏任何规范技术举措的有效性和可信度。监管够严,水还没混。

注:本文由Data博士根据自己的视频《AI是个大谎言》整理而成。

视频链接:

注:Dr. Data,又名 Eric Siegel,打破了传统的数据科学信息娱乐模式,做了一个涵盖机器学习和预测分析的网页,非常有趣。

网页:

相关报道:

最新文章