首页 > 技术 > AI/人工智能

人工智能具备真正的理解力吗?|《什么是洞见》|人工智能与认知科学

人阅读 2023-08-06 03:39:59

【人工智能具备真正的理解力吗?|《什么是洞见》|人工智能与认知科学】lot物联网小编为你整理了的相关内容,希望能为你解答。

ChatGPT的问世引发了各界热烈的讨论,这套基于人工智能技术的对话系统,可以在对话中生成类似人类的文本响应,与人类用户进行自然的对话交互。

那么,是否可以说,像ChatGPT这样的人工智能对于人类语言能够达成真正的理解?如是,它的“理解力”与人类的“理解力”又有什么不同?

在《什么是洞见:哲学与认知科学明德讲坛对话实录》一书中,来自不同领域的专家就这个问题展开过讨论。

理解

主持人:

朱锐(中国人民大学哲学院杰出学者、特聘教授)

嘉宾:

陈楸帆(科幻作家,中国科普作家协会副理事长)

高山(山西大学科学技术哲学研究中心教授)

胡郁(科大讯飞联合创始人,科技部“863类人智能重点项目”首席专家,中国科学技术大学兼职教授、博士生导师)

刘畅(中国人民大学哲学院副教授,中国现代外国哲学学会理事,维特根斯坦哲学专业委员会秘书长)

朱锐

大家晚上好!我是今天的主持人朱锐。欢迎大家来到哲学与认知科学明德讲坛第14期暨服务器艺术人工智能哲学论坛第2期。

今天我们探讨的内容是如何理解“理解”,如何去达成理解,理解的标准是什么、边界又在哪里。我们有幸邀请到来自科幻、量子物理、人工智能、自然语言处理和哲学等不同领域的专家来共同研讨这个话题。我想把今晚的讨论分三个部分,分别是障碍、模型和误解。

胡老师好,因为您是专门研究人工语言处理的,您认为机器理解人类语言主要的障碍在哪儿?对机器而言,理解语义与情境、人类情感,真正的挑战在哪里?

胡郁

我认为人类之所以跟动物不一样,是因为人类的智能和机器的智能不同。要把智能分解成几种不同类型⸺运算智能、感知智能、运动智能和认知智能。

运算智能是算加减乘除,机器特别擅长,人不是很擅长,因为人的大脑没有被训练完成这个工作。其中的原因也很简单,人类的祖先在非洲大草原上要竞争要活下来,算数字对他们来讲没有太大的作用。在人类文明高度发达以后才发现数学很重要,此时人类的大脑没有进化成特别适合数字计算的形态,所以人类发明了计算机。

计算机就是为了计算而产生的,计算机诞生伊始在运算能力上就远远超越了人类。人和动物都有的智能是感知智能和运动智能。这两个智能加在一起,就是人类的祖先和动物在非洲大草原上能够存活下来或者是能够吃到别人东西的原因。感知智能是眼观六路、耳听八方,能够感觉到周围的变化。运动智能是像动物一样快速地捕捉或者是逃跑。

以色列的历史学家尤瓦尔·赫拉利在《人类简史》里说,人类的祖先有很多不同支猿人,非洲有智人,欧洲有尼安德特人,中国有直立人,东南亚有梭罗人,后来发现虽然这些猿人都会用石器,都会用火,但最后是非洲智人打败所有其他猿人,成为人类祖先。《人类简史》写到非洲智人和其他猿人最大的区别是他们会使用语言。所以我认为人类最高的智能叫作认知智能。因为有了语言,人对世界的认知发生了变化。对于天上的月亮,动物只知道那是一个发光的东西,而人类知道那是个卫星,在反射太阳这颗恒星的光芒,这种情况下,语言成为人类不同于其他的动物,甚至不同于其他的猿人最早产生的一种能力。所以认知智能是非常重要的,我把它叫作“语言的理解”“知识的表达”“逻辑的推理”和“最终决策”。

说到机器人,它最擅长的是什么呢?最擅长的是运算智能。现在图像识别、语音识别技术已经快速发展,所以各种机器人在感知智能和运动智能上越来越发达,现在机器人跟人类的差距就体现在认知智能上。人脑是怎样运作起来的?到现在为止还没有搞清楚。人的大脑皮层哪些部分存储了哪些概念,概念之间进行怎么样的逻辑推理,推理以后怎么样做出决策?在研究人脑的过程中,现在还没有办法详细地从人脑结构去分析。陈老师也提到,人脑中间会不会存在量子效应?会不会是量子效应导致这么复杂的语言能力在人脑里面得到进化而产生出来的?

现在,我们所能够利用的其实是计算机⸺我不讲量子计算机,量子计算机是另外一个讨论的范畴⸺我们这里讲的计算机还是在哥德尔的不确定性定理下,图灵机逻辑基础上的冯·诺依曼结构的电子计算机所能做到的。这里有一个非常有意思的事情,我们发现,计算机实现的感知智能和运动智能,与人和动物实现的感知智能和运动智能结果看上去一样,但实现的过程是不一样的。比如说下围棋,计算机是靠大量的计算和存储,而人不是靠这个,像柯洁、李世石他们并不能算得那么快,存得那么多,他们是靠灵感,但是计算机是靠算得比较多,从而在最终结果上超越人类。

举两个例子,大家就能明白。

第一个例子,语音识别。我们在听一个人讲话的时候把它记录下来,请问记录下来的文字我们能不能理解呢?记录下来的人一定会理解这些文字。但是计算机在做语音识别的时候,虽然会把文字一模一样地写出来,但是它根本不理解这些文字里面的内容,因为它的算法决定了它不需要理解内容。

第二个例子,我们做了一个程序⸺帮老师改作文。一开始很多老师都不相信,计算机能看懂意思吗?凭什么打出来的分跟老师是一样的呢?事实证明,计算机通过统计文章中关键词的范围⸺是不是有比喻,是不是有排比,是不是引用了名人名言⸺学习老师对这些作文打分的规律,它就能够得出和人类一致性很高、方差很小的打分结果。

刚才提到我们很难理解量子世界,计算机世界实现的最终功能也是采用各自领域的不同方法,只是结果看起来和人的一样而已。在理解语言这件事情上也是一样。现在计算机理解语言其实不是计算机真理解语言,而是我们的研发人员想用某种形式,让计算机存储的东西表现得像理解了一样。我们的自然语言理解,除了算法上的东西之外,最近的一条道路是知识图谱或者是建立在知识图谱上的推理过程。

我们假设对语言的理解是建立在一个知识图谱的基础上的,其中有很多关键词,这些词之间有一个一个的关系。我们以人类可以理解而计算机又可以执行为前提,想出了一套基于知识图谱的存储知识、逻辑推理以及最后决策的一些方法,然后告诉计算机通过算法把这套方法实现出来。这其实还是人类理解语言的一种方式,这种方式与我们人脑是不是这样理解其实没有关系,这还是我们人类的一种解释,我们希望这种解释能够被现代的计算机成功地执行。所以说我认为其实我们直到现在也没有教会计算机真正理解这些东西。

这两个问题是相关的,值得我们长期地去研究和讨论。一个是人的大脑到底是如何理解语言的,另一个是我们用什么样的方法告诉计算机让它表现得看起来像理解了语言。这两个问题现在都是开放性的问题,都还没有答案,值得研究人员长期研究。

我个人的研究兴趣都跟人工智能有关,我的三个研究领域⸺人工智能、机器人、脑科学,我认为它们之间有非常紧密的联系。

陈楸帆

我回应一下胡老师刚才非常有启发的分享。去年我跟创新工场AI研究院一起合作,用GPT-2做人工智能写作的项目,我们先去预训练了一个模型,其中有几个亿参数,训练之后让它写科幻小说。我们发现它能够写出来的一些东西感觉是理解了语言的一些意思,包括在故事的情节、人物的关系上,似乎有一些接近于人类比较初级的一种水平。我们能否把GPT这种暴力美学式的语言理解模型视为某种程度上的理解呢?

语序与语义

以往的自然语言模型只能按照自然语序一个一个地处理词语。Transformer模型用词语间位置关系概率来单独处理语序问题,从而可以批量并行处理海量语言文字信息,大大节省算力。基于Transformer发展出的GPT系列也受到广泛关注。目前,Transformer在图像处理领域也胜过了其他传统模型。

胡郁

在这里我想讲一种“人择原理”,我们人类是一种智慧生物,会对一些现象做出一些解释。当我们观察到的现象与人类的智慧有相近的地方,我们就会偏向于将其解释为其具有一定的智能。但这也要看智能是怎么定义的,机器实现的目的是让它看起来像智能一样,而事实上,机器实现的过程跟我们想象的大脑里边实现的过程可能完全不一样。比如说你认为机器有情感或者有智能,其实是人类选择性解释的一种结果。从哲学角度讲,一种是从表现上来判断,还有一种是从过程上来判断。

朱锐

第一个模式是沟通的障碍。刘畅老师,您从哲学层面怎么理解“理解”?

刘畅

谢谢朱老师!我实在没有能力代表哲学来定义何为“理解”。不过,刚才三位老师都从各自领域的角度谈了很多很有见地的想法,所以接下来,我想我或许可以结合刚才诸位老师提到的几个点,来谈谈我对“理解”的理解。

首先,高山老师举了一个耐人寻味的例子⸺量子力学家费曼在一次讲座上说,他敢保证,没有人真正理解量子力学。说到“没有人”时,费曼显然是把他自己也包括了进去。不过,从另一种意义上显然又得说,当费曼说出这番话时,在场应该没有人比他更懂量子力学了。我作为一个十足的门外汉,也可以放心大胆地说:“我不懂、不理解量子力学。”但我的“不理解”与费曼的“不理解”,却显然不是一个意思。那么,我们应当如何确定“理解”与“不理解”的标准与边界呢?

我想引用奥斯汀的一句话(很多人可能也说过类似的话):我们生活的这个世界,如果发生的事情什么跟什么都一模一样,我们从来分辨不出事情之间有任何差异,那么可以保证,在这样的世界里,我们是什么也理解不了的。反过来也一样:假如事情什么跟什么都不一样,我们从来都不能在其中找到任何共同点、任何规律,那么在这样的世界里,我们也一样不会有任何的理解。对于这个假设,大家想必都会赞同。但我进一步想说的是,无论我们怎样不断地拓展我们的理解能力,从原则上讲,我们从来都是在用有限的理解模式去理解无穷的现象的。假如事情是反过来的,每发生一件事情,我们都要有一个对应的理解模式、一个对应的概念去理解它⸺于是有一千件事,我们就得拿一千个概念去理解,有一万件事,我们就得拿一万个概念去理解⸺那样的话,我们其实就不会有任何理解。

我特别赞同胡郁老师最后提到的人择原理。我也想强调,我们后天之所以能培养起对各式各样事物的理解能力,是因为我们从幼年起就树立了一些基本的理解模式。通过把新事物类比于旧事物,把新有的理解嫁接到既有的理解上,我们不断丰富、不断更新着我们的理解,从而,在这些有限范式构成的框架中,我们能够去理解更加丰富多样的现象。我想,这是我们理解拓展的一个基本模式。

所以,回到量子力学的例子,我们发现,我们面临的是理解拓展的两面性。一方面,如果我们的理解模式过于单一,显然就会限制我们理解的拓展。就像刚才高山老师讲的,假如我们的思维过分限定在经典物理学所给予我们的世界图像上,那么要我们去理解更多的现象就会变得非常困难。但问题也有另外一面:假如每出现一种有待解释的物理现象,我们就单独为它搭配上一种“理解模式”,每一种“理解模式”之间丝毫没有共通之处,那么再谈“理解的拓展”就没有意义了。

我们彼此能够相互理解,的确基于我们的许多共识,但我更想说的是,很多时候,我们相互理解,不等于我们最后达成的意见完全一致。我们每个人都有自己固有的经验、固有的感受、固有的生活、固有的知识,以这些作为基础,我们慢慢形成了我们理解事情的一套范式。我们的相互理解是这些范式之间的交流与交融,也就是阐释学所说的“视域融合”。所以,对话是要寻求相同的语言,但不是要用相同的语言说相同的话。我们通过对话达成的,首先是“相通”的理解,而不是“相同”的理解。

陈楸帆老师讲到费米悖论,讲到文明之间如何交流、如何理解,也是非常有趣的一个话题。我们应当把什么样的东西理解为“生命”,把什么样的生命形态理解为“文明”呢?我们的衡量标准是什么?我觉得,这不可避免地要比照我们对地球生命、对人类文明的既有理解。以此为前提,我们才可能进而尝试去设想、去理解其他与我们不同的生命或文明。一类东西的存在方式若是太过特殊,它们与我们若是太过不同,我们就得问问自己:我们还有没有权力把它叫作生命,或者把它存在的方式叫作文明?我们设想一种“外星文明”,就已经意味着,我们在设想那其中有很多我们可以理解的东西,至少是我们有理由把它理解作“文明”的东西。

让我最受启发的是胡郁老师提到的一系列观点。比如上面提到的人择原理,比如对语言的强调。胡老师还对智能做了四个分类,其中我非常认同的一点是把“认知”和“运算”区分为截然不同的两类智能。我也觉得,认知智能是不能被还原成为运算智能的。

最后,我还想补充一点:尽管任何理解上的拓展总不可避免地要以既有的理解作为起点,但应当把它与“人类中心主义”的观点严格区分开来。我同样反对人类中心主义。我们的理解需要有一个起点,但有起点,不等于在起点处原地踏步,不等于我们理解任何事情时,都要执着在人类的角度上,都要以人类的视角、人类的利益作为永远的起点和归宿。真正的理解是一场对话,而不是自说自话。

胡郁

特别好。我们还有两个模式要讨论,第二个模式是模型的问题,其中有三个问题。

问题一:理解自己跟理解别人或者是理解外在世界、理解对象之间有没有根本的区别?是靠同一种理解模型,还是完全根本不同的建模来理解自己?在哲学上总是说理解自己是最难的,这是怎么回事?大家可以从模型的角度说一下。

陈楸帆

我简单地说一下,这涉及一个主客体的问题,认知主客体其实跟认识主体的过程不一样,当你认识主体的时候,你的思维过程包含在里面。就像我们在会议室打开麦克风那样,会产生声音回输,这相当于自我认知过程中的一个递归结构。递归是计算机语言里面非常基本的一个结构,可以用它来解决很多的问题,它也存在于我们思维的模式中。

当你要去认知或者是理解自我的时候,必须借助递归结构,等于是你在认知正在认知自己的这个自己。这个话说得有点儿绕,但就是这样,是一个不断循环的过程,我们没有办法完全跳脱出这样一个反馈回环,来真正客观地认知或者是理解自己,这是我的一个理解。但对于客体来说,可以作为一个外部的客体、客观存在的事物、他者来做认知。作为自我,首先身体的图式,一种不管是先天或者在童年被培养出来的这种认知世界的模式,都会嵌合在你的理解过程里,我们没有办法把这部分脱离出去,这是我的一个看法。

朱锐

第二个问题涉及想象和理解的关系。很多人觉得科幻的想象是理解世界的一个重要的部分,人与人之间的理解也包括很多设身处地的道德和心理的想象。我们应该怎么样理解想象和理解之间的关系,理解想象对理解的意义以及重要性?在哪些方面,理解是不可能离开想象的?

胡郁

关于这个问题,我先来发个言。我特别喜欢凡尔纳著名的《海底两万里》,他很早就预测了潜艇、坦克等一系列那个时候还不存在的东西。

我们刚才提到了人理解火的问题,最早在使用火的时候,人其实对火的理解不够深入,只是知道这个东西能把动物给烧得更好吃,至于火这种化学现象原理,早期的人类是根本不知道的。但是当人类吃饱喝足以后,就开始分化出来宗教、哲学、艺术,还有科学。正是因为有了想象这个能力,我们才会说“大胆想象,小心求证”,任何事情我们可能是使用在前、理解在后,这个过程中就需要想象。

我们发现,从古到今,很多物理和化学的规则、规律,都是先从实用主义的角度先应用,再通过想象,再通过验证。像哥德巴赫猜想这些理论一开始都是想象出来的,包括爱因斯坦的狭义相对论和广义相对论,在当时的情况下,不管是数学上的猜想还是物理上的实验都没有办法对它们进行验证。但是,这些想象出来的东西很好地引导了我们朝这个地方去思考、去求索,最后使得我们的理解更加地深入。

陈楸帆

我非常同意胡老师的观点,很多时候我们把想象理解得有点儿狭隘,包括把它作为一种叙事性的想象或者是文学性的想象,但想象宽泛一点来说是一种推理能力。认知科学方面,现在有一种东西叫作预测性编码,就是我们大脑时时刻刻都在猜测外部世界发生了什么,将真实发生的事情跟你的猜想作一个拟合,于是不断地调整自己行为的一个决策。这样的一个东西可以被视为想象,它并不是完全从外部得到的这种信息和刺激来作为对世界认知的依据,而是有非常多猜测的部分在里边。

从这个角度看,人类如果没有了想象,人类就无法去发展自己的文明。现在我们会说想象力重要,是因为它决定了你能不能跳脱出当下此时此地的这种处境、境地,能够对更长期的未来做出一个预测、决策、判断,从而制定一些更长期的方针。这可能会引导人类从一个个体变成部落,建立国家,建立宗教,建立起现代科学,等等。这是非常重要的能力。赫拉利说过,讲故事是人类区别于动物的非常核心的一个能力。这个故事更可能是一种想象性的故事,是能够建立共识、共情的故事。

朱锐

第二个模型的最后一个问题,稍微哲学一点。计算机科学家朱迪亚·珀尔(JudeaPearl)认为,任何一件事情,如果不能教会机器,就算不上真正懂得。神经科学家现在都是从分子生物学的角度研究学习、记忆。还原主义是在科学之中非常流行的理解模式,把上面还原到下面,最终还原到量子物理。从科学的角度来说,还原主义是不是真正唯一的理解模式?

刘畅

我说一个我自己的体会,也可能不是那么相关:对待学生、对待小孩,我们衡量他们是在死记硬背还是真的理解了,一个重要的标准就是看他能不能换一个说法,把他要去理解的事情再说一遍。这就是我们平常所说的触类旁通、举一反三,这才是真正的理解。刚才朱锐老师所讲的⸺不能教会机器,我们自己就不理解⸺可能就是反过来把这个衡量标准应用到了我们自己身上。教人类的小孩学习一件事情与教一台机器学习同样的事情,我们使用的语言、采用的思维模式是完全不同的。对于我们自己是否当真理解了这件事情,这也是一项严峻的考验。

我们用另一门陌生的语言(机器能够“理解”的语言)来表达我们语言中的某个意思,不单单是要把我们的意思转译一下,而我们的既有理解本身原封不动;相反,经过转译之后,我们会发现这个过程也丰富、加深了我们既有的理解。就像歌德说的,多一门语言,你就多一个世界。如果从这个角度来理解朱锐老师刚才所说的,那么我会觉得理解拓展的模式更像一棵树⸺它的根脉从一个起点不断向四面八方贯通、伸展、加深⸺而这不太像是还原论的画面。实际上,把所有事物都还原到一个单一的模式上去理解,这不太像一个特别善于理解的人会采用的方式。毕竟,如果一个人不论遇上什么事情都要用一个模式去理解,我们就会觉得这个人就有些缺乏想象力,缺乏共情、设身处地的能力,我们可能会因此说,他不是一个富有理解力的人。

高山

我对这个话题也很感兴趣。只不过我在这个领域的研究经验非常少,但是我对人工智能领域或者是机器和人的未来有一个信念,人类现在具备的能力,最终是完全可以用机器来实现的,包括理解,包括情感,包括所有我们人类现在产生的我们可以有的东西,最终在机器中是完全可以实现的,但这不一定是所谓还原主义。因为人类本身的大脑,无论是神经元还是神经网络,最终也是原子、分子,最终也是一套系统,而为什么产生很多目前来讲机器很难实现、低级动物很难具有的东西,我认为是因为这之中有一个时间跨度的问题,要经过多少亿年的进化。

进化就是一个学习的过程,我们要给机器时间,目前要求用几年或者十几年就要实现一个什么东西,这相对于人类的时间非常短,现在有很多策略会加快这个过程,给我的感觉是,最终机器是完全可以做到和人类一样程度的。

当然,它最终也可以和人类之间相互理解。现在对于机器的定义也比较窄,机器被定义为由硅片或者实验室其他材料制造而成之物,不是碳水化合物,但是人类本身在某种意义上,从物理学家的角度来说也是一台机器,只不过是氢、氧、氮这些元素集合起来组成的,大脑神经元结构比较复杂,处理某些问题比较有效。这些问题虽然现在机器实现起来有困难,但是原理上没有任何阻碍,没有一个原理说机器不能实现人类能够实现的东西。不管人类如何理解这个世界,最终机器也可以做到这一点。

达特茅斯学院的贝克图书馆

1955年,约翰·麦卡锡等计算机科学家撰写了一份1956年暑期研究项目申请书,在达特茅斯会议上第一次明确提出“人工智能”一词。研究项目的目的在于尝试用计算机来模拟、探索人类智能的运作方式。此后,人工智能与认知科学两个学科并肩前行多年,至20世纪90年代渐行渐远,人工智能的研究目标也扩展到认知科学以外的很多其他领域。这份申请书及后续活动资料可见于http://raysolomonoff.com/dartmouth/dart.html,或搜索Dartmouth1956。

朱锐

现在进入第三个问题:误解。问题一:动物为什么掌握不了火?人尽管掌握了火,但是绝大部分时间内却错把火当成是金、木、水、土一样的东西,这种误解和掌握之间,人尽管是误解但同时又掌握了火。误解和掌握之间怎样理解?火是技术的原型。胡老师讲人是先使用,后来才理解,但我们现在处于技术社会,对技术很大的反对声音是人类误解了技术,误用了技术。胡老师所说的先使用后理解,是不是恰恰造就了现代技术社会的一个基本困境?

胡郁

我之前对这个问题也有思考,关于火或者是类似于火的物质。火是一种化学现象,它挺复杂的,不像金、木、水是物理上可以感知的东西。我认为这分为两个方面。

首先,有两种科学上的研究方式:一种是黑匣子,不需要理解里面是怎样的工作原理,只需知道输入输出是什么关系,知道什么样的输入进去,什么样的输出就会出来。其实神经网络就是这么一个东西,输入跟输出的状态跟人一样,我们不知道人脑是怎么回事,我们并不知道人脑的工作原理是什么,但是人类能够让一个小孩从6岁到17岁学会很多的技能,在这个过程中,我们一点都不知道脑子里面的神经系统是怎么工作的,但是很早就会使用脑子。而深度神经网络是一种方法规律,只有我搞清楚它的规律,才能够对它进行泛化和扩展,来辅助原来的输入输出。这就告诉我们,在使用一个东西的时候,有两种方法。一种方法只知道输入输出就可以,属于知其然;另一种方法是搞清楚内部原理,我们叫知其所以然。

其次,当我们知其然的时候⸺跟上一个话题有关系⸺我们想象其中的工作原理。这个时候想象可能是错误的,但是没有关系,我们在知其然的过程中想到知其所以然的过程,在想象中一定会有误解,但是想象的次数多了就找到了真正的关系⸺我认为它们之间的关系是这样的。

陈楸帆

补充一点,现在AI的可解释性被欧洲政策制定部门作为非常重要的方面来衡量这些大科技公司的成果。因为这个可能涉及你刚才所说的是不是造成了技术社会不可控、不可知,甚至会带来毁灭性后果的重要的原因。

(节选自《什么是洞见:哲学与认知科学明德讲坛对话实录(第一辑)》)

跨界交流、对话争鸣

探幽人类认知和心智的本质

什么是洞见

哲学与认知科学明德讲坛对话实录

(第一辑)

朱锐 主编

ISBN:9787100214049

定价:128.00元

商务印书馆 2022年10月

内容

简介

哲学与认知科学明德讲坛对话实录系列辑选具有挑战性、话题性的讲坛主题,汇聚国内外一流学者,以对话争鸣的方式打破学科专业壁垒,生动呈现哲学与认知科学这一跨学科交叉领域的前沿动态,旨在探幽人类认知和心智的本质,并在人文层面对认知科学的前沿发展加以反思。

《什么是洞见》为对话实录系列之第一辑,全书以六场圆桌对话为主体,主题分别为“哥德尔定理与认知科学的局限”“理解”“什么是洞见”“无知与偏见”“主体性建构”“记忆”;此外还附有三个主题报告,分别为“不可预测的心灵”“视觉和艺术中光的哲学原理”“艺术为什么看起来像艺术”。

作者

简介

主编朱锐,中国人民大学杰出学者、特聘教授,中国人民大学哲学与认知科学跨学科平台首席专家,美国得克萨斯州州立大学客座教授,曾任美国森林湖大学文理学院终身教授。研究领域包括神经哲学、心灵哲学、神经美学、柏拉图、比较哲学。早期专注于分析哲学和心灵哲学研究,后随学科发展转向人脑和神经科学研究,注重人脑的结构和功能、情感与理智的神经回路及关系、视觉神经学、神经美学、记忆与学习等。在国际一流学术刊物发表论文近三十篇。

图书

目录

哥德尔定理与认知科学的局限

理解

什么是洞见

无知与偏见

主体性建构

记忆

附录一:不可预测的心灵

附录二:视觉和艺术中光的哲学原理

附录三:艺术为什么看起来像艺术

图片版权许可说明

以上内容为【人工智能具备真正的理解力吗?|《什么是洞见》|人工智能与认知科学】的相关内容,更多相关内容关注lot物联网。

LOT物联网

iot产品 iot技术 iot应用 iot工程

Powered By LOT物联网  闽ICP备2024036174号-1

联系邮箱:support1012@126.com