首页 > 技术 > AI/人工智能

人工智能能否出现颠覆性技术丨人工智能产生的三个基本条件

人阅读 2023-10-23 09:32:12

【人工智能能否出现颠覆性技术丨人工智能产生的三个基本条件】lot物联网小编为你整理了的相关内容,希望能为你解答。

学分:东北大学的Andy Gagne

自从20世纪最早的人工智能理论将世界置于一条显然不可逆转的技术轨道上以来,人工智能的巨大承诺——被用来证明这一进步的合理性——是它可以帮助迎来社会转型并导致人类的改善。

随着所谓的生成式人工智能的到来,比如OpenAI无休止的有趣和问题缠身的ChatGPT,长达数十年的人工智能进步缓慢,感觉更像是一次巨大的飞跃。这种敏锐的飞跃让一些专家担心,过快地走向一个世界的后果,他们说机器智能可能成为像《终结者》那样的全能、毁灭人类的力量。

但包括体验人工智能研究所执行主任乌萨马·法耶兹(Usama Fayyad)在内的东北专家坚持认为,这些担忧并不能反映现实。事实上,人工智能正在以促进和需要人类参与的方式进行整合——专家们创造了“人机环”。

25月<>日星期二,东北大学将举办人工智能专家研讨会,讨论与人工智能发展步伐相关的一系列主题,以及进步如何重塑工作场所、教育、医疗保健和许多其他领域。东北环球新闻与法耶兹坐下来了解更多关于下周会议的内容;生成式人工智能的优势;以及该领域更广泛的发展。为了简洁明了,对话已经过编辑。

首先,有很多关于生成人工智能的讨论。它是什么,它与其他形式的人工智能有何不同?

生成式 AI 是指可以简单地生成输出的 AI。这些输出可以是文本的形式,就像我们在所谓的大型语言模型中看到的那样,例如 ChatGPT(大型语言模型之上的聊天机器人)或图像等。如果你在文本上训练[AI],文本就是你将从中得到的东西。如果你在图像上训练它,你会从中获得图像或图像的修改。如果你在声音或音乐上训练它,你会从中得到音乐。如果你用编程代码训练它,你就会得到程序,等等。

它也被称为生成AI,因为算法能够自行生成示例。这是他们训练的一部分。研究人员会做一些事情,比如让算法通过生成对抗网络来挑战自己,或者生成对抗性示例的算法,这些示例可能会混淆系统以帮助加强其训练。但自从它们的发展以来,研究人员很快意识到他们需要人为干预。因此,包括ChaptGPT在内的大多数系统实际上都在使用并需要人工干预。作为训练的一部分,人类通过一种称为强化学习的机器学习技术来促进许多这些挑战,这是一种旨在从根本上提高系统性能的机器学习技术。

ChatGPT最近收到了很多媒体,特别是在社交媒体上,用户一直在发布他们与AI的个人互动。这项新技术有哪些实际应用?

我们看到它应用于教育,特别是在高等教育中。高等教育已经注意到——包括东北大学,在很大程度上——这些技术挑战了我们进行标准化考试的方式。教育工作者已经意识到这只是另一种工具。在东北大学,我们有很多例子,我们将在即将到来的在课堂上使用它的人的研讨会中介绍。无论是在艺术、媒体和设计学院,比如 [萨尔瓦多] 达利和 LensaAI 的图像;或者无论是写作课、英语课还是工程课。

就像我们从计算尺过渡到计算器,过渡到计算机,然后是手机上的整个网络一样——这是另一种工具,训练我们的学生为新世界做好准备的正确方法是找出利用这项技术作为工具的方法。

现在大规模地看到现实世界的应用还为时过早。这项技术太新了。但据估计,在50%-80%的任何地方——我更属于80%的阵营——知识工作者完成的任务可以通过这项技术加速。不是自动化的,而是加速的。如果您是律师并起草协议,您可以非常快速地定制初稿;但是,您必须进入并编辑或进行更改。如果你是一个程序员,你可以制作一个初始程序。但它通常不会很好地工作;它会有错误;它不是针对目标自定义的。同样,一个人,只要他们了解自己在做什么,就可以进入并修改它,并节省50%-80%的精力。

您能说说更多关于加速与自动化的含义吗?

这是加速,而不是自动化,因为我们知道这项技术可能会以可怕的方式产生幻觉。它可以编造东西;它可以尝试捍卫你要求它捍卫的观点;你可以让它撒谎,你可以对它撒谎,让它相信你。

他们称这种特殊的技术为随机鹦鹉,意思是具有随机变化的鹦鹉。我喜欢鹦鹉这个词,因为它正确地描述了他们不明白自己在说什么的事实。所以他们说一些东西,这些东西可能听起来雄辩,或者流畅。这是我们试图提出的重要观点之一:不知何故,我们在社会上学会了将智力与口才和流动性联系起来——基本上是一个说得好听的人。但实际上,这些算法远非智能;他们基本上是在做自动完成;他们重复他们以前见过的事情,而且经常被错误地重复。

我为什么要说这些?因为这意味着你在做这项工作时需要一个人在回路中,因为你需要检查所有这些工作。你删除了很多重复的单调工作——这很好。您可以加速它 - 这是高效的。您现在可以花时间增加价值,而不是重复无聊的任务。所有这些都我认为是积极的。

我喜欢用会计作为很好的类比。60-70年前的会计是什么样子的?好吧,你必须处理这些大账本;你必须有漂亮的笔迹;你的头脑中必须有良好的加法技能;您必须手动验证数字并检查总和并应用比率。你猜怎么着?这些任务——没有,零——在今天都无关紧要。现在,我们是否取代了会计师,因为我们现在已经用更快、更好、更便宜、可重复的东西取代了他们过去所做的一切?不。实际上,我们今天的会计师比人类历史上还要多。

即将举行的研讨会将涵盖哪些与人工智能相关的主题?

我们在这次研讨会上所做的是,我们试图涵盖三个重要的领域。ChatGPT和生成式AI在课堂上有什么影响,我们应该如何使用它?我们邀请了在东北大学从事这项工作的人,在一个小组中提供示例。

其次,由于这些技术,工作性质如何变化?这将在另一个小组中讨论,我们将考虑不同的业务应用程序。我们将使用法律和医疗保健作为这里的两个运行示例。

第三个面板是关于负责任的使用。如何寻找道德陷阱,以及如何正确使用这项技术?我们首先让我们的一位教职员工概述这项技术是什么,以帮助揭开底盒的神秘面纱,如果你愿意的话。

基本上,这个想法是为了表明我们(东北大学)不仅了解正在发生的技术发展,而且我们拥有世界上一些顶级专家。截至上学期,我们已经在课堂上使用这些东西。此外,我们希望传达的是,我们在这里并准备与公司和组织合作,学习最好地利用这项技术的方法,并正确和负责任地这样做。

现在有大量证据表明 ChatGPT 有一个人机交互组件。有时人类会回答问题,尤其是当算法遇到麻烦时。他们审查答案并进行干预。顺便说一句,即使是谷歌搜索引擎,这也是普通的东西。许多人不知道,当他们使用谷歌搜索引擎时,MLR或机器学习相关性算法决定了哪个页面与哪个查询相关,每天主要根据人工编辑输入进行三到四次重新训练。有很多东西是算法无法捕捉的——随机鹦鹉永远无法理解。

最近,人们非常担心人工智能的发展如何超过我们的安全控制和协议所带来的威胁。您如何看待这些担忧?

这些担忧集中在错误的事情上。让我说几件事。我们确实在2015年或2016年左右经历了一些阶段转变,这些技术。以手写识别为例。多年来,它有跳跃,但花了大约 15 年的时间才到达那里,在此过程中进行了许多修改。语音识别:同样的事情。花了很长时间,然后开始加速;但这仍然需要一些时间。

有了这些大型语言模型,如阅读理解和语言编译,我们看到了这些大型语言模型的开发发生了重大飞跃,这些模型在这些大型文学或文本上进行了训练。顺便说一句,没有经常谈论的是 OpenAI 不得不花很多钱来策划该文本;确保它是平衡的。如果您在两个具有相同内容的文档上训练一个大型语言模型,则算法如何知道哪个是正确的?其实不然。要么人类必须告诉它,要么它基本上默认说,“我经常看到的一定是对的。这为错误信息创造了肥沃的土壤。

现在,回答你关于这个拟议的暂停的问题。在我看来,它的动机有点愚蠢。许多支持者来自一个阵营,他们认为我们面临着人工“通用”智能的风险——这远非事实。我们甚至离接近这一点还很远。同样,这些算法不知道它们在做什么。现在,我们正处于滥用它的危险区域。比利时最近有一个例子,有人在与聊天机器人交谈六个月后自杀,最终鼓励他这样做。

因此,我们需要应对很多危险。我们知道存在问题。但是,停止不会有任何区别。事实上,如果人们同意停止,只有好演员才会停止;坏人继续。我们需要开始做的是,再次强调一个事实,即流利,口才不是智力。这项技术有局限性;让我们揭开它们的神秘面纱。让我们好好利用它,这样我们才能意识到坏的用途是什么。这样我们就可以学习如何控制它们。

原文标题:Is 'generative' AI the way of the future? Expert explains new models, the need for human involvement

原文链接:https://techxplore.com/news/2023-04-generative-ai-future-expert-human.html

作者:Tanner Stening

编译:LCR

以上内容为【人工智能能否出现颠覆性技术丨人工智能产生的三个基本条件】的相关内容,更多相关内容关注lot物联网。

LOT物联网

iot产品 iot技术 iot应用 iot工程

Powered By LOT物联网  闽ICP备2024036174号-1

联系邮箱:support1012@126.com