您好,欢迎光临中国U网,租用美国服务器香港服务器瑞典服务器等全球各地的服务器。
您现在的位置:首页 > 从LLMs到幻觉,这里有一个简单的通用人工智能术语指南

从LLMs到幻觉,这里有一个简单的通用人工智能术语指南

来源:网络 日期:2025-05-26 点击:0
我们认为将我们在文章中使用的一些最重要的单词和短语的定义放在一起是有帮助的。

人工智能是一个深刻而复杂的世界。在这个领域工作的科学家经常依靠行话和行话来解释他们正在研究的东西。因此,在我们对人工智能行业的报道中,我们经常不得不使用这些技术术语。这就是为什么我们认为将我们在文章中使用的一些最重要的单词和短语的定义放在一起是有帮助的。

随着研究人员不断发现新方法来推动人工智能的前沿,同时识别新出现的安全风险,我们将定期更新该词汇表,以添加新条目。

通用人工智能

人工智能,或AGI,是一个模糊的术语。但它通常指的是在许多(如果不是大多数)任务上比普通人更有能力的人工智能。OpenAI首席执行官萨姆·奥特曼最近将AGI描述为“相当于一个中等水平的人,你可以雇佣他为同事。”与此同时,OpenAI的章程将AGI定义为“高度自治的系统,在大多数有经济价值的工作中胜过人类。”Google DeepMind对这两个定义的理解略有不同;该实验室将AGI视为“在大多数认知任务上至少和人类一样有能力的人工智能”迷茫?不用担心——处于人工智能研究前沿的专家也是如此。

人工智能代理

人工智能代理指的是一种使用人工智能技术代表你执行一系列任务的工具——超出了更基本的人工智能聊天机器人所能做的——例如提交费用,预订门票或餐厅的桌子,甚至编写和维护代码。然而,正如我们之前解释的那样,在这个涌现的空间中有许多移动的部分,所以“人工智能代理”可能对不同的人有不同的含义。基础设施也仍在建设中,以实现其设想的能力。但基本概念意味着一个自治系统,可以利用多个人工智能系统来执行多步任务。

思维链

给定一个简单的问题,人脑甚至不用想太多就能回答——比如“长颈鹿和猫,哪个动物更高?”但很多情况下,你往往需要一支笔一张纸才能想出正确的答案,因为有中间步骤。例如,如果一个农民有鸡和牛,他们总共有40个头和120条腿,你可能需要写下一个简单的方程来得出答案(20只鸡和20头牛)。

在人工智能环境中,大型语言模型的思维链推理意味着将问题分解为更小的中间步骤,以提高最终结果的质量。得到答案通常需要更长的时间,但答案更有可能是正确的,尤其是在逻辑或编码上下文中。推理模型是从传统的大型语言模型发展而来的,并由于强化学习而针对思维链进行了优化。

(请参阅:大型语言模型)

Techcrunch活动

加入我们的TechCrunch会议:人工智能

请OpenAI、Anthropic和Cohere的发言人参加我们领先的人工智能行业活动。在有限的时间内,一整天的专家讲座、研讨会和强大的网络门票只要292美元。

TechCrunch会议上的展览:人工智能

确保您在TC Sessions: AI上的位置,并向1,200多名决策者展示您的成果,而无需大笔支出。从5月9日开始供应,或售完为止。

加州伯克利

|

6月5日

立即注册

深度学习

自我改进机器学习的子集,其中人工智能算法采用多层人工神经网络(ANN)结构设计。这使得他们能够与更简单的基于机器学习的系统(如线性模型或决策树)相比,进行更复杂的关联。深度学习算法的结构从人脑中神经元的互联路径中获得灵感。

深度学习人工智能模型能够识别数据本身的重要特征,而不是要求人类工程师定义这些特征。该结构还支持能够从错误中学习的算法,并且通过重复和调整的过程来改进它们自己的输出。然而,深度学习系统需要大量的数据点才能产生良好的结果(数百万或更多)。与更简单的机器学习算法相比,它们通常需要更长的训练时间,因此开发成本往往更高。

(参见:神经网络)

传播

扩散是许多艺术、音乐和文本生成人工智能模型的核心技术。受物理学的启发,扩散系统通过添加噪声来慢慢“破坏”数据的结构,例如照片、歌曲等,直到什么都没有了。在物理学中,扩散是自发的,不可逆的——扩散在咖啡中的糖无法恢复成立方体的形式。但是人工智能中的扩散系统旨在学习一种“反向扩散”过程来恢复被破坏的数据,获得从噪声中恢复数据的能力。

蒸馏

蒸馏是一种用于从具有“教师-学生”模型的大型人工智能模型中提取知识的技术。开发人员向教师模型发送请求并记录输出。答案有时会与数据集进行比较,以了解它们的准确性。这些输出然后被用于训练学生模型,该学生模型被训练成近似老师的行为。

蒸馏可用于在蒸馏损失最小的较大模型的基础上创建更小、更有效的模型。这可能是OpenAI开发GPT-4 Turbo的方式,它是GPT-4的更快版本。

虽然所有的AI公司都在内部使用蒸馏,但它可能也被一些AI公司用来追赶前沿模型。来自竞争对手的蒸馏通常违反AI API和聊天助手的服务条款。

微调

这是指对人工智能模型的进一步训练,以优化比以前训练重点更具体的任务或领域的性能——通常是通过输入新的专门(即面向任务的)数据。

许多人工智能初创公司正在将大型语言模型作为构建商业产品的起点,但它们正在努力通过基于自己特定领域的知识和专业技能进行微调来补充早期的培训周期,从而增强目标部门或任务的实用性。

(参见:大型语言模型[LLM])

开始

GAN,即生成对抗网络,是一种机器学习框架,它支撑着生成式人工智能在产生现实数据方面的一些重要发展,包括(但不限于)deepfake工具。GANs涉及一对神经网络的使用,其中一个利用其训练数据生成输出,该输出被传递给另一个模型进行评估。因此,第二个鉴别器模型在生成器的输出上扮演分类器的角色,使其能够随着时间的推移而改进。

GAN结构被设置为一种竞争(因此是“对抗性的”)——两种模型本质上被编程为试图超越彼此:生成器试图让其输出通过鉴别器,而鉴别器则努力发现人工生成的数据。这种结构化的比赛可以优化人工智能的输出,使其更加真实,而不需要额外的人工干预。尽管GANs最适用于较窄的应用程序(如制作逼真的照片或视频),而不是通用的人工智能。

幻想

幻觉是人工智能行业对人工智能模型编造东西的首选术语——字面意思是产生不正确的信息。显然,这对AI质量来说是一个巨大的问题。

幻觉产生的基因输出可能具有误导性,甚至可能导致现实生活中的风险——具有潜在的危险后果(想想一个返回有害医疗建议的健康查询)。这就是为什么大多数GenAI工具的小字现在警告用户验证人工智能生成的答案,即使这样的免责声明通常远不如工具按下按钮后分发的信息那么突出。

人工智能编造信息的问题被认为是由于训练数据中的差距而产生的。特别是对于一般用途的GenAI有时也称为基础模型—这看起来很难解决。根本没有足够的数据来训练人工智能模型全面解决我们可能提出的所有问题。TL;大卫:我们还没有发明上帝。

幻觉正在推动日益专业化和/或垂直的人工智能模型——即需要更窄专业知识的特定领域人工智能——作为减少知识差距和缩小虚假信息风险的一种方式。

推理

推理是运行人工智能模型的过程。它让一个模型变得宽松,以从以前看到的数据中做出预测或得出结论。明确一点,没有训练,推断是不可能发生的;模型必须先学习一组数据中的模式,然后才能从这些训练数据中有效地进行推断。

许多类型的硬件都可以进行推理,从智能手机处理器到强大的GPU,再到定制的人工智能加速器。但并不是所有人都能同样出色地运行模型。非常大的模型需要很长时间才能做出预测,比如说,笔记本电脑和装有高端人工智能芯片的云服务器。

[请参阅:培训]

大型语言模型(LLM)

大型语言模型(Large language models,简称LLM)是热门人工智能助手使用的人工智能模型,如ChatGPT、Claude、谷歌的Gemini、Meta的AI Llama、微软的Copilot或Mistral的Le Chat。当你与人工智能助手聊天时,你与一个大型语言模型进行交互,该模型直接处理你的请求,或者在不同可用工具的帮助下,如网页浏览或代码解释器。

AI助手和LLM可以有不同的名字。例如,GPT是OpenAI的大型语言模型,ChatGPT是AI助手产品。

LLM是由数十亿个数字参数(或权重,见下文)组成的深度神经网络,它学习单词和短语之间的关系,并创建语言的表示,一种单词的多维地图。

这些模型是通过对他们在数十亿本书、文章和抄本中发现的模式进行编码而创建的。当您提示LLM时,模型会生成最有可能符合提示的模式。然后,它会根据前面说过的内容,评估最后一个单词之后最有可能出现的下一个单词。重复,重复,再重复。

(参见:神经网络)

神经网络

神经网络指的是支撑深度学习的多层算法结构——更广泛地说,是大型语言模型出现后生成式人工智能工具的整个繁荣。

虽然从人类大脑紧密相连的路径中获取灵感作为数据处理算法的设计结构的想法可以追溯到20世纪40年代,但直到最近图形处理硬件(GPU)的兴起(通过视频游戏行业)才真正释放了这一理论的力量。事实证明,这些芯片非常适合训练比早期时代更多层的算法——使基于神经网络的人工智能系统在许多领域取得更好的性能,包括语音识别、自主导航和药物发现。

(参见:大型语言模型[LLM])

培养

开发机器学习人工智能包括一个被称为训练的过程。简而言之,这是指输入数据,以便模型可以从模式中学习并生成有用的输出。

在人工智能栈的这一点上,事情可能变得有点哲学化——因为,在训练前,用作开发学习系统的起点的数学结构只是一堆层和随机数。只有通过训练,人工智能模型才真正成型。从本质上说,这是系统对数据特征做出反应的过程,使其能够根据追求的目标调整输出——无论是识别猫的图像还是按需创作俳句。

需要注意的是,并不是所有的人工智能都需要训练。基于规则的人工智能被编程为遵循手动预定义的指令——例如,线性聊天机器人——不需要接受训练。然而,这种人工智能系统很可能比(训练有素的)自我学习系统更受限制。

尽管如此,培训可能会很昂贵,因为它需要大量的投入,而且通常情况下,这种模型所需的投入量一直呈上升趋势。

混合方法有时可用于简化模型开发并帮助管理成本。比如对基于规则的人工智能进行数据驱动的微调——这意味着开发需要的数据、计算、能源和算法复杂性比开发人员从头开始构建更少。

[参见:推论]

迁移学习

一种技术,其中先前训练的人工智能模型被用作为不同但通常相关的任务开发新模型的起点——允许在先前训练周期中获得的知识被重新应用。

迁移学习可以通过简化模型开发来提高效率。当为其开发模型的任务的数据有限时,它也是有用的。但是需要注意的是,这种方法有其局限性。依赖迁移学习来获得一般化能力的模型可能需要额外数据的训练,以便在其关注的领域表现良好

(请参阅:微调)

砝码

权重是人工智能训练的核心,因为它们决定了用于训练系统的数据中不同特征(或输入变量)的重要性(或权重),从而塑造人工智能模型的输出。

换句话说,权重是定义给定训练任务的数据集中最显著的数字参数。它们通过将乘法应用于输入来实现它们的功能。模型训练通常从随机分配的权重开始,但是随着过程的展开,权重随着模型寻求达到更接近匹配目标的输出而调整。

例如,根据目标位置的历史房地产数据训练的预测房价的人工智能模型可以包括卧室和浴室数量、房产是独立式还是半独立式、是否有停车场、车库等特征的权重。

最终,基于给定的数据集,模型赋予每个输入的权重反映了它们对属性值的影响程度。


关键词:人工智能,人工智能,常青树,词汇表
《从LLMs到幻觉,这里有一个简单的通用人工智能术语指南》 在不经过允许的情况下,禁止用于商业用途或随意转载!