什么是人工通用情报(AGI)?您需要知道的一切
已发表: 2025-03-25自从现代计算机发明以来,就如何定义人工通用智能(AGI)一直存在争论,如何测试机器以查看其是否符合该定义,以及AGI的好处和缺点将对人类的工作,创造力和科学发现是什么是什么。
本文解释了什么是AGI,探讨了其历史,主要挑战,以及它是否已经存在还是仍然是一个遥远的目标。
目录
了解人工智能(AI)
什么是人工通用情报(AGI)?
AGI的关键特征
AI将军的历史
Agi如何工作?
一般AI的潜在应用
道德考虑和挑战
AI将军的未来
什么是AGI常见问题解答
了解人工智能(AI)
要了解AGI,将其与其他形式的人工智能(AI)区分开很重要。 AI通常通过与人类相比的智能以及其性能的范围进行分类。
什么是人工智能?
AI是指使机器能够解决复杂问题,通常模仿或超越人类能力的技术。它可以为语言处理,语音和图像识别,数据分析和代码生成等任务提供动力。但是,AI的功能各不相同,可以分为三种主要类型:
- 狭窄的AI(弱AI):专门为特定任务设计的专门系统,例如垃圾邮件过滤,推荐算法和下棋程序。这些系统在其指定功能中表现出色,但不能超越它们。所有当前的AI都属于此类别。
- 人工通用智能(AGI):一种理论上的AI,可以学习,理性和解决与人类智能相似的广泛领域的问题。与狭窄的AI不同,AGI不需要对新挑战进行再培训。
- 人工超智能(ASI):一种假设的AI,超过了所有学科的人类智能,包括创造性的解决问题和战略思维。 ASI仍然是推测性的,但经常与AGI的长期演变有关。
尽管今天的AI令人印象深刻,但它仍然狭窄,仅在预定义的边界内才能出色。追求AGI是对真正的机器智能的追求,可以像人类一样思考,学习和适应。
什么是人工通用情报(AGI)?
没有普遍接受的AGI定义,也称为General AI。但是,许多定义表明,如果系统可以执行以下操作,则有资格为AGI:
- 在不需要人类干预的情况下适应学习
- 概括知识以解决陌生的问题
- 在各种任务中对人类的表现相当
除了这些广泛的属性之外,AGI的定义各不相同,通常反映了那些试图开发它的人的目标:
- 在其2007年的书中,人工通用情报,本·戈特策尔(Ben Goertzel)和卡西奥·彭纳辛(Cassio Pennachin)将AGI定义为具有“合理程度的自我理解和自主自我控制”的AI系统,并且可以在各种情况下解决各种复杂问题。
- Openai将AGI定义为“在大多数经济上有价值的工作中都超过人类的高度自主体系”。
- 前Google AI研究人员和ARC-AGI基准的创建者Francois Chollet将AGI定义为能够在其培训数据之外有效地获得新技能的系统。他强调,智力是技能的获取和概括,而不是技巧本身。
AGI的关键特征
尽管AGI的定义有所不同,但通常通过强调其在不同领域的功能来区分狭窄的AI。无论特定定义如何,AGI都需要拥有几个核心特征来实现这些能力:
自主决策
AGI必须能够确定何时寻求新信息,请求帮助或采取独立行动来解决问题。例如,如果任务是建模复杂的金融市场,则AGI将需要确定相关的数据源,分析历史趋势并确定如何获取必要的信息 - 所有这些都没有人类指导。
在不熟悉的领域解决问题
AGI必须能够从一个领域概括知识并将其应用于新的,陌生的任务。通过类比进行学习的能力类似于在一两个乐器上训练的音乐家如何快速学习三分之一。同样,AGI必须利用先验知识来解决它没有明确培训的问题。
持续的自我完善
AGI必须能够评估自己的表现并适应新情况。递归自我改善的一种方法是自我生成的训练数据,如Deepmind的Robocat所示。另一个潜在的功能是修改其自己的代码和体系结构。但是,如果AGI做出人类无法完全理解或控制的改变,这种自我修饰可能会引入安全风险。
AI将军的历史
在AI的广泛历史中,最好理解AGI的历史。研究通过几种不同的时代发展,每个时代都塑造了通往更有能力和一般AI系统的道路。
AI早期:符号AI(1950-1980S)
在1950年代和1960年代建立AI的第一次尝试是基于这样的想法:您可以教机器通过编程规则和逻辑(表示为符号)思考,并要求使用这些规则来解决问题。这产生了可以在棋盘游戏中击败人并执行专业任务的专家系统(IBM的国际象棋冠军Deep Blue是一个例子),但他们无法在编程知识之外学习任何东西。
转向机器学习(1990年代至2011年)
随着机器学习的兴起(ML),这一重大转变发生在1990年代,这从生物神经元如何在大脑中的功能中汲取了灵感。这些连接主义系统没有使用硬编码规则,而是使用神经网络使用许多人工神经元的神经网络,这些神经元通过在大型数据集上培训并在许多培训运行中逐步改善其输出。
深度学习革命(2010年代至今)
现代深度学习革命始于2012年,当时研究人员开始使用图形处理单元(GPU)来创建具有数万亿个参数的神经网络。这为计算能力提供了巨大的提升,这使这些机器学习模型(包括当代大型语言模型(LLM)等诸如Chatgpt)的能力是学习更多知识并将某些知识推广到类似任务的能力。
定义AGI:超越传统AI基准
随着AI系统变得越来越复杂,研究人员提出了新的基准测试,以评估AI系统是否达到人类智能。最著名的早期基准Turing测试旨在确定机器是否可以令人信服地模仿人类对话。但是,正如Chatgpt和Claude这样的LLM现在可以通过此测试,许多研究人员认为它已经过时了。
最新的基准测试(例如ARC-AGI测试)着重于AI系统超出其培训数据的能力。尽管当前的AI模型仍然没有类似人类的推理,但有些人(例如Openai的O3模型)取得了突破性的结果,重新激发了有关AGI可行性的辩论。
Agi如何工作?
在AI研究人员之间尚无共识,最终将导致AGI。符号AI和深度学习在构建可以跨越不同领域知识的系统方面都有局限性。当前的研究重点是开发具有元认知能力的模型,即评估和改善其推理过程的能力。

当前方法的限制
符号AI系统依靠人类程序员来获取知识,并且无法自行获得新信息,而包括生成AI在内的深度学习系统则需要大量的数据集和长期的培训期才能学习新任务。另一方面,人类很容易吸收新信息,并且可以通过很少的例子来快速学习新事物。
但是,即使面临这些挑战,研究人员仍在探索许多途径,以创建能够在人类(或更好)层面学习,概括和做出决策的机器。最近具有AGI元素的一些方法包括神经符号AI,代理AI和体现的AI。
神经符号AI
包括加里·马库斯(Gary Marcus)和本·戈尔泽尔(Ben Goertzel)在内的一些AI研究人员认为,神经符号系统是通往AGI的方式。这些系统结合了不同类型的AI系统,以弥补任何一种方法的缺点。
例如,在2023年,Goertzel和他的合作者发布了Opencog Hyperon,这是一种开源AGI的工作,它提供了一个软件框架,用于将来自各个学科的AI系统组合,包括自然语言处理(NLP),正式逻辑和概率推理。 Google DeepMind最近在国际数学奥林匹克运动会上实现了银牌 - 级别的表现,并具有两个神经符号系统,即字母隔板和字母表2。
代理AI
人工智能代理被认为是通往AGI道路的可能步骤,因为他们可以评估和响应其环境,理解背景并独立于人类实现目标的决策。像神经符号的方法一样,代理AI系统通过组合多种AI来完成不同的任务来工作。但是,对代理AI的研究仍处于早期阶段,归因于代理AI的许多更先进的功能仍然是理论上的。
体现了AI
领先的人工智能思想家,包括Openai联合创始人Andrej Karpathy和科学家Melanie Mitchell,他说,到达AGI可能需要某种形式的体现。这是基于这样的想法:AI很难学习基本的认知技能,例如了解因果关系或对象永久性而无需接收感觉输入。
暗中需要体现的AI来满足AGI的一些流行定义。例如,苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)提出了一个名为“咖啡测试”的基准,如果它能够进入任意人的家,并弄清楚如何酿造一杯咖啡,则可以认为机器具有AGI。
一般AI的潜在应用
由于广义智能的性质,AGI的潜在应用几乎是无限的。一些可能从AGI提供的适应性和自主权中受益的一些行业包括医疗保健,教育,制造业和金融。
卫生保健
AGI有可能影响许多医疗保健领域的领域,在这种情况下,拥有一个具有访问大量数据的智能系统,包括诊断和药物发现,以及创建个性化治疗计划的能力,以反映患者健康病史的全部情况。
教育
教育中的AGI系统可用于帮助学生个性化学习途径,以满足他们的特定需求,帮助老师完成行政任务和课程计划,以便他们可以花更多的时间在教学上,并帮助老师分析学生的绩效,以识别学生可能落后的差距。
制造业
制造商不断需要优化基于复杂供应链物流,生产计划和质量控制的流程。 AGI有可能协助决定如何改善流程和自动化它们。
金融
由于金融部门公司处理大量数据,因此AGI将能够比人类更快地分析和做出有关该信息规模的决定。这有可能加快诸如风险评估,合规性和市场分析之类的重型任务。
道德考虑和挑战
随着阿吉(Agi)的进展继续前进,有一些法律问题和道德问题必须被建筑物和使用AGI系统的人们考虑在内。
偏见
就像狭窄的AI系统可能缺乏训练样本中的多样性一样,AGI系统有可能基于偏斜或不完整的培训数据表现出种族,性别或其他类型的偏见。算法还可以通过加权某些变量以使一组与另一组特权特权来引入偏差。
AGI行动的法律责任
AI系统已经成为违反隐私和公平住房法的法律纠纷的主题。但是,现有的法律框架并不总是清楚地定义谁应对AI造成的伤害负责。当机器以违反法律的方式行动时,先进的智能代理的出现将进一步使问责制的问题变得复杂。
一致性挑战
AGI系统可以访问大量数据和自主权以做出有影响力的决定。确保这些系统与人类价值观和道德原则保持一致是AI对齐研究的重点。专家正在努力开发使AGI解释并遵守期望的目标和约束的方法,从而最大程度地减少意外或不受欢迎的结果。
AI将军的未来
随着AI的发展,它既提出了挑战和机遇。尽管必须解决有关就业和安全的担忧,但AGI有可能在数据分析,自动化,优化,医疗保健和安全等领域带来重大好处。
AGI可以通过以超出人类能力的规模解决问题来加速复杂的科学和社会问题的进步。通过处理重复的任务,AGI也可以使人们更多地专注于有意义的工作和个人利益。最终,它的发展不仅会重塑行业,而且还会重塑人类如何感知智力及其在世界上的作用。
AGI常见问题解答
AI和AGI有什么区别?
AGI是AI的亚型,与狭窄或弱AI不同,该AI旨在在有限的域内执行特定任务。相比之下,AGI是指AI开发的假设阶段,在该阶段中,系统具有人类式的灵活性,适应性和推理,使它们能够学习和执行各个领域的广泛任务。
生成AI和将军AI有什么区别?
生成AI是一种AI类型,可分析大型数据集以基于学习模式生成预测,内容或响应。 AI或AGI将军是指能够在多个领域跨多个领域具有人类智能和推理的AI,从而可以学习和执行各种任务,而不仅仅限于特定功能。
chatgpt被认为是AGI吗?
一些专家认为,像Chatgpt和Claude这样的LLM可以被视为AGI。但是,这种观点并未在AI研究人员中被广泛接受。 Chatgpt缺乏对其产生的文本,与推理斗争的真正理解,并且无法跨越不同领域的知识,例如控制像自动驾驶汽车这样的物理系统。这些限制意味着它不符合AGI的标准。
O3被视为AGI吗?
尽管OpenAI的O3推理模型在2024年12月20日的Arc-Agi基准中取得了令人印象深刻的87.5%得分,但基准的创建者Francois Chollet并未认为它已经达到AGI。
观察者指出,O3依靠公共测试样本进行了广泛的预培训,并需要大量的计算资源才能达到其得分。 Chollet还指出,一些低计算模型得分高达81%,这表明O3的成功是由蛮力计算所驱动的,而不是真正的一般智能。
建立通用AI的主要挑战是什么?
- 可信赖性: AGI系统必须始终准确且可靠,以使用户依赖于关键应用程序中的输出。
- 长尾问题:无论AI系统拥有多少培训数据,它都将不可避免地遇到罕见或无法预见的情况。例如,自动驾驶汽车将面临训练中未涵盖的情况,要求他们有效地概括。
- 能源消耗:先进的AI模型已经需要大量的能量和水进行计算。除非开发出更有效的处理方法,否则AGI可以要求更大的资源。
- 常识:与人类不同,人工智能缺乏对物理学,社交互动和日常推理的真实经验和直觉的理解 - 人们知道人们从童年时代就自然而然地获取。
Agi是否存在?
由于AGI一词是以不同的方式定义的,因此符合一个人(或公司)对AGI的定义的定义可能已经存在,但根据其他人而言。使用Google DeepMind论文的定义,即“至少在大多数任务上与人类一样有能力的AI系统”,说AGI尚不存在是有道理的。
