【分享】为什么Agent是OpenAI的下一步?

日期:2023-12-05 12:22:50 / 人气:142

关于特工你需要知道的一切“大家好。我是甘润泽,毕业于新加坡国立大学(NUS),深度学习硕士,现在是一名AI Agent开发者和全栈工程师。
很高兴在AI新智能俱乐部和大家分享这一点。我这次分享的主题是“为什么Agent是OpenAI的下一步?关于特工你需要知道的一切。
什么是代理?
什么是AI智能体?假设你设计了一个电子游戏,比如马里奥赛车。马里奥就像一个人工智能代理。他需要在整个比赛过程中不断做出决定,比如什么时候加速,什么时候转弯,什么时候起跳,这样才能避开障碍,超越其他车手,最终取得胜利。
在这个例子中,整个游戏环境和其他驾驶员的动作构成了这个智能体的环境。代理将根据此信息做出最佳决策。例如,如果前方的道路是左转,那么代理将决定左转。
AI Agent的本质是一个能够感知其环境,在给定目标下做出决策并采取行动的系统。这些决定是基于它对环境的理解,比如它的目的地在哪里,它的位置在哪里,它周围有什么障碍。
此外,AI智能体的另一个重要特点是它可以“学习”。换句话说,它可以通过与环境的互动来不断改进其决策过程。例如,在许多游戏之后,它可能会学习如何更好地避开障碍物,或者找到更好的赛道路线。
一般来说,AI Agent是能够感知和理解环境,然后做出决策,采取行动,并不断学习和进化的AI系统。
为什么说Agent是未来AI赛道的主要发展方向?
目前,大语言模型的下一个发展阶段是两个发展方向。一种是“向下发展”,更新整个底层系统;另一种是“向上发展”,即从更高维度、更智能、更自动化、更复杂的方向,即提高大型语言模型生产力的Agent方向。一个标准的单代理模块包括记忆、规划、执行和反射模块,比大语言模型的交互方式更加智能。
此外,人们还在不断添加非常吸引人的功能,拓展想象的边界。一些很酷的想法包括联网搜索引擎和运行编译器功能,这些都在最近几个月逐一实现。
虽然单个智能体功能强大且易于使用,但OpenAI GPTs本质上是关于单个智能体的未来人工智能商业模式。开发者在GPT上开发各种代理,用户购买自己喜欢的GPT,然后OpenAI与开发者分享利益。这是一个充满想象力的商业模式,整合了社区、开发者、平台和用户。
但这还不够。对于未来,我们的想象力可以进一步展开。
比如GPTs中的Agent可以自我学习和进化吗?
03 Up:黑盒越黑?
最近曝光了OpenAI的Q *项目,本质上就是打造一个可以自己产生新数据,自己学习进化的智能体。这意味着人类将更加难以控制,我称之为“黑箱越黑”。
神经网络本身处于黑箱状态。一个可以在没有人类监督的情况下实现自我进化的黑匣子,其不确定性会大大增加,这个“黑匣子”会更“黑”。
从好的方面来看,自学代理是AGI最有前途的方式。
人们探索AGI已近百年,希望的曙光从未像今天这样离我们如此之近,它伴随着巨大的不确定性:一个人们越来越难以理解却越来越强大的黑匣子。
04特工的两个小场景
接下来我将介绍几个有代表性的Agent项目,帮助大家更好的了解Agent。
第一个是爆炸的AutoGPT。
AutoGPT以其基于大语言模型的全自动流程和联网功能而闻名。在AutoGPT中,你只需要给它定一个大目标:比如给我做一份商业计划书。可以通过大语言模型给出解决方案,借助联网功能给出报告。
事实上,它给了人类丰富的想象力。一个月前,AutoGPT的团队获得了1200万美元的融资,这其实很令人兴奋:难道不是我们所追求的先进自动化系统吗?
斯坦福镇是另一个热门的全球项目。《斯坦福镇》的创作者在沙盒世界中放置了25个特工,他们有自己的初始设定。代理人用自然语言相互交流,然后开始为期两周的实验。注意,这里的星期指的是游戏中的时间:造物主为这个世界设定了时间规则,代理人在里面的活动是需要时间的。
人们之所以对这个项目感到惊讶,是因为大语言模型+沙盒世界的无尽想象,也是因为代理人互动的意想不到的现象:代理人成立了自己的当事人,他们的人际关系变得更加复杂。
斯坦福镇是sAgentbox世界中多智能体系统的成功典范,有着巨大的想象空间:游戏世界、现实世界和实验沙盒世界有什么区别?
第三个爆炸的项目是CHATDEV。这是一家专门开发AI聊天机器人的公司。团队中有各种AI Agent角色,如CEO、程序员丹尼尔、测试工程师、设计师等。
人类用户只需要告诉他们想要做什么——比如“我想定制一个五子棋游戏”,然后他们的AI Agent就会开始围绕这个任务进行讨论和交流,最终生成一个完整的软件解决方案,包括源代码、环境依赖和用户手册。
我们知道软件开发是一个充满复杂决策的过程,需要大量细致的考虑和咨询。但是现在,深度学习的新技术已经开始在软件开发的各个阶段得到改进,从根本上改变了我们开发软件的方式。
在CHATDEV中,他们采用了所谓的瀑布模型,将软件开发的过程分为四个阶段:设计阶段、编码阶段、测试阶段和文档编写阶段。每个阶段都有专门的AI智能体团队参与和协作,比如虚拟程序员、代码审查员和测试工程师,他们会互相交流和合作,形成连贯的工作流。
在这个聊天链中,聊天机器人会把每个阶段的任务分成一些小任务,然后单独完成。
这个过程有两个好处:一是可以有效解决问题,因为机器人会在聊天中提出并验证解决方案;第二,任务分解有助于节省时间和成本。
比如通过CHATDEV,他们可以在七分钟内完成整个软件开发过程,成本不到一美元。如果是人做,可能需要几天甚至几周才能完成。这就是CHATDEV向我们展示的AI的力量和软件开发的未来。
以上三个项目向我们展示了三个富有想象力的维度:AutoGPT展示了自动化和大语言模型的魅力(这也是Agent的开始)。在AutoGPT中,你只需要不断地输入yes来给它权限或者纠正它。
斯坦福镇展示了多智能体沙盒世界的可能性,其核心本质也显现出来:多智能体交互会进一步增加复杂性(复杂性在某种程度上就是智能)。CHATDEV是最明显的帮助人类提高生产力的多智能体,智能体编程也打开了潘多拉魔盒:它们自我进化的开始。
05代理未来如何发展?
我认为《代理人》的最终结局将离不开以下问题的答案。
计算机科学创造的AI智能体,在一定程度上是符合生物学和社会学的:打个不恰当的比方,单个智能体不就是生物学中的细胞吗?多智能体不是物种部落吗?
下面我列出了十四个代理问题,描述了从多代理转移到AGI的过程中必须回答的问题。在我看来,每个问题背后都有巨大的想象空间:
功能:代理如何工作?
实体化身:它们由什么构成?
互动:它们是如何相互交流的?
起源:最初的代理人来自哪里?
遗传:我们生来就是同一个代理人吗?
学习:我们如何产生新的智能体,如何改变旧的智能体?
性格特征:哪种类型的代理是最重要的?
权威:代理人之间有分歧时该怎么办?
意图:Agent如何产生需求和欲望?
胜任能力:代理人代理人可以一起做单独做不了的事吗?
自足:是什么让代理人团结起来或产生个性?
意义:智能体是如何理解世界的?
感知敏感度:智能体如何产生感觉和情绪?
意识知觉:主体如何产生对其他事物或自我的意识?
以管理局为例。目前,人们的项目还没有进入这个阶段:如果多个代理人之间发生冲突,谁应该服从谁?如果人类和智能体发生冲突怎么办?
如果一部分人和一部分人发生矛盾,代理人会站在哪一边?是站在“权力”一边还是“正义”一边?如果人类不能处理好这些问题,我们就应该像达摩克利斯之剑一样警惕和恐惧。
06代理人与商业:重建人类文明的基础
我认为代理的商业化不仅仅是一个个体的获利,更是人类文明基础的重建。
一位美国教授认为,新的图灵检测方法将是:一个自主的人工智能系统能否从人类世界的10万美元中赚到100万美元?OpenAI将AGI定义为在大多数有经济价值的任务中超越人类的自治系统。
当多智能体系统在AGI的道路上运行时,想象一个简单的场景:我们与超级智能体达成合作,分享创造的经济价值,这将是多么吸引人。
另一个基于现实的猜想是,能够在经济价值上超越人类的智能体,很可能经历了从工作收入到资本收入的过程:前期通过创造产品、内容、服务从人类世界获得经济价值,后期发展到通过资本从人类世界获得经济价值。
这将引发另一个严肃的问题:我们最终将给予AGI在人类社会中一个什么样的政治和社会地位?
我们将如何看待AI社会?是把它当成满足自己欲望的工具,平等的物种,还是人类的提供者?而另一个严肃的问题:哪些地区可以赋予AI更高的社会和政治地位?哪些人或地区可以和AI进行更深入的合作?"

作者:恒达娱乐




现在致电 5243865 OR 查看更多联系方式 →

COPYRIGHT 恒达娱乐 版权所有