来, 咱们也聊一聊AI

晋中 (2024-12-14 12:15:34) 评论 (6)

一直琢磨着聊几句AI,但一直没有时间,今天得空赶紧唠叨几句。

这一波的AI大浪是OpenAI的ChatGPT激发的,ChatGPT 的Chat 就是聊天对话,后面的GPT就是 Generative Pre-trained Transforme,直译成中文就是“生成型预训练变换器”。这个东西是OpenAI公司把神经网络的trasfomer大模型 + 大算力 +大数据这三个东西结合起来,大力出奇迹训练出来的。OpenAI既摸到了这条路,其它公司就蜂拥而上,砸了很多钱很多人搞出了几百种大大小小的大模型,有语言大模型,图形大模型,音频大模型,视频大模型,还有把几种合起来的多模态大模型。

在ChatGPT发布后,那些喜欢好高骛远的各路专家就出来幻想用这种生成式预训练的神经网络去实现所谓的AGI,就是通用人工智能。也有专家用机器人意识觉醒,超级智能机器人统治地球,反过来奴役人类这样的科幻场景去吓唬老百姓。

现在是ChatGPT出来的两周年刚过,貌似很多人还没有认识到,但已经有迹象表明 ,沿着生成式预训练的神经网络去实现所谓的AGI这条路是走不通的,就是所谓Scaling Law(规模定律)已经走到了头,大模型 + 大算力 +大数据三个大力中的大数据差不多已经用完了,这两天AI圈的热门消息就是第一个提出AI技术中大力可以出奇迹的原OpenAI的联合创始人和前首席科学家Ilya Sutskeve发表了一个演讲,说预训练将结束,数据压榨到头了。其实我个人认为,就算大模型 + 大算力 +大数据的三个大力可以继续增长,沿着这条路也走不到AGI,我们需要基本原理上的突破,从这里深究下去我也不懂,涉及到哲学;心理学,脑科学和语言学等等。

下面再唠一唠这一波的AI技术突破的应用和后果。

最初的ChatGPT的应用就是问答式聊天,其它的如文生图,文生音乐也差不多,就是一问一答。大约半年以后,就出了OpenAI GPTs,就是把自己的知识库和ChatGPT结合起来,成为应该特定知识领域的对话机器人,比如把中医知识加进去,就可以回答中医问题,去年有很多小公司和个人抢跑了这个赛道,结果OpenAI训练ChatGPT 4的时候,扩大了知识库,很多专业的知识库被包括了进去,直接后果就是大潮上涨淹没了小水洼,很多小GPTs就从销声匿迹。但拥有自己独特知识库的GPTs还是能继续存在,代表的就是公司的AI客服系统。

进入今年2024年,大模型的应用就发展到AI Agent,就是智能体。这个智能体,从程序员的眼光看,就是一个程序,在需要的地方调用一下某种大模型,和我们调用一个函数差不多,给它一些输入,它处理后生成一些输出,返回给调用者。这样就能实现比只用ChatGPT之类的大模型,或专用GPTs更强大的功能。这个智能体的开发和应用很热闹,是个非常有"钱"途,非常拥挤的赛道。

这里先扯远点说一说背景知识。人工智能的江湖有三大门派,分别是符号主义,连接主义和行为主义。 符号主义认为智能是通过符号操作实现的,智能系统应依赖明确的规则和逻辑推理。这种观点认为人类思维可以通过符号和逻辑来建模。代表的东西就是各类专家系统,车间里的专用工业机器人也算符号主义AI的应用。连接主义认为智能是通过神经网络的连接实现的,模拟人脑的工作方式。神经网络由大量的节点(或"神经元")组成,通过调整节点之间的连接权重来进行学习和推理论,ChatGPT就是它的代表,特斯拉的自动驾驶也是。行为主义认为智能体通过与环境的互动学习和适应。强化学习是行为主义的重要实现方式,通过试错和奖励机制来优化行为策略。这个流派硬件构成也可以是神经网络,它强调的是好好学习,天天向上,要不断学习,不断进步,击败人类围棋冠军李世石的AlphaGo可以算者一类。  

话再说回来,现在烈火烹油鲜花着锦似的发展的AI Agent,其实就是再连接主义大突破之后,回到了把三个流派的武功融合起来应用的更高境界。需要用明确的规则和逻辑推理进行控制的时候,智能体(程序)就用明确的规则控制,需要用ChatGPT之类的大模型的时候,就去调用,想调用哪个大模型就调用哪个,想什么时候调用就什么时候调用,想调用多少次就调用多少次。还可以调用不同的大模型让它们互博,交叉验证。智能体也得不断学习,不断进步,比如说到网络上查找最新的消息, 比如现在流行的RAG(Retrieval-Augmented Generation,即检索增强生成)技术,旨在通过引入信息检索系统来增强大型语言模型(LLM)的能力。这种技术允许模型在生成回应时引用外部的权威知识库,从而提高生成的信息的准确性和相关性。总而言之,就是不拘一格的把我们会的功夫都用起来。

前一阵子OpenAI推出的OpenAI o1实际上就是这种混合式人工智能的典型,当你问它一个问题,比如让它解一个数学问题,它会把这个问题拆分成多个小问题,然后逐一回答,该调用ChatGPT的时候就去调用,需要的话会反复多次调用,还会上网查询,把查询到的知识在放到ChatGPT里再次处理。不能准确理解会回答的问题会进一步拆分,回答出答案会交叉验证,最后再综合出答案,这个过程可以显示出来,让人感觉到它在思考,最后的答案是深思熟虑的结果。OpenAI o1的表现确实惊艳, 回答很多复杂的科学问题时,准确律远远超过了直接用ChatGPT回答的一锤子买卖式的回答。

现在这种结合了三大流派思想的混合式人工智能的智能体的研究和开发,天天有新模型新产品推出,不是百家争鸣,而是万家争抢,公司和个人都在争先恐后,争分夺秒,跟不上,根本跟不上,连睡觉都是浪费时间,让人想起几年前虚拟货币热潮时代凌晨三点俱乐部。

包括萨姆奥特曼,马斯克,黄仁勋,今年得诺贝尔物理奖得辛顿在内的一些大佬们都认为AIG将很快实现,但我个人觉着AGI的实现还比较遥远, 还需要算法原理上的大突破。 但必须强调和可以肯定得是,基于已有AI技术的AI Agent将给这个世界带来翻天覆地的变化。下面这段是ChatGPT生成的,如果你觉着和我上面亲手码的读起来有点违和感, 不要奇怪。 

AI Agent即将为这个世界带来翻天覆地的变化,简直可以用“重置(reset)人类世界的所有方面”来形容。想象一下,当你的闹钟响起时,AI已经替你挑选好了今日的穿搭,甚至连袜子都配对好了(告别了找不到另一只袜子的痛苦)。而当你还在享受咖啡香时,AI已经帮你完成了工作报告,给老板的邮件也发送完毕,让你可以悠然自得地刷刷微博、发发朋友圈。

在厨房里,AI早已为你准备了一顿色香味俱全的早餐,搭配恰到好处的营养搭配,就像有个星级大厨在为你服务。更有趣的是,当你出门时,AI会提醒你带上雨伞,甚至告诉你今天那家新开的餐厅有多好吃,顺便预订了一个位置。

开车上班?不再需要,AI已经为你安排好自动驾驶车,顺便规划了一条避开所有堵车的路线。AI甚至会根据你的心情播放音乐,确保你一天的开始充满愉悦。到了公司,AI还会帮你处理繁琐的事务,让你专注于真正需要创意和思考的工作。

而在更大的范围内,AI Agent也会重新定义各个行业。例如,医疗领域,AI可以帮助医生精准诊断疾病,甚至预测病情发展;在教育领域,AI会为每个学生量身定制学习计划,让每个人都能发挥最佳潜力;在交通领域,AI可以通过智能调度,减少拥堵和事故发生。

总的来说,这个AI Agent不仅仅是一个工具,更像是一个万能助手,让生活变得更加轻松、有趣和高效。它重新定义了我们与技术的关系,让未来变得更加充满希望和可能性。

说完这些煽情的好听的,还是由我来码这最后一段,聊几句AI令人忧虑,悲观甚至绝望的。上面这些美好的事务实现的同时, 意味着很多人会失去工作,与以往的工业革命不同, 支持AI消灭工作机会的同时,不会产生更多或等量的工作机会,消灭掉就是没了。这样无疑会造成很严重的社会问题,油管上关于UBI(全民基本收入)的讨论一天比一天多,个人,公司,社会甚至国家都不得不重换重设, 财富,文化,价值观以至于制度都将经受大变革甚至革命,这一切都不会太久,也就这三、五年内必定会发生的事。 

评论 (6)

格利

好文

硅谷工匠

AI so far has caused collusion of pricing of rental, insurance, medical services. It only serves big capital well.

枪迷球迷

AI跟智力还是有本质区别的。 人不需要读海量的书去获得思考和解决问题的能力, 而是通过读懂几本书去举一反三。 目前的AI模型不具备这个能力。 更重要的是, 人有通过逻辑推理判断是非的能力, 而目前的AI模型没有。 AI不懂得,回答“不知道”比给出错误答案更糟糕十倍。

dhyang_wxc

好文。

areYOUsure

直到现在,DL/LLM的成功应用也就是语音或者语言,但对一般的图像没有特别效果,原因很简单,你随机选5个字母,它们成字的概率很小。这就是图像与语言的本质区别。过去数十年,AI在图像识别里一直有人在做,2015年的AlphaGo前都只是冷门,他们都找不到工作。

这个世界上有三样永远能忽悠:量子,智能,保健

voiceofme

"人工智能的江湖有三大派, 分别是符号主义, 连接主义和行为主义。" 这个观点有意思。 符号主义在80-90年代风行了一阵,连接主义就是deep learning 加 language model. 行为主义看来是增强学习(reinforcement learning), Google 的alphago走的是这条增强学习的路, META的yann lecun似乎也是强调这点,所以成为现在AI领域里的out-lier。现在AI主要在链接主义这块,但增强学习一直阴魂不散,比如chatgpt 模型的fine-tuning 就是用到了增强学习。 但要走到AGI, 符号主义注定是失败的,连接主义其实是提供通过链接(或说模型结构和参数)产生的记忆和表达方式,这些记忆和表达方式可以用来预训练而产生模型,但怎么让这样产生的模型去继续学习,还得用到增强学习,就是在实践中学习成长,不学习就进步不了,要学习了就是潜力无限。openAI 的O1确实在强调RL, 但没有看到它到底是怎么做的,效果似乎不怎么好。