这个说法有道理:即使是现在最流行的大语言模型,似乎也并没有一个数学理论证明它一定行,或者在什么条件下行,什么条件下不行
无法证明,因为当今大模型的本质就是用神经网络做统计,计算各种特征,包括隐形特征的概率分布。这种高度复杂的,大量的,深度嵌
看看热力学第二定律怎么证明的,非常奇妙
计算机模仿神经元,模仿神经网络,是AI的基本操作,与概率统计无关。:)
从in/out角度来看,AI用这种嵌套函数计算的是样本空间(in)的一个概率分布函数(out)
越说越玄,堆砌平常人听不懂的词句,是故弄玄虚,说了跟没说一样。
看来你还是不懂。今天你们那过节,我就不多说了。不过你记住,任何需要数据采集分析的,必须有统计的参与。
+1,有数据就有统计
LLM的实质是自回归预测,这决定了其幻觉不可避免。
传统机器学习有理论保证自己在iid条件下工作。LLM能超越iid,因为它是基于依赖上下文的自回归模型。这点还是知道的。
AI我不懂,好像跟概率统计连不上。
唉,非要犟到底。知道啥是回归(分析)和回归模型吗?去查一下这是不是统计学的术语。:)
LLM的巨大成功是有科学基础的。LLM处理的基元是人类语言的词,词在认知学上就已经是智慧构建了,是知识的符号。再加上语义
也因为LLM的原理如此,LLM不可能是AGI或强AI。它不可能有自我意识,我们生而俱有的空间感知和抽象能力。做认知心理学
方外居士
2025-11-27 14:48:55这个说法有道理:即使是现在最流行的大语言模型,似乎也并没有一个数学理论证明它一定行,或者在什么条件下行,什么条件下不行