评论: “AI可能会杀死人类,已出现无法解释的推理能力”

只有登录用户才能发表评论,点击此处登录    返回新闻帖
Leah_lee 发表评论于 2023-03-28 13:35:17
天呐,别吹了,别耸人听闻了。 为了发表文章不至于心甘情愿拉低自己的智商。AI又不是什么值得大吹特吹或者发表个文章哗众取宠的东西。又不是100年前,你写个分析或吹嘘AI的文章还能惊艳一下。AI现在是妇孺老幼皆知的街头地摊的东西了,就别再想通过发表一篇庸俗不堪老生常谈的什么超人类智慧,不可控等等来吓唬人了。无聊。
泥川 发表评论于 2023-03-28 10:11:09
GPT-4其实就是把人类知识压缩到一个模型里,等于一个有推理能力的大数据库,用自然语言交互。和它对话,就是把知识解压,释放出来的过程。

AI大模型的推理能力,出人意料,无法解释。不过离神一样的存在,还差得太远。飞机是能飞很高,别以为就能上月亮。

微软测试GPT-4的能力,发现,一方面,能解出大学程度的数学题,另一方面,做不对小学二年级的算术。比如AI给出:7 * 4 + 8 * 8 = 88,这种4个数字的算术,当数字在99-199之间时,AI的准确率为零。

靠人喂的知识,AI可以在知识领域帮助人,甚至超过人。不过创造知识,把知识转换成物质世界的改变,现在只有人能做到。AI的前程,还路漫漫,远着呢。
橡皮潜艇 发表评论于 2023-03-28 06:53:38
人类对阵ai就像马云对阵马斯克
橡皮潜艇 发表评论于 2023-03-28 06:47:00
不受限制的自我意识将是可怕的
areYOUsure 发表评论于 2023-03-28 06:44:58
把网断了,看看它还能智能不?:-))
橡皮潜艇 发表评论于 2023-03-28 06:44:32
机器人觉醒会象核反应,一瞬间彻底控制地球。
令胡冲 发表评论于 2023-03-28 06:40:45


看到楼下言论。

1. AI不是过去的黑盒子。深度学习模型现在也有很简单方便的接口打开每一层观察其具体学习过程。
2. AI如果要消灭人类,他并不需要主观意识。他只需要逻辑推理能力,就如同围棋能同时击败人类全部高手。
3. AI要消灭人类,断电就不要想了,因为早已在其预料之中,自然能处理。那会儿也没有什么人类导师了。围棋AI早已双手左右互搏,绝尘而去。任何人类导师都是它的累赘。


橡皮潜艇 发表评论于 2023-03-28 06:38:15
哈哈哈哈,真天真。网上经常有人说机器人怕什么,把电插头给它拔掉就是了。
ai要是这都想不到,那么它还没到火候,想到办不到,还是没到火候。
进化完善的ai不但把人类的小九九吃透,还能防范于未然,把全世界所有的核电站都接过来备份。
GP2X 发表评论于 2023-03-28 05:56:51
都是外行起哄蹭热度。现在的AI都是走神经元网络训练学习的路子,本身就是个黑盒子,里面成千上万甚至更多的函数,参量,权重如何自适应调整当然无法解释也不需要解释。
不允许的笔名 发表评论于 2023-03-28 05:49:42
推理其实是模仿的一种。人生下来并不会推理,推理学出来的,学就是模仿,三段论是一种pattern,AI从学习中认识了这个pattern,就会推理了。
清漪园 发表评论于 2023-03-28 05:18:32
人类是否可以对AL研制的控制可以像人类控制反伦理的生命科学的研究一样,立法制止反人类的AL研发?不过考虑到科学界的疯狂与人性的贪婪,恐怕难以做到,直到AL灭绝人类。
橡皮潜艇 发表评论于 2023-03-28 05:07:52
自私就是有自己的利益盘算,会打小算盘,为自己着想。
橡皮潜艇 发表评论于 2023-03-28 05:04:50
一条狗要是自私都是挺可怕的,何况机器人
橡皮潜艇 发表评论于 2023-03-28 05:02:11
自发出现推理能力不可怕,可怕的是出现自我意识,然后是自我觉醒,自私倾向。一旦如此,肉身的人类如何是对手?
学习组 发表评论于 2023-03-28 05:01:05
杀死人类又怎样,人类也杀死人类。
令胡冲 发表评论于 2023-03-28 03:06:50


看了前面,写的挺好的帖子。AI肯定会超越人类。不知道是否会杀死人类。

人类思维是有巨大局限和漏洞的。每个人脑认知寿命都很有限,而且无法扩容,无法移植学习。每个人出生后都重新学习。所以认知增长很慢,很难。

但AI没有这种限制,它的神经学习能指数增长,无限扩容,随意移植复制分化。AI很快将能发现和利用人脑各种思维漏洞和缺陷。是否杀死人类还不好说,但决定权肯定不会在人类手里。







页次:1/1 每页50条记录, 本页显示116, 共16  分页:  [1]