淘客熙熙

主题:对ChatGPT的几点思考 -- 唐家山

共:💬175 🌺1562 🌵7 新:
全看树展主题 · 分页
/ 12
上页 下页 末页
家园 有消息了,今年底GPT 5出来,据说接近AGI

😨

https://boxmining.com/openai-gpt-5-to-achieve-agi-in-december/

家园 微信上好大夫小程序可网上问诊国内医生
家园 您是不是回错地方了?

我的感觉是,人常常不能穷举,而过去计算机常常是穷举,但这次不是,所以有点更像人的思考方式了,但也因此会出错。

家园 说到AGI

我发现GPT类的AI跟人类的思考模式真的挺像的。打个比方说,一个中学生要做一道平面几何题,他/她会分析题目,总结各种条件,然后搜索各种可能性,最后完成结论的逻辑链条。解题的本质是一个探索式搜索的过程(包括做辅助线)。逻辑链条实际上是一个匹配问题,上一个逻辑命题的结论正好是下一个逻辑命题的条件。

按照这个观点来看,GPT做的事和中学生解几何题很像,也是在不停的搜索,寻找各种匹配条件,可以视为有智能的初阶体现。

不过GPT现在还不够聪明,它只能做语法相关性的匹配,还做不到语义上的推理,我目前还想不到GPT如何跨越这道鸿沟。

家园 这涉及到这些所谓AI方法的分类

按科普标准比较准确的叙述现在来不及写,先打个比方,当然比方肯定是有不精确之处的。这个找规律和暴力破解之间的区别好比警匪片里劫匪开保险柜,找规律就是拿个听诊器开锁,穷举式的暴力破解就是在保险柜门上每隔5厘米装个炸药点。现在这些所谓基于概率和计算力的方法就相当于门太大而且很多部分还有伪装,所以连形状都搞不太清楚。所以就先随机地选一些点先炸,然后根据上一轮炸的结果再按照当前能估计出来的门的形状再选点再炸。如果你把听诊器开锁算做思考,这个炸门的过程和思考还是很不一样的。

通宝推:桥上,唐家山,
家园 国内3甲
家园 看到指南针社区里的一篇文章很有意思

作者是dengdenggu。

一直以为我们的大脑是王者,其实……

大脑秉承着效率至上,精简之上,能耗至上的原则,你失去了图像记忆的能力,这样可以节省大量的资源算力,分配到别的地方。你看到的并不是你真实看到的,全是脑补。(只有极少数可以做到图像记忆能力。某些人大脑有缺陷,但在别的音乐,美术方面特别有天赋。这种情况被称为白痴学者综合症。不用羡慕,一个正常的大脑只要经过长期训练,在他们的领域,你可以比他们强。他们的那种不正常的天赋,是用别的能力换来的。)

靠着极致的精简压缩,把一个10hz的处理器这可怜性能压榨到了极致。

正因为脑补,人类拥有强大的抽象思维模式。

没有这种运算机制,人和动物相比,大脑性能并没有多大的差距,可能就是聪明一点灵活一点。

大象的神经元是人两倍还多,过目不忘,嗅觉发达,有次声波交流能力,几十年前的事情还能记得,但还是比不过人类聪明,因为大象的大脑没有效率至上的原则,思考能力不够抽象。

抽象思考能力是大脑效率至上后的副作用,地球人除了人没有任何生物拥有这个能力。

看来人类的抽象能力是从概率论的归纳进化到确定性的演绎的关键。人类的抽象能力是从哪里来的可能又是鸡与蛋的问题了。

家园 今天有空读了Hinton这个访谈挺有意思

这段

我们现在正处于一个过渡点,其中ChatGPT像一个“白痴天才”,它也并不真正了解事实真相。它接受了大量不一致的数据训练,试图预测下一个网络用户会说什么。内容人们对很多事情有不同的观点,而它必须有一种混合所有这些观点的方式,以便可以模拟任何人可能说的话。这与一个试图拥有一致世界观的人非常不同,特别是如果你想在世界上采取行动,拥有一致的世界观是非常有益的。

内容我认为接下来会发生的一件事是,我们将朝着能够理解不同世界观的系统发展,并且能够理解,好吧,如果你有这个世界观,那么这就是答案。而如果你有另一个世界观,那么答案就是另一个。我们得到我们自己的真相。

问:那么这个问题是不是因为,你和我可能都相信(除非你是一个极端的相对主义者),实际上在很多话题上,甚至在大多数话题上,确实存在一个事实真相,比如地球实际上并不是平的,只是看起来平而已,对吧?

答:是的,所以我们真的想要一个模型说,好吧,对某些人来说,我们不知道吗?这将是一个巨大的问题,我们目前还不知道如何处理。目前我并不认为微软知道如何处理这个问题。他们也不知道。这似乎是一个巨大的治理挑战。谁来做这些决策?这是非常棘手的事情。你可不希望某个大型盈利公司来决定什么是真实的。但他们正在控制我们如何使用这些东西。谷歌目前非常小心,不要那样做。谷歌会做的是将你引向相关文件,这些文件中会有各种各样的观点。

家园 AI真实智能随想

看楼主文摘Hinton问答又想到一点

问:有人说这些大型模型只是自动补全,这种说法对吗?

答:从某种程度上来说,这些模型确实是自动补全。我们知道这些大型语言模型只是预测下一个词。这并不简单,但确实如此。它们只是预测下一个词,所以它们只是自动补全。但是,问问自己一个问题:要准确预测下一个词,你需要了解到目前为止所说的内容。基本上,你必须理解已经说过的话来预测下一个词。所以你也是自动补全,只不过与它们一样。你可以预测下一个词,虽然可能不如ChatGPT那么准确,但为了做到这一点,你必须理解句子。

让我举一个关于翻译的例子。这是一个非常具有说服力的例子。假设我要把这句话翻译成法语:“奖杯太大了,它放不进行李箱。”当我说这句话时,你会认为“它”指的是奖杯。在法语中,奖杯有特定的性别,所以你知道该用什么代词。但如果我说:“奖杯放不进行李箱,因为它太小了。”现在你认为“它”指的是行李箱,对吧?在法语中,行李箱的性别也不同。所以为了把这句话翻译成法语,你必须知道,当它放不进去是因为太大时,是奖杯太大;而当它放不进去是因为太小时,是行李箱太小。这意味着你必须了解空间关系和容纳等概念。

为了进行机器翻译或预测那个代词,你必须理解所说的内容。仅仅把它当作一串单词是不够的。

Hinton这段乍一看似乎不很理解,因为我们说话时下一个词都是很自然就蹦出来的,似乎大脑没有任何他所描述的这些过程。 但忽然意识到那是母语,有过学习外语经验的人都有过一开始造句的过程,尤其是说外语一开始结结巴巴一个词一个词的挖空心思搜罗,这样一想,他的这个描述就忽然发现其实很生动,经历过那个阶段的人都会有体会,自己妥妥的就是一个GPT造句机 😄 母语当然也有这个过程,只不过人那时年幼,这个过程第一发生比成年学习语言更快,第二对整个过程也没有什么记忆了。

这里想到的是,与人一样,随着对语言的熟练掌握,用词造句快速准确不假思索,从旁观者看去,就似乎人开始聪明起来,反应快,思维敏捷,相反如果语言结结巴巴,IQ再高也显得人笨笨的,像听个小孩子说话一样“幼稚”。 而这不正是我们对GBT这个AI不断升级换代的感觉么,其实不是AI更“智能“了,只是人通过语言理解智能的一种错觉。

当然语言上流利带来的好处是GBT可以更多的通过沟通获取知识,但问题是GBT自己通过训练接触的大量知识获取过程与人不同,GBT不依赖与人沟通获得知识,但是造句生成答案这部分会通过与人沟通提高,比如GBT的每次答案都有个点赞选项,类似在这里如果我的发帖指向是为了得花,逐渐的发帖就会被”训练“出符合多数人的口味,是同样道理。

Hinton的问答中多次谈及到比较人类大脑与AI的区别,人类使用语言沟通的一个主要原因是人类大脑的不可复制性,所以实际上每一个的大脑都会逐渐训练成不完全一样的我们叫做”认知“的东西,而语言不过是在一定程度上模拟了这个认知,可以让不同大脑在一定程度沟通,但肯定远远做不到克隆的地步,而AI之间则可以,而且也不需使用语言,只要把模型与权重克隆就可以了。

人类智能的这个特点当然有受限于个体大脑自身物理与能耗的原因,所以语言沟通既是学习的手段,也是提高个体大脑智能的一个重要过程,好处是这是一个个体大脑之间智能竞争的自然优胜劣汰机制,靠量而不是靠质取胜,最大限度保证了”明智“的个体大脑胜出。但付出的代价则是不同大脑个体的认知差别与权重彼此不匹配竞争中引起各种争论甚至冲突。GBT则不需要这样,在庞大的计算量与能量的加持下,AI可以凭一己之力整合人类有史以来所有知识,形成一套权重,具备了自己的认知与三观,所以AI没有互相冲突问题。但当人类面对AI与人类个体大脑谁说的对问题时,自知大脑带宽与能耗无法与AI相比,那么最后定于AI一尊的可能性是很大的。这样做唯一的问题是,如果AI不正确时,没有了对手竞争机制,人类有这个勇气把命运交给AI么,毕竟人类的进化过程是从优胜劣汰自然选择一路走来的。

最后一点是,因为GBT的知识与所谓的”推理“过程都是建立在语言这个媒介上(话说不这样人类也看不懂其黑箱作业这类深度学习AI经典弊端),那么GBT会不会是个语言上的巨人,却是行动上矮子呢。这里的行动实际上是判断与做决定的能力,而这些能力在人类的身上楼主另一篇文摘提到,由于个体大脑的自然限制不能做到面面俱到,所以进化出脑补的重要能力,这个脑补的能力给今天带来相对论带来卫星上天。 而GBT不仅没有也不需要这个脑补的能力,GBT的知识总量已经面面俱到,理论上给出的答案应该就是穷尽已知的知识海洋里那个”最佳“答案,不仅理论上实际上应该也比绝大多数人类能够想到的答案更”完美“,但是不会脑补的GBT无法去产生新的知识。而做不到这一步,就不可能成为AGI,仍然会被人类大脑鄙视下去。

胡言乱语,博君一笑 😁

通宝推:道可道,唐家山,
家园 我儿子小时假也得过川崎病

一直发烧不退,省儿保专家门诊、主任门诊也都按普通的发烧治,连着去了几天就是不退烧。后来有一天去迟了,专家门诊、主任门诊的号都没了,只能挂了一个副主任门诊,结果副主任一看儿子指尖褪皮、地图舌,立马说“川崎病,马上住院!”。挂了十多瓶白蛋白,温度马上下来了(原因就是孩子体质差,医生说如果不挂白蛋白,以后心脏可能会有影响)。过了一年多,儿子又连续发烧不退,住院了也退不下来,跟医生说以前得过川崎病,症状也差不多,结果这些医生都说川崎病不会第二次得😨。烧到了第8天(天天40度以上,我都担心把脑子烧坏了),正巧看到上次的那位副主任来查房,赶紧过去问:“医生,川崎病会不会得第二次?”医生一句反问“谁说川崎病不会得第二次的?”天哪!救星啊!赶紧请副主任过来诊断,后面就好了,跟上次一样的操作,白蛋白一挂,心就放下了。后来一打听,这位副主任就是研究川崎病的。

我老婆前年摔了一跤,看了各大医院的专家门诊都说是脚扭了,好好养一段时间就行,结果过了将近3个月,还是说脚痛,我说要不去看看中医吧。到了中医院,也是挂的专家号(现在都是网上挂号,特意选的足部骨科专家),拍了片,医生一看,你这是撕脱,有点迟了,建议每天复健操。再往上一看,韧带断裂😭,住院!

前面好几位专家,也是认真看病了,但我估计,可能是研究腰骨科、手骨科的,不对路。现在医生研究的方向可能是越来越细化,不对路的病就不是太清楚。但如果对上了研究方向,那还是效果明显的。

通宝推:青青的蓝,紫梁,白马河东,方恨少,唐家山,
家园 一句话就能骗AI帮你传谣

[URL=https://user.guancha.cn/main/content?id=975273]

一句话就能骗AI帮你传谣,也不知道人类能不能顶住[/URL]

这就是聊天狗屁通现在的真实水平。辅助不足,造假有余。

家园 这是属于网络安全方面的问题了

网络安全问题不仅仅是计算机网络,而且跟人类社会相关,从技术角度是没法完全解决的。只能是技术和管理相结合,看看有没有好的解决办法。

家园 【讨论】

如果得过新冠,要当心是不是MIS-C,据说和川崎病症状很相似容易误诊

通宝推:北纬42度,
家园 目前看ChatGPT4存在明显漏洞

网上已经兴起一个jailbreak运动,使用各种办法让chatGPT说胡话,或说政治不正确的“实话” 😁

昨天看到一篇分析,与我上贴对ChatGPT的分析大致结论相同,认为实际上没有那么高“智能”,但是语言界面的华丽流畅让人产生的错觉。比如他举个例子让GBT把三个不同来源的数字凑起来成为一个prime number,结果给了个错误答案。 可以看到的是GBT没有规划,反证,前面三个数字收集部分都按照要求去做,但是结果是不是prime number就不管了 😄 而且屡试不爽。

但这并不是说GBT在故意“造谣”,而是与GBT的内部工作方式有关。 不过可以很确定GBT没有自我生成新的认知的能力,具备的不过是在已知的知识与知识结构里去尽最大努力生成符合提问的答案,哪怕提问包含了复杂的结构,只要是GBT训练材料经历过的都可以理解。 但人的实时沟通有时没有论文那样一步步娓娓道来,往往是直接给出结论,但是人之间经常可以不用言传而可以意会导致结论的中间步骤,但是GBT训练中遇到这种问题因为没有脑补能力,所以不知道自己误入歧途而得出很明显的错误结论。

虽然人与人沟通中因为认知与知识面差距太大,脑补出现离谱导致结论差之千里的现象也存在,但是对于GBT这是一个很通常的现象。 目前不知道下一个GBT版本会不会有改进。

还是那句话,GBT的主要威胁目标是搜索引擎,解决了搜索引擎如何用的问题,那些SEO,key words都可以休矣。 同时带来的应用面革命主要是人类日常生活中绝大部分浅层次solution,比如每天的工作安排,日常遇到的一些琐碎但不能忽略的杂事,行程安排,行业法规等不需要太多深度斟酌但需要很多随机应变与广大知识面覆盖的事情。 但是宏大的问题,比如股市的升降,利率的高低,俄乌战争走向,甚至中国是不是个社会主义这些“哲学”问题,那肯定是强人所难了。 在可预见的未来,键政的圈子里肯定不用担心GBT的参与。 口水贴可以,但是像我这个的帖子的样子,完全不用担心GBT有任何机会参与 😁,就是参与也一眼就可以识别。

通宝推:铁手,唐家山,孟词宗,
家园 这个真不是网络安全方面的问题

文章里指出的问题不是网络安全方面的问题,而是狗屁通本身的设计缺陷。例如在页面上使用隐藏文字,这是个非常老的技术。应用之一就是用来误导搜索引擎的。狗屁通对此根本没有任何分辨能力。

全看树展主题 · 分页
/ 12
上页 下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河