主题:【原创】AI对人类社会影响能有多大? -- 真理
对于这些Chat AI,如果有人只说好得很却不谈幻觉问题,我都会怀疑他到底深度用过这些Chat AI没有。不要用那些莫棱两可的、脑筋急转弯的问题和它们对话,这除了增加谈资,别无用处。要对话就在某个自己擅长的领域和Chat AI明明白白地交流。基本上都是还没碰到自己的边界,Chat AI就先出现幻觉了。
OpenAI公司认为需要5年解决幻觉问题,大家都很期待。我用Chat AI解释过算法,解释过数学公式,尝试设计过代码,也尝试重构过代码。无一例外,都碰到过丢失记忆和幻觉问题,都没有能完全地完成任务。我现在还把这些Chat AI当成一个有用的工具,但对话频次少很多。一般先用编辑软件里修改好问题后再对话,提示词尽力做到明确表述问题,每个可能不清楚地方都会有解释。对话一些内容后,感觉不对头就立刻停止,然后回头再一条条地验证,或者用google/bing来搜索。花费的时间不少,但总体比直接用google/bing来搜索文章后再理解的学习效率要高,相应的,单位时间里用脑程度也要高。
我现在都不敢让Chat AI提供相应的论文和参考项目了。论文或书籍的ISBN都能编造出来,网址也编出来,全是假的。AI法律助手也会碰到类似问题。一段信息,我们不知道AI是怎么分解形成链接并存储到哪里,也不知道再次聚合时AI会怎么做加工处理。将原有信息原原本本的输出反倒成了不确定的事情。很容易就发生张冠李戴,互相掺杂的问题。
前面那位“热河蛮子”河友解释得很好,要把Chat AI当成语文老师看待,而不能当成数学老师看待。我的经验,让Chat AI进行精确的符号推导确实有问题,包括编码也是类似问题,但是让它们用文字讲解基本的数学概念,错误的地方并不多。不过它们的输出内容和教科书的组织方式和关注侧重点也不一样,从来就不是教科书的复制。把它们当成语文老师,这就很容易理解了,它们是把相应知识进行内部“理解”后(所谓的“理解”,基本是根据大多数资料的概率分布进行组织),以它们的方式进行输出。因为自然语言的容错性或模糊性,我们会认为新组织的内容也表达了类似的意思,也是对的。但这时候想要像数学老师那样精确输出,进行精确的符号推导,就没有模糊性可言,这方面Chat AI就不擅长了,很容易就出错。类似地,不需要它们自己的“理解”,从链接里聚合原文并一字不错地输出,对它们也是困难的。以前读书时,哪位同学要是自己理解了,以自己的组织方式回答问题,而不是死记硬背,老师会直夸好好好。现在Chat AI的情况正好相反。
未来现在还没有来。先把眼前幻觉这道坎解决了,再谈下一步。 就目前的状况,是“文科生”有用还是“理科生”有用,还可以争吵5年。
- 相关回复 上下关系8
压缩 3 层
🙂教学恐怕不行,学生不学咋办 2 潜望镜 字512 2023-07-13 11:05:46
🙂对这波AI行情,恐怕是太乐观了。 62 shuyong 字3723 2023-07-10 10:35:53
🙂你这显然是把杨立昆的话断章取义 2 真理 字2145 2023-07-13 19:20:57
🙂其实我怎么误解不重要,重要的是OpenAI公司怎么应对。
🙂你是在纠结一个一点都不重要的问题 1 真理 字497 2023-07-16 06:30:35
🙂不要找语文老师问数学题 5 热河蛮子 字94 2023-07-13 10:46:00
🙂基本上同意 9 pattern 字973 2023-07-11 02:29:02
🙂就算是大力出奇迹,那奇迹呢? 13 贼不走空 字566 2023-07-10 01:37:31