淘客熙熙

主题:【脑洞】由恩格斯的几段话而产生的联想 -- AleaJactaEst

共:💬57 🌺112 🌵1 新:
全看树展主题 · 分页 上页
家园 信息技术发展得太快

十年之后,也许每次聚会每个人说了什么,上帝都会知道,毕福剑之流无所遁形。

二十年之后,也许王思聪在卧室里用什么姿势日狗,上帝也会知道。

还想造反?

家园 哦,你们的乐观,原来是建立在对人性的乐观之上的。
家园 有人的地方就有江湖,就有利益纷争,就有分裂重组。
家园 技术是把双刃剑

技术的完美控制其悖论就是全民程序员(黑客)的反控,其实只要人的智力还是“有用”的,那么就很难避免道高一尺魔高一丈的循环,这点老兄倒不用担忧。但是技术的发展有一点确实是很“麻烦”的,那就是技术是否最终让人类智能无效化,围棋被突破,让我彻底没了信心。从发展方向看,人工智能干死大部分人类智能简直是板上钉钉的事,然后就又轮回到了“封神榜”的情形,只是这回“物联”申公豹要把姜子牙踩在脚底了,人类作为低等智能生物技不如人,被剥夺“人权”也没啥好叽歪的,要么自我升个级,变智能生化人或生化机器人,要么乖乖进博物馆动物园而已,毕竟吃鸡吃鸭吃天吃地这么多世纪了,被反攻倒算也不算冤了。。。。。。

家园 只有等待数学上的奇点出现

终于大家开始意识到严重问题了。以前我在茶馆就说,这种情况只有出现数学上的奇点才可能推翻这种极权。我没有说的是人民将要渡过相当长的黑暗期。

我现在考虑到的可能场景,就是统治者太依赖于AI机器,过于以自己的意志行事,最后得罪绝大部分人时,人民会开发出类似眼色,口型,肢体语言,袖內手语等各种方法进行交流的。当人民忍耐不住时,就像八月十五杀鞑子的传说,同一天启事。首先在同一时刻把全国所有的监控摄像头破坏,破坏所有的数据运算中心。然后消灭所有的没有合作的天使,最后是上帝。如果要达到这种地步,你可以想象统治者已经使大众天怨人怒到什么地步。另外一种可能就是,内部民众配合外部势力毁灭这个国家,可能的发生时间点就是两国冲突时,如果是这种时刻中国就会四分五裂,生灵涂炭,永不复国了。任何敌人都不会再给中国机会了。这个统治者会被所有曾经的中国人永远的唾弃。不管那种情况发生,中国将会变为一个防止技术发展的社会。

说到这儿,突然想到现在的发展趋势就像是在去除大众对技术的了解。这一切都显现在教改中。那么可能性一种是配合国外统治阶层,瓜分世界。一种就是他们意识到大众对技术的理解,可以危害他们的统治。

还有一种可能性,就是从现在起宣传这种将来社会的恐怖性,并让人们意识到严重性。在现在技术人员开发设计构架的中央AI管控控制系统中,说服他们,采用决策分权制度,让尽可能多的人参加影响AI决策,这样这些人,就可能代表更多的人的利益,缓解社会矛盾。使社会均衡发展。

家园 在中央控制计算机构架系统完成后

人性几乎没有任何作用,要用血和时间及毁灭才能翻盘,那时一切都晚了。那时的人心是再也不相信任何机器了。

家园 我指的人,有且仅有,特指主席台上的股东。屁民不算。

如果前三排自个儿分裂了?你说下面的AI技术骨干怎么选择?你认为前三排个个是AI的专家级技术骨干?而不是这些AI技术骨干被“前三排”所使用、控制?

屁民的作用就是充当改朝换代或者争权夺利的工具或炮灰,里面的少数精英分子可能机缘巧合,荣升股东,大多数,呵呵。

家园 你看前三排有多少人

能够意识到这个问题,又有多少人意识到了还能参与构架设计中,即使参与进去了,他们又怎么能够确定最终使用的决策控制系统是那个他们参与过的,即使是那个他们参与过的,他们怎么确定控制系统不会被别人改动,或者系统自我进化?甚至在构架设计开始时,就可以用资源有限借口把可能的竞争对手排除在外。

家园 2个问题需要你自己再思考一下:

第1个问题:一个复杂系统的构成越庞大,参与人员越多,就表明这个系统的专业性就越强,分工细化就越精细,个体在里面就只是一个螺丝钉,试图瓦解摧毁系统,没有一个有组织性、纪律性的“团体”主导,居中指控运筹,是不可能的。这可以理解为常说的”系统性风险“,原有的控制系统(与政治体制同义)失灵,新兴系统侵蚀原有系统。

其实,这也是“保密”工作的理论基石,分工而分而治之。从古至今,所有情报保密,大型工程保密,几乎都是用这个最基本的手段进行控制 。比如皇帝陵寝工程施工就是通过将整体工程分散发包实现整体工程的保密,而掌握工程总图的人却只有极少数几个人,人一少,控制和监视就变得简单。三峡工程和中国核武器工程也是这么个搞法。河里关于核武器的宣传文中,经常的案例,很多夫妻近在百里却互相不知道对方工作就是这么回事。

可能你会说,这些技术骨干会联盟成一个你说的那种”团体“。但问题在于3点:一,一旦形成这么个团体,这个团体就具有了利益诉求,既然有利益诉求,就一定是在政治中而不是在技术中去寻找解决方案。同样,既然是因为共同的利益诉求组成了团体,起主导的就是利益需要,AI技术就只能是手中打人的工具而服务于人,一旦共同的利益需要不再,团体就会分化重组。这里面,起决定作用的就是人心,人性——自私、贪婪。二,这种团体的形成需要时间,需要具有政治才干的英雄,需要有共同的利益基础,这些东西都不是技术所能解决的,而一定是利益和现实社会的政治经济问题才能孕育出来的。三,这种团体(已经是政治性团体,而不是技术性联盟了)的形成不可能无声无息,会受到当局的严密监视。

第2个问题,AI的理论基础是图灵机。忙总的《外行瞎扯人工智能》一文有介绍。这篇文章带有很强的哲学思辨色彩,要费点劲去读。

摘要一些观点:

在图灵测试中,图灵有一个非常强的假设或先决条件:测试者(询问者)必须是人,或者说只有人才能以测试者的身份,来判断一个被测试者是计算机还是人。

这个先决条件本质是什么呢?显然就是:人的智能要高于计算机,因为人至少会一样计算机不会的事情:测试一台计算机的智能。

所以图灵在测试之前实际上已经假定:人的智能永远高于计算机,如果测试结果是:人的智能与计算机相同或人的智能低于计算机,那么结论与前提就会矛盾,就出现悖论,但是如果结论是:人的智能高于计算机,,那就只前提的重复,而毫无价值,因为这是我们测试的假设,这种测试就没有意义。

所以,用图灵测试就会得到矛盾,也即图灵测试无法判断人的智能高于计算机或者低于计算机,计算机不可能像人一样思考或者能够想人一样思考,计算机不可能具有人的智能或者有人的智能。

所以图灵机(现代计算机)建立在假设计算机是没有能力判断计算机或者人有没有智能的,所以必须依赖人来判断自己有没有智能,否则计算机就没有智能。

所以计算机的智能只能来自于测试者也就是人的判断。也就是现代所有基于图灵机结构的计算机,必须经过人的测试才能具有智能,这个命题等价于:

所有智能计算机都离不开人,因为它们必须由人来判断它们的智能。

再推广一下:计算机必须经常性地由人来判断智能。一旦脱离人的判断范围,计算机就将丧失智能。人说它有它就有,说它没有它就没有。

所以人类掌握了最后判断计算机有没有智能的能力,所以只要是基于图灵机结构的计算机,不管性能多么超级,都只是人的工具,不存在超越人类的可能。

所以人于计算机的本质区别是:人具有判断智能的能力,一个人不需要由另外一个人或计算机判断自己有无智能,他自己就能做。计算机则必须依靠人来判断。

……

这也就说目前不存在我们常识理解的人工智能。

当然,可能未来会有超越图灵理论的“人工智能”理论基础的出现,但现在不是还没出现嘛。

并且,以常人观点,现在所有人工智能都是建立在严格的逻辑推理基础之上的,但人脑智能和人类社会,并不完全受逻辑推理支配,这是人与机器的最大区别。

家园 低端人口的末日。。。

从发展方向看,人工智能干死大部分人类智能简直是板上钉钉的事,然后就又轮回到了“封神榜”的情形,只是这回“物联”申公豹要把姜子牙踩在脚底了,人类作为低等智能生物技不如人,被剥夺“人权”也没啥好叽歪的,要么自我升个级,变智能生化人或生化机器人,要么乖乖进博物馆动物园而已,毕竟吃鸡吃鸭吃天吃地这么多世纪了,被反攻倒算也不算冤了。。。。。。

家园 前几天写的东西不知道那儿去了

这么好吧,我不太同意忙总用图灵的哲学观点说的事。现在计算机的发展已经超出了许多人类的想象。给你两个例子。一个是google的语言对话团队开发出一对AI互相对话,看看他们自我学习发展的方向,结果到了最后开发者已经完全不能弄懂他们在说些什么,只知道他们互相能懂。Google后来关闭了这个项目。要我说,这完全可以是一种动态的新的密码学的诞生。他们完全不必要关闭这个项目,这玩意绝对有军事价值。

还有一个例子,就是Alpha go 3 是完全建立在没有学习人类知识的基础上,只是学习了围棋规则,就在自我进化几个小时后打败了1和2。这说明算法很可能最后要比数据更重要,过去的观点认为中国有更多的人更多的数据会促使中国在AI方面发展更快,这种观点现在应该得到修正了。

所以任何小看AI对人类社会的影响,都会在今后的现实中吃亏的。

家园 忙总介绍的是目前AI的理论基础,不是他自己的解读。
全看树展主题 · 分页 上页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河