淘客熙熙

主题:关于自然语言的机器识别的一种构想--内有科幻内容,慎入 -- 陶醉

共:💬36 🌺76 新:
分页树展主题 · 全看 下页
  • 家园 关于自然语言的机器识别的一种构想--内有科幻内容,慎入

    79. A year spent in artificial intelligence is enough to make one believe in God.

    Alan J. Perlis

    上周周末,大学同寝室同学聚在一起吃饭,作为已经是it民工的我们,很快就三句不离本行,聊开了各自在码的活儿。j说,你知道吗,现在的编译技术可先进了,我现在正在用以下的类自然语言写测试案例:

    [<Scenario>]

    let 当把a从一个小链表中移除后_它不应该包含a() =

    对于 [f;g;a;c;k]

    |> 当 移除 a

    |> 它 不应该 包含 a

    |> 它 应该 包含 k

    |> 验证一下

    我:嗯,好吧,那我要是把“验证一下”敲成“验证”、“验证一下下”、“验证下”、“靠,快验证!”,那行吗?

    j:......现在是固定的,不过以后可以改进,现在的programming language正在和自然语言靠拢。

    我:问题是,这个还是上下文无关的语言啊,怎么着也不像自然语言啊。

    j:......

    既然扯到了自然语言,于是乎,我们在痛陈目前大伙儿写的东西是多么没有技术含量之后,话题就从比较靠谱的领域转向不那么靠谱的方面,胡侃了一把自然语言的机器识别问题,曾几何时,俺们都想当科学家。。。然后两人都觉得不是太过瘾,因为两人其实都不懂人工智能,纯扯淡,所以我干脆就搬到西西河上来抛个聊天的话头儿,让河里各位方家、大牛过来,聊点目前这个领域实际的进展。

    我们都知道,人类设计制造计算机的一个终极目标就是让机器能像人一样思考,而不是只是让它天天出报表、存文档、放视频,这是非常伟大的理想,有无数科幻作品以此为题材,这个咱们有空另开贴讨论。是个目标,就得有个考量的标准。计算机科学的先贤图灵在一开始就提出了考量的标准,那就是著名的图灵检验,也就是说一个软件如果能跟你qq聊起天来让你感觉不出它是机器人小强,那就证明了它能像人一样思考。这个考量是非常客观的,因为语言是人类思维的结晶,从此以后,无数的计算机科学家都开始了对语言的研究,伟大的计算机革命拉开了序幕。

    好了,以上是大家都知道的内容,下面是我当时不靠谱的推测:

    机器之所以无法正确的把握有上下文的自然语言,普遍认为是因为首先自然语言中有太多的例外了,机器无法定位词汇在语句中的用途,然后又因为说话人的背景千差万别场景太多,无法穷尽,最多只能靠基本的概率方式来统计,所以不能精确。但是我觉得这些认识都忽略了语言的原本目的,那就是以最简短的编码来表达一个连贯的图像变化过程,即让人能调出认识中的一段或一系列经过特殊组织的图像流。我们读到每一句话,或说出每一句话,其实脑海里都会相应的产生一段映像流,即使再抽象的词汇,其构成或最初的语义都是具有形象的,词汇之所以变得抽象,是因为其已不能被三维空间中的图形变化过程所直接代表,而是代表一系列的原本在空间中毫无相关性的映像的联系。而人所谓的思考和学习,就是打断和重组记忆库中的图像流片段的关联,甚至产生新的图像流片段。对于机器而言,如果它不能映射语言背后所代表的映像,所谓的“理解”无处而来,只不过是简单的图书馆检索而已。

    实际上思维是根据感知来的,这也是人工智能对思维的一种基本理解。而人的感知里头9成以上都是靠视觉。所以,貌似可以说,人的思维,就是在不停的处理图像流的过程。而自然语言,则是对经过抽取和组织的图像流片段的各种各样的标记方式。即使是同一个东西,每个人看的角度(这里不是抽象的角度的意思)都是不同的,所以每一个人对同一句话的所产生的映像都是不完全一样的。

    如果将人的思维系统拿出来当作某种图形识别引擎来理解,那么我们就可以发现是可以很好的划分成几步的。首先,这个系统每秒处理24帧2d图像,如果图像是连续的话(变的太快人会头晕,感觉虚,系统宕机),则通过匹配图像变化序列当中的光影规则,在这些2d图像中抽取出视界范围内所有物体的大致的3d的图形结构,并推演出物体无法被观测到的面的3d结构,然后记录这些图形结构的相对位置,如果图形结构的相对位置发生变化,则记录这个变化的过程,并按照这些结构的变化的重要性来对过程记录进行截断、归档、关联。而一个图形结构变化片段重要与否,则由这个变化是否会对人的自身维持和繁衍造成影响而决定,这个决定,部分由本能编码而来,部分由对记忆中,类似变化是否有益于自己而学习来。如果我们能 dump我们的意识流出来的话,我们应该能看到海量的图形数据流在不断的刷屏幕。

    基于以上认识,是否就可以考虑实现一个简单的有空间认识的自然语言识别器,这个系统能实现人的最简单的甚至是无意识的一步(因为人的这个处理能力是相当快的),那就是根据连续的二维图形上的一个带投影的面把其他的面都补充上来。实现了这个能力,机器就有了所谓的立体观,这样,机器就能理解方位,左右,以至于你我他。然后,就可以给这个机器输入海量的影视资料(当然是配字幕的),编入基本的语法规则(这个就不通过图形来教了,那样太慢),接着再给这个机器输入全部维基百科,这个时候,这个机器就能真正根据知识来学习,形成对自然世界的映像描述了(我们debug的时候就能看到机器在阅读的时候的图像刷屏过程),神经元算法作为一种对人的大脑活动的一种有效的仿真模拟,就适用于这个阶段的根据元编码驱动去修改抽象图形、映像结构的联接枝上。人在与这个机器进行对话的时候,机器首先将输入的语言匹配出现过这个语言的所有映像,然后根据维基的知识推得场景的变化过程,再根据对对方的推断及对自我的认识来决定反馈何种信息。是的,自我,有空间的辨别,很自然就能形成“我”的概念,不过,我个人认为这并不必然的就会有导致机器有啥邪恶的行为,因为机器的源动力(对其而言就是源编码)与其自身存在没关系,这个机器确实可以感知它自我的存在的,不过,是处于一种无关痛痒的状态,源动力作出的刺激会不断修正它的行为,比如说,要它当活雷锋,或者输入三定律,当然不排除它的源被修改成暴力的因素。

    在诚实的情况下这个机器应该是完全有非人的思考的,尽管它确实能理解人的语言了。比如说 ,你问它,你今年几岁了,如果它能思考,它不会说它多少岁,因为它就不是人,它应该回答,岁数是人才有的属性,我是在xxxx时候启动的。最终这个机器通过对其被直接编码进去的逻辑控制产生图形认识之后,很可能产生我们所谓的理性思维的能力。

    ------------------------------ 华丽的分割线 ---------------------------------

    说完之后回头一想,我自己都觉得太过科幻不靠谱了。就此请教各位大牛,目前人工智能,语言识别的实际发展如何?

    开头的引用来自图灵奖获得者Alan J. Perlis的文章Epigrams in Programming,很有趣,下面是链接:

    外链出处

    关键词(Tags): #AI#机器识别#自然语言#人工智能通宝推:鸿乾,
    • 家园 非常高兴看到这个6年前的老帖,非常好,不知楼主是否还在?

      恭喜:你意外获得 16 铢钱。1通宝=16铢

      作者,声望:3;铢钱:4。你,乐善:4;铢钱:-16。本帖花:3

      可惜以前没有看到这个帖子。我很赞同这个思路。现在的发展是怎么具体把这个思路做成型。当然,也没有必要考虑“人的思维系统”这样一个太大的问题,考虑一个小的但是有效的问题就很好了。例如我提出的元学习机。

      如果楼主还在河里游动,请联系。

    • 家园 跟着胡扯几句

      不一定是映像,是和人脑里既存的模板(模式)比对,并不断修正这个模板。

      • 家园 修正的依据

        则是外部刺激产生的人的快感与痛感之类的内部奖惩机制。

    • 家园 谷歌有猫脸识别算法,能从图像中寻找特定的一只猫

      这样能让电脑分析什么是猫。

      ————

      不过奖惩电路,犒赏电路我觉得没法模拟吧?让某个程序占有更多CPU时间,Ram容量啥的,这个程序自己能感受到快感?不太可能吧?

      没有快感,也没有痛感,没有恐惧,也没有喜悦,这样的程序类似切除了什么胼胝体的精神病人,估计没啥主观能动性,生存本能也近似没有,只是照顾他们的人比较省力罢了。

      感觉,不太可能产生出自我意识来。不过,美国有用蚂蝗的神经细胞做计算机的基础运算单元的实验,如果是用活物做生物计算机,那要搞出犒赏功能,快感功能应该是有可能的吧……

      不过这样想下去,会不会搞出来的算是某种转基因高智商生物?不知道还算不算电脑了~~

      • 家园 如果我没弄错的话,嗯,这是不同的概念

        在图像中识别出猫,或者检测到猫的存在与位置,大小。。。

        这些和电脑分析什么是猫,使两个完全不同的概念。

        前者,与人脸识别/检测是一样的。应该说目前主流的方法都是通过统计学习而来。就是说,先用各种各样的人脸来进行统计学习。。。比如产生一张标准脸。然后再用此标准脸去进行尺度,位置,亮度,模糊程度,等等空间的搜索,从而通过与标准脸的匹配程度来识别人脸与检测到人脸的存在。

        而让电脑分析什么是人脸。。。这个思路不像是目前流行的统计学习的思路,反而更像人工智能早期的结构,语句,逻辑的思路。

        • 家园 昨天Google brain那个叫le的越南人出来说话了

          机器学习现在最难的就是这个unsupervised 学习。我估计深度学习在实现语言识别等应用后将会进入一个平台期。

          进一步的人工智能进步需要等待硬件水平在下一个十年的跳跃发展才行。

      • 家园 您这都是猴年马月的新闻了,最新的是百度作弊了

        ImageNet大赛

        话说可惜陶醉这位楼主不来了,这个帖子亏了你挖出来,楼主09年的狂想,今天看起来还真有些启发。难怪图像识别一直是人工智能里重点投资方向,这个智能与图像的关系可是大大的。

        人的学习过程恐怕不是单纯的自我奖惩过程,否则很容易走火入魔进入精神病状态。与自然界的印证,对于简单的概念还可以,抽象的就比较难了。我感觉是人与人的交流在复杂概念的学习中起了很大作用,你的理解,我的理解,互相通过语言交流一下,在大量的交流后,比如课堂,比如读书,看看自己的理解靠不靠谱,可以起到奖惩的作用。

        所以人工智能如果想达到接近甚至超过人的水平,至少在一定阶段与人交流就很重要,或者通过阅读人的书籍起到同样作用。那么机器的掌握人类的语言就是一个要求。

        • 家园 之所以图像识别成为智能的重要方向,原因基本上有二

          1,人自身有超过 9 成的直接感知信息来源于双眼。

          2,图像是二维的。与一维的信号相比,从一维到二维不光是维度多出了一维,而是在信号处理与分析的复杂度上立刻多出了旋转,多出了离轴tilting,等等地,这对从信号中提取信息所带来的计算复杂度与从二维到三位乃至更高维是一脉相承的。

          • 家园 有没有过统计天生瞎子的智力是不是低于常人

            我知道的是人的视力不光是视网膜,眼球的问题,还与视觉神经大脑皮层有关。有些弱视的不是眼睛的问题,而是大脑皮层发育的问题,比如少儿成长中用眼不良习惯等。

            我对楼主想法惊到的是,如果人脑是从一个图像处理“机器”进化出来的复杂智能的呢?

            • 家园 这个。。。应该不会吧

              毕竟,对正常人而言,是90%以上的信息来自于双眼。

              但是并非说没有双眼的信息就会大大减少智能的发育啊。最多也就是对颜色/形状/立体之类的高层次概念会有认知障碍。

              这倒是有一个佐证:很多哑巴其实并不是真的哑巴,而是耳聋带来的后遗症。这已经是医学上很重要的一个康复内容了。

        • 家园 hao123等主页热衷介绍一些社会上的破事,我能记得一些

          科技新闻不错了。

          社会的发展过程按西方理性经济人假说型经济学的那一套来说,不就是一个人人逐利,然后淘汰不能生产出让大众满意的产品的低效或者落后企业的过程么?

          那人的学习过程自然也是有一个奖惩、犒赏的过程。如果学习知识不能活得高工资的好工作,恐怕不少人是厌恶学习的。

          甚至挣不到钱,吃不饱饭,根本没有饥饿这样痛苦的感受,人也不会对死亡有啥恐惧心理了,恐怕都难以产生自我意识了。

          我接触的理论是人的好逸恶劳,将本逐利之类的利己本能可以催生自我意识,辅助学习只是这些本能催生自我意识的过程中的副产品罢了。

          ————

          当然,学习,工作、享受过程中会出现厌倦现象,这说明了不管干什么事情,人的满意度都不是单增的,会出现一个曲线,到达最高点后就反而会感到厌恶,类似刚开始吃奶油蛋糕感觉很满足,天天吃,吃3天就觉得想吐了。

          然后换别的东西吃,才会有新鲜感,于是会重新开始满意度曲线的增长和衰落。

          同理,做喜欢的事情当工作,例如职业游戏玩家,干久了也会有厌恶度曲线从负值(一开始把网络游戏当工作的人可能不仅不厌恶,还感觉满意呢,所以算是负的厌恶度),走向正值,后来越来越厌恶的情况……只是蹉跎了青春后可能也没那么容易换工作就是了。

          • 家园 人开始学习应该是本能的一部分

            可能是求生的本能吧,这是基因中的。但是人自打一出生,大脑是停不下来的,即使无意识的大脑也在学习中,对外界的视觉等感官是随时随刻都向大脑输送信息,而大脑也不断的在作出反应。高级一些的判断推理等在动物中也出现过,都是与生存有关的。人的复杂学习过程,本质上也是生存驱动的。

            如果把感官的信号切断,或者人有意识的忽视感官信号,大脑同样不会停下来,也会发展出自闭症等精神问题。

            新鲜感实际上也是一种学习上的奖惩,因为大脑是不管你是在上学还是在工作,对它来说都是一个学习过程。对新事物新体验的好奇与追求也驱动了学习,了解的越多也可能更想学习,也可能产生厌倦感而更换学习方向,比如厌倦感的产生可能与学习中的挫折有关,也可能与学习的太容易有关。

            好逸恶劳与将本逐利是自然界中所有动植物的本能,这与生存有关,减少自己行动中对能源的消耗,并尽可能的扩大能量到来源,就是开源节流,这是自然原理,其过程的复杂程度随生物种类的智慧程度而不同,但是本能都是一致的。但是能不能发展出自我意识,似乎对这个开源节流的目的没有什么帮助作用。

            人的自我意识除了在人与人之间的相互竞争中有用外,对人的生存并没有什么用处,附带的还得制造各种信仰维持精神状态的平衡。不过,人的确是各物种中唯一同类间竞争最激烈的。

            很可能人类因为智能的发达,自然界中所有物种都不能成为威胁,只有大自然本身与其他人类才是人的最大威胁,因此激烈的生存竞争催生了自我意识。

            所谓自我意识可以有一个很简单的概括,不需要图灵那些解释。就是同理心,比如我知道你怎样看我,你也知道我在打着你的注意。虽然动物之间也会有这种简单的意识,比如野牛也知道狮子在打它的注意,但是人可以更复杂一些,比如博弈论中提到的那些情况,因此同理心在智能的基础上趋向复杂后就必须产生自我意识,换句话说,自我意识就是大脑已经把这个承载的躯体当作另一个个体去看待的时候的思维特征。

            • 家园 有自我意识的话,会更主动的寻找能量,储备粮食

              磨练体魄,竞争配偶啥的高级活动也会有。没有自我意识,有阳光就进行光合作用,没有就等着……仅仅依靠基础的本能活着,那似乎无法主动进化——发展科技什么的。

              当然有的人的自我意识可能反而是不利于生存的,算是自我意识发展过程中的一切……随机性错误?譬如重度抑郁症,总是产生想死的反求生的欲望之类?

              ————

              对计算机来说,没有最直接的快感痛感,没有好逸恶劳,最多人类给它设定一些指令,譬如GPS卫星导航的过程中让它计算两点之间不违反交通规则的最短路线啥的。

              计算出来它也没有快感,计算不出来它也没有痛感……这样它要产生自我意识,并且为了追寻更多快感啥的好好工作,努力自我优化自身代码啥的……似乎就不太可能了。

              它就不太可能有主动进化的欲望,只能像植物一样被动地运转着。

              当然好消息是人类不用担心它们会造反了~~

              ————

              呃,另外按某个统计学学者的说法,人是既有好逸恶劳本能,又能把这种本能用数学方法主动进行量化的高级生物,能对各种生产生活活动进行精算,衡量得失(个人的一些行为往往非理性,但是组织化以后总是要进行理性计算的)……

              人是会数数的,有好逸恶劳本能的动物。

              而我个人的补充是这个好逸恶劳要和快感、痛感之类的主观感受联系起来的。

              电脑如果只是机械地按照人编写好的公式去运算指定的问题,自己没有主动运算一些问题的想法,冲动,欲望,运算成功后也没有快感,失败后也没有痛感……那么感觉电脑是没法实现自我主动进化的,连自我意识也产生不了。

分页树展主题 · 全看 下页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河