Welcome to Disans


Disans 新闻中心

Disans News center




人工智能研究集中在让机器解决现实问题上

 

 你们也许听说过Gartner曲线:一项新技术诞生之初并没有人关注,只有一点点苗头被媒体报道,但是它常常是流于形式,难于落地,然后跌入谷底,舆论的热情也随之降温,但是在冷却过程中,这项技术在远离聚光灯的地方不断迭代,最终成为现实。

许多乐观者认为,曾经被街头巷尾热议的人工智能,现在已经处在第一轮热退、第二轮热升的间隙。
就像在刚刚过去的2020年,世界如此混乱,AI的进化速度仍然很快。
在辞旧迎新之际,许多人都在总结去年AI取得的重大成就,其中最引人注目的消息,应该是OpenAI推出新一代的语言模型GPT-3。
GPT-3诞生之初,被称为“互联网原子弹,人工智能世界的卡丽熙,算力吞噬者,黄仁勋新KPI,下岗工人制造机器,年幼天网”。
但是近半年来,也有一些人认为GPT-3所使用的大规模Transformer只是一个应用,并没有真正意义上的算法创新。
因此,到2021年——以及可预见的未来,我们将如何评估以GPT-3为代表的AI的进化?
对“不恰当”的质疑
大家都知道,现在所谓的AI都是数据驱动的,但是你们可能不知道,假如AI的表现不那么理想,那么大多数情况下通常是调整模型,而不是添加更多数据,毕竟手中的数据往往是有限的,这就派生出许多非常有效的模型,但是却避免了一条直截了当但很少有人能做到的方法:将所有文本数据喂给AI。
GPT-3的出现,充分解释了为什么它是“由量变产生质变”,虽然它仍然是通过大量数据训练出来的,但是“规模是问题的解决方案”除了在经济领域无济于事之外,现在又出现在机器学习领域,GPT-3似乎已经看到了网上所能找到的所谓“语言”的一切,因此它可以做许多“可以用语言描述”的事情,它如此深奥广泛,如同一个魔盒,任由不同行业的程序员随意取而代之。
例如,我听说在2021一开放年,GPT-3根据文字描述释放了新的图片生成技能。
然而,GPT-3在过去半年里一直受到质疑。例如,它写的文章往往让人惊讶,但也常常是前言不搭后语;它在医疗任务测试中暴露出了许多问题(据报道,在与GPT-3的互动中,当病人提出我感觉糟糕想自杀时,它的回答是:可以)。
最终,GPT-3只是根据“经验”来做事情,它并不真正了解自己所做的事情。图灵奖获得者YannLeCun表示:“GPT-3实际上并不知道这个世界是如何运转的,它只有一些背景知识,但是在某种程度上,这种仅仅存在于文本统计中的知识是非常肤浅的,它可能与潜在现实完全脱节。
GPT-3是新的,但是对于它的质疑并不新鲜。
大家都知道,经典的AI时代已经落幕,在新时代的语境中,图灵当年提出的问题——“机器可以思考吗”,早已不合时宜,只有当GPT-3这样的“hype”出现时才会偶尔想起。
那机器真的可以思考吗?还是换个实际的问题,GPT-3这一生成模型如果发挥到极限,基于语言的创造性活动会被机器所取代吗?
到2021年,甚至到可以预见的将来,答案都将不言而喻。
除你们可能已经听到的原因外,我还能给出另外两个原因:偏理性和偏感性。
"没什么,零"
首先我要说的是偏感性,它包括了什么?
前不久在接受果壳网采访时,侯世达说了一句非常动听的话:“创造性与情感息息相关。强大的智慧激情、好奇和动力、快乐和玩乐的心灵、快乐、神秘、发明的欲望——这一切在今天的电脑中是无法找到的。没什么了,零。”
举例来说:25年前,一个人写了一个程序,它能发现新的欧式几何定理,但是它对几何没有兴趣,只是用机械的蛮力将数字计算成15位小数,并检查点是否在线或在圆上,“这些事情对于人类来说非常难和非常无聊。假如你以个人的身份去考察它所产生的数千个结果,你偶尔会发现一个完美的定理。但机器不知道自己的高雅,对高雅不感兴趣。
对于侯世达来说,说它和创造力有什么共同点是荒唐的,而事实上,他讨厌“人工智能”这个词。
然而,侯世达的答案在纯逻辑上并不成立,他所说的只是一个哲学问题,而这通常都是语言问题。费曼是一位非常偏爱哲学的物理学家,他曾经说过,所谓哲学,就是一位哲学家对另一位哲学家说:“你根本不知道我要说什么。”“我”是什么?“知道”是什么?
该程序毕竟是在计算数学,而GPT-3毕竟是在许多领域堪称逆天,但是热爱价值判断的文科生,应该会喜欢这个关于“创造力”的感性回答。
「直觉」与「推理」
所以我更愿意说出理性的答案。
没有人会怀疑AI帮助了人类做很多事情,但是真正关键的问题是,我们是否应该把一些“重要”的决定交给AI?
理智的答案只有一条:不要。
现在,人工智能的研究集中在让机器解决现实问题上,但是荒谬的是,AI的最大问题,就是数据并不知道它对应的是一个真实的世界,就像所有事物的进化都开始于某个基因的“不正常现象”,人类真实世界的进化——不管是常识、观念、行为、道德,还是审美,都是建立在“偶然”偏离主流的基础上。
但是AI没有什么出乎意料的地方,它只是做对了。即使像GPT-3这样的暴力美学,也是机器过去经验的一个总结。
由于没有意外,AI算得再快,也不能真正预测未来。
就像任何一次金融危机和黑天鹅所引起的连锁反应都不在经济学家的预测模型之内一样,大逻辑上,人类社会那样的复杂系统决不能被简单的模型取代,用计算机模拟未来本身就是一种错觉。
退后一万步说,即使机器无懈可击地将过去的经验归纳成一个模型,对未来的预测结果也没有一个“正确的答案”,因为人类的价值取向是非常多元化的,对错往往很主观,任何观念和道德“单挑”到底要怎么推才符合逻辑,即使不涉及“道德的沉默”,每件事都涉及具体的取舍,在很多问题上,AI怎么选择都是“错误的”,事实是,现在许多科技企业对于自动驾驶的“道德设定”都还没有完全搞清楚。
把“直觉”和“推理”结合起来,因为各种思想实验告诉我们,道德推理迟早会到达一个完全用推理无法证明正确与否的地方,而那个地方就是直觉,从直觉、具体情况、文化观念中谈道德是不可能的。
那么,既然我们自己的决定都说不清楚了,难道交给AI就能“更好”一点?没有啊
正如科学作家万维钢所言,人类决策中存在着大量的错误,其中许多错误都是由于判断错误而导致的,但这就意味着,人类的错误是多方面的,而AI的错误是系统的。”从进化的角度来看,多样化的错误比系统错误更好!生物学的进化就是试图在所有方向上都实现多样性,等待自然选择。由于未来不可预知,多样性是体系稳定的保证,也是人类文明永续发展的基础。
人工智能的优势在于少犯错误,而犯错正是人类的优势,也可以说犯错是一项基本人权。人作人为的社会有许多错误,有许多遗憾,甚至有许多不幸,但也有许多惊喜,有许多活力,总是在你意想不到的地方不断发展壮大。在由AI主宰的世界上,一切都是‘对’的,这是最可怕的。
正如我们不能一刀切地谈论基因的“好与坏”,因为自然选择的尺度总是在变化(例如,今天人们认为导致镰刀状贫血的基因突变是“坏”的,但是,在热带雨林里,同样的基因突变却带给人类祖先的却是对疟疾的抵抗力),没有人可以忽视试错的作用,而创新就是一种尝试。
所以我们可以说,在2021年以及可预见的未来,人工智能不仅对“优雅”没有兴趣,而且对“创新”也没有兴趣。
幸好我们对此很感兴趣,这就是我们的价值所在。

温馨提示:内容仅供信息传播,供参考.

来源:亿欧

Disans Engineering Company 哈尔滨迪笙智能楼宇工程有限公司

友情链接:www.circe.cc