国内反射弧确实有点长,去年底推出的chatGPT,现在才在国内火起来

avatar
(Edited)

image.png
题图作者:cheva用AI创作

Chat GPT 这两天在国内又火了,其实它在两个月前刚刚发布的时候,就已经在国外火得一塌糊涂了。所以这次主要是在国内火起来,而且有点让人莫名其妙。也许这就是那座伟大的防火长城造成的延时效应吧。因为这个东西不光访问它要翻墙,就是注册的时候,中国大陆的手机号也是收不到验证码的。就连比较常用的Google Voice等VOIP号码也收不行。我当时是通过一个专门接码付费的网站花了几块钱才注册成功的,所以对于国内的用户来说还真不是一般人随随便便就能够使用的。

经过这个把月的使用体会,我觉得这东西确实是革命性的。它的知识量非常的丰富,可以即时回答你的任何问题,虽然答案并不总是准确的,但是也完全够用了。这段时间我主要是让它帮我解答一些和编程相关的问题,它基本上都能给出让我满意的回答,甚至直接提供代码。虽然有时候它也不能很准确的理解我的意思,但是经过几番沟通,最终都能得取得还不错的效果。感觉仿佛真的有一位编程高手在替自己打工一样。而且最关键的是它几乎随时可用,随叫随到,不像人类那么麻烦。当然前段时间,由于OpenAI要推它的付费计划,我的免费帐号经常会延迟和报错,这几天好像情况有所改善,对于我这种轻度使用者,免费帐号已经足够用了。
Chat GPT的兴起让人看到了一种和设想中完全不一样的未来。人们一般的设想,随着科技的进步,那些比较低端的以体力劳动为主的职业会被人工智能和机器取代。但是Chat GPT却完全展现了另外一种前景,以它现在的能力,几乎马上就可以淘汰很大一部分的程序员,各种靠自己掌握知识吃饭的专家顾问型的职业。而这些职业目前还是职场中的高收入人群,相反那些从事低端的体力劳动为主的职业者,则完全感觉不到Chat GPT这种人工智能的威胁。也许他们很多人都没想到,在人工智能技术革命的浪潮中最先被淘汰的,反而是那些高端脑力劳动者。似乎绝大部分人类离黑客帝国中那种仅仅作为人肉电池而存在的科幻未来又更近了一步,因为大部分人类只能去从事不需要专业知识的低端行业。当然也不必真的如此悲观,也许像GPT这样的生成式文本人工智能,能够帮人类拓展更宽的领域呢?毕竟它也只是一个工具。

这次Chat GPT在国内莫名其妙的迟到的火爆,另一个原因,是让国内的企业看到与美国同行的差距。因为这些年国内的AI技术发展也是非常快的,而且应用领域也很广,一度让人认为中国在AI技术方面已经和美国并驾齐驱了,甚至有反超之势。而Chat GPT的发布似乎让人们又清醒了起来。其实Chat GPT的技术都是公开的,或者说这个东西并不是一个纯粹的技术问题。

大致了解了一下Chat GPT的原理,其实它和我们昨天说的线性回归,那个最简单的AI问题本质上也是一样的,都是通过以往的历史数据,总结规律,然后给出自己的预测。只是Chat GPT所处理的是文本。之前在网上看到过一个开源的人工智能写小说的程序,就能够非常好的说明这一类AI的工作原理。会写小说的人工智能的训练过程就是把网上的各种爽文小说转化成人工智能能够懂得形式,然后给出小说的某一部分,比如开头的150个字,然后让AI预测下一个字是什么,将预测结果和原文比较,如果预测的不准就修改AI模型的参数,经过大量训练之后,这个简单的AI也能写出虽然情节乱七八糟,但是语句还挺通顺,甚至有些文采的小说章节来。Chat GPT的基本训练方式也是如此,只是它的训练数据是互联网上的海量文本信息,几乎包含人类所有的知识。这样一来,它一开始实际上是不分好坏的,因为互联网的信息有真有假,有好有坏,它一开始都是不管这些,照单全收,所以生成出来的回答也是五花八门,甚至让人三观尽毁。然后下一步就是要人类参与进来,对它生成的各种回答进行审核,如果回答准确或者价值观符合OpenAI公司的理念,就会给这样的回答进行奖励,如果不能让人满意,就修改参数让它重新生成。可以这样理解,初步生成的模型就像一个童言无忌的孩子,知道什么就说什么,毫无顾忌。然后后面的人类训练,就是让它接受社会的毒打,学会见什么人说什么话,这个过程似乎和一个人的成长过程还是挺相似的。所以从这个过程可以看出,决定这类模型质量的,并不是技术水平,也不是算力大小,而是社会环境。所以可以这样说,国内训练出来的模型就像成长在中国的人,和Chat GPT的差别就和成长在美国人的区别一样大。

相比较之下,我并不认为中国社会的自由度比美国的要差。但是中国的政治体制是偏向于威权体制的,统治者倾向于将自己塑造成全知全能的化身。而一个人人可用的,近乎全知的AI系统,显然对营造这种氛围,是非常不利的。因此这种研发活动,不可能受到政府的资助的。其次就是出于维稳目的,威权政府对信息的控制是非常严格的,而我们知道,AI技术非常发达,但是对人类来说,它基本上就是一个黑箱,人类是无法控制,或者预测它的具体行为的。尽管像刚才说的,人类可以通过训练,让AI说我们想听的话——网上就有让Chat GPT给川普写赞美诗被拒,让给拜登写却肉麻至极的截图。但是这并不能有百分之百的保证。而一个不符合统治者价值观的信息,在大量使用的情况下,必然会被AI生成出来,然后被互联网的传播效应放大。而且最让统治者头疼的是,以前可以把造谣传谣者抓起来,但是现在你不能把产生错误信息的AI也抓起来了,所以从事这类研究的国内公司,将会成为主要的打压对象,所以这项技术上中国可能是无法超越美国的。因为尽管美国现在左派横行,对舆论的箝制也非常厉害,但相对于国内来说,还是要宽松不少。



0
0
0.000
2 comments
avatar

的确是,墙的太厉害就会扼杀创新

0
0
0.000