ChatGPT之父提出新“摩尔定律” 每18个月AI运算量提升1倍
自半导体出现,为电子产品定下重要基石,也为科技和文明带来飞跃的进步。而半导体行业有一金科玉律在近60年前由Intel创办人Gordon Moore所提出的摩尔定律Moore’s law 。时至今日, ChatGPT之父Sam Altman又持另一想法,就住AI时代提出了新版摩尔定律。
OpenAI CEO Sam Altman“ChatGPT之父”在twitter发文提出新版摩尔定律,指全球AI的运算量每隔18个月就会提升一倍。虽然内文并无详细解释,但仍有已引起不少网民留言及过千个retweet 。其核心内容为:集成电路上可以容纳的晶体管数目在大约每经过18个月到24个月便会增加一倍。换言之,处理器的性能大约每两年翻一倍,同时价格下降为之前的一半。
a new version of moore’s law that could start soon:
a new version of moore’s law that could start soon:
the amount of intelligence in the universe doubles every 18 months
the amount of intelligence in the universe doubles every 18 months
— Sam Altman (@sama)February 26, 2023
— Sam Altman (@sama)February 26, 2023
回到1965年,当时身为快捷半导体工程师的Gordon Moore的文章在电子学杂志发布,文章预言每隔18个月,半导体芯片上的晶体管和电阻数量就会以倍数增长,后来被称为摩尔定律Moore’s law。后续在1975年又再提交论文,将时间间隔修正为24个月,即是每两年半导体芯片密度增加一倍,同时成本降低一半。
而ChatGPT目前正使用GPT-3 Model ,有过万亿的参数,并积累了1亿用户,每日活动超过1300万。训练阶段时总算力消耗大约3640 PF-days(即1PetaFLOP/s效率运行3640天),成本预计在每次500万美元。
展开全文
未来若提升到GPT-4 Model将会有100万亿参数, 但运算性能需要进一步的指数级提升。
摩尔定律是什么
摩尔定律是由英特尔(Intel)创始人之一戈登·摩尔(Gordon Moore)提出来的。其内容为:当价格不变时,集成电路上可容纳的晶体管数目,约每隔18个月便会增加一倍,性能也将提升一倍。换言之,每一美元所能买到的电脑性能,将每隔18个月翻两倍以上。这一定律揭示了信息技术进步的速度。
来源历程
Gordon Moore(戈登·摩尔)在1965年提出“摩尔定律”。据报道称,1965年有一天摩尔离开硅晶体车间坐下来,拿了一把尺子和一张纸,画了个草图。纵轴代表不发展的芯片,横轴为时间,结果是很有规律的几何增长。这一发现发表在当年第35期《电子》杂志上,是他一生中最为重要的文章。这篇不经意之作也是迄今为止半导体历史上最具意义的论文。
在1965年提出“摩尔定律”之后,戈登·摩尔在1968年创办了Intel公司。又在1990年被布什总统授予“国家技术奖”。直到2001年退休,戈登·摩尔才退出了Intel的董事会。
戈登·摩尔回忆摩尔定律的发现时称,是因为在写一篇集成电路的文章时,发现一个芯片的容量会逐年递增。从60个元件扩展到64000个,每年翻番,而价格上则是相应的逐年递减,当时买一个元件的价格10年后可买一个集成芯片,这是一个长期推断。摩尔认为,工艺技术的进步使计算机性能保持几何级数增长。这种增长非常有规律。由于其可预见性和重要性就被正式定义为摩尔定律:微处理器芯片的电路密度,以及它潜在的计算能力,每隔一年翻番。
为了使摩尔定律更为准确,在摩尔定律发现后10年,1975年的时候,摩尔又做了一些修改。将翻番的时间从一年调整为两年。正是因为这个定律,“摩尔定律”带来的经济学效益,使其成了英特尔公司的发展指针。摩尔定律神奇地灵验了30多年,连摩尔自己也惊讶不已。
另一种说法
摩尔定律是什么?摩尔定律虽然以戈登·摩尔(Gordon Moore)的名字命名,但最早提出摩尔定律相关内容的并非摩尔,而是加州理工学院的卡沃·米德(Carver Mead)教授。米德是最早关注到摩尔定律所提出的晶体管之类的产量增加,就会引起其价格下降现象的。米德指出,如果给定价格的电脑处理能力每两年提高一倍,那么这一价位的电脑处理装置同期就会降价一半。
ChatGPT与新摩尔定律,下一个系统性机会大门已近在咫尺?
新一代AI浪潮正在席卷全球,从硅谷、华尔街、中关村,直至世界各个角落的办公室和大学教室,人们都在热烈讨论着ChatGPT及人工智能的未来。
而在几周前,OpenAI还发布了ChatGPT API,将每输出100万个单词的价格降低到2.7美元(约合18元人民币),使用成本仅为此前GPT-3.5的十分之一,似乎在宣告“人手一个ChatGPT”时代的到来,也一举奠定了OpenAI作为人工智能时代新基础设施建设领域的重要地位,紧随其后势必涌现大量应用中间层的新公司。
同期,OpenAI创始人Sam Altman又通过Twitter提出了“新摩尔定律”——宇宙中的智能总量(amount of intelligence)每18个月翻一倍。
面对这个AI时代的“iPhone时刻”,我们陆续邀请学界与业界的资深专家,以及行业投资人与创业者进行深度交流。
1. ChatGPT背后有哪些核心突破?ChatGPT4有哪些核心迭代?
2. OpenAI为什么能坚持下去?Google为什么变成了那个“脆弱的大公司”?
3. 大模型时代的另一种模式:垂直闭环
4. 在ChatGPT的“数据飞轮效应”下,中国公司应该如何追赶?
5. 对ChatGPT的总结:到来不吃惊、影响不低估、未来不可怕
1
ChatGPT背后有哪些核心突破?
ChatGPT4有哪些核心迭代?
OpenAI最近发布了GPT-4,并且此前还把ChatGPT API的价格下降了90%,这奠定了OpenAI作为AI时代基础设施的地位,随后势必会涌现出大量应用中间层的新公司,您认为这将带来哪些变化?
GPT-4有三大变化:多模态、逻辑推理和可控性。
第一是多模态,这带来了人机协同交互的通道趋向统一。GPT-4具备十分强大的图片理解能力,能够支持像素级别的图文处理,比如:可以根据设计图写代码、对拍照题目写解答过程、通过文档图片进行摘要问答等。GPT-4多模态能力必将催生更加广泛的下游应用,智能体的“摩尔定律”时代已然到来。
第二是复杂长文本理解和生成能力大幅提升。GPT-4对文本长度的限制提升到32k字符,能处理超过25000个单词的文本,并且可以使用长格式内容创建、扩展对话、文档搜索和分析。GPT-4能够融合更加复杂、多样性的训练数据集,相较 ChatGPT在逻辑推理方面上获得显著提升。目前,其在各种专业及学术测评,像是美国律师资格考试(MBE)、美国大学预科考试(AP)和美国高考(SAT)等测试中,达到了和人类相当的水平。
第三是可控性,GPT-4具备创造性的写作能力,包括:编歌曲、写剧本、学习用户写作风格等。在微调过程中OpenAI引入了大量的人力来确保监督信号的高质量。相比于InstructGPT和ChatGPT,可以猜测GPT-4中的RLHF可能是一个更加通用的范式,即覆盖的任务和场景更为广泛。
GPT-4存在一些局限性和改进。GPT-3和GPT-3.5存在的问题也都基本存在于GPT-4之中,例如:数据时效性、“幻觉”等问题。GPT-4在评测的各种任务上效果优异,但在一些简单问题上难以运用已有能力进行解决,这与GPT-4在知识存储、定位、修改等方面存在问题有关。目前的大模型还是基于全连通图的Transformer架构,其中对于知识的可控存储、定位以及修改、持续的演变机理等仍未知,对于知识信息的时变维度刻画也存在缺失。
目前,GPT-4在公开的技术报告及System Card中仅展示了其对视觉输入的支持和较为浅层的推理能力,在更困难和深层的推理任务上仍有待测评和验证。同时,GPT-4缺乏对音频、视频及其他模态的理解和生成能力,或许这与Transformer预训练架构有关,未来在合并扩散模型的图像生成能力与构建统一的多模态理解和生成模型上存在显著的技术挑战。当下,AI学术研究社区正在推进中的很多工作,都基于强大的语言模型结合多模态能力,通过语言智能撬动 AGI 值得期待。
GPT-4在去年8月已完成训练,现在看到的很多问题可能已经被解决。不可否认,GPT-4 存在巨大的技术壁垒,在短期内难以被超越。OpenAI通过“Scaling Law”来预测GPT-4的性能边界,而GPT-4是我们可见的现有最强的AI性能边界,这有助于反思现有AI理论的优势和缺陷。
OpenAI不再Open, 那跟随已不是选项,新一代AI大航海时代的参与者需要有自己的深刻技术理解、前瞻技术趋势判断,需要场景的反馈与打磨,也需要领路的将军用自己的微光照亮大家前行。
Sam Altman前段时间在Twitter上提出了一个“新摩尔定律”,即“每18个月宇宙的智能总量(amount of intelligence)会翻一倍”, 我认为更准确的说法是“智慧触点数目(number of intelligent touch points)会翻一倍”,而这件事的确正在发生。OpenAI令ChatGPT API大幅降价就是为了加速聚焦开发者,并通过更多开发者探索更多应用场景,以此形成新的AI生态。
大模型的使用成本主要来自两部分,其一是训练部分,其二是推理部分。OpenAI近期这一新举措意在将推理成本降到尽可能更低的水平,这是可预料的并将持续发生,即:一个模型经过不断优化后,其模型密度与推理效率会变得越来越高,推理的成本也就会越来越低。
这件事对专注通用大模型的竞争者,无论是大厂亦或创业团队,都是一个颇具挑战的信号。今后,他们不仅要在技术与算法层面加速追赶,还要负担高昂的模型训练及推理部署成本,却在推理的调用收入上不具备定价权。同时,还要面对开发者生态、用户心智正快速集中到OpenAI等“先行者”上的被动局面,完成逆势爬坡。
但在训练的部分,OpenAI的降价并没有带来本质上的改变,比如ChatGPT对垂直场景的深度洞察与创新等等。当然,我预计OpenAI现阶段也不会涉足垂直市场,他们不太可能为了某一垂直领域而耽搁占领整个平台市场的先机。
在此背景下,大模型创业者想要取得成功首先需要找到正确的商业模式与护城河,做到“enjoy the ride of this wave” ,即相信智能触点数目的增加会令自己发展得更快而不是更糟,但又不会被OpenAI等领先的通用大模型玩家不断叠加的平台优势(技术+训练高投入+推理定价权+迅速培育和占领的生态)所淹没。
Transformer、 ChatGPT等实现重大突破的背后,是基于哪些核心进展达成的?
如果去谈ChatGPT为什么能取得成功?我认为首先要聊一聊Transformer,作为前者极为重要的一个支撑点,它融合了几个非常核心的突破:
第一个核心突破出自于采用自注意力和多头机制来表征自然语言,这个核心思想最早出自由我带领的IBM团队在2016年发表的论文,“A Structure Self-Attentive Sentence Embedding”,并在2017年被Transformer认可并引用。
但是,这个方法也存在一个问题, 即注意力是基于给出答案后去构建的。这样训练的AI,形象地比方,就像大学期末考试前问老师划重点的学生,再去有针对性(attention)的重点复习。这样AI虽然对特定问题的表现能有所提高,却并不具备通用性。所以我们提出了完全不依赖于给定的任务和输出,只基于输入自然语言的内在结构,通过AI多遍阅读去学会哪些部分更重要及其相互之间的关系,这就是 自注意力加上多头机制的表征学习。这种学习机制只看输入,更像学生在考前就多遍、系统性地学习理解课程,而不是基于考试重点去针对性、碎片性地学习,从而更逼近通用人工智能的目的,也大大增强了AI的学习能力。
第二个核心突破是采用了简单的位置编码而抛弃了RNN/LSTM等序列性神经网络结构。我认为,它是这篇重要论文中最简单也是最聪明的一点,通过一个简化让Transformer不再受RNN/LSTM难以并行训练的束缚,可以更高效地使用更多数据进行训练。这篇论文也因此成为该领域一个重要的里程碑,推动了其后一系列的变化,并最终开启了大模型时代。Transformer论文的标题是《Attention is All You Need》,表达的同样是 “自注意力很重要,多头很重要,但RNN或许没有我们以前想象中那么重要”的意思。顺便说一下,Transformer论文的第一作者Ashish Vaswani正是我在IBM指导过的学生,后来他加入了Google Brain团队。
了解过上述历史沿革,我们再来看ChatGPT作为里程碑的意义所在:它的“前辈”,包括IBM Deep Blue、IBM Watson、Deepmind AlphaGo,这些虽然都是当时引领时代的人工智能,但它们跟ChatGPT最核心的不同在于,此前的人工智能设计思路是与人类竞争的AI,通过展示其在某些领域比人类更优秀来证明AI技术的进步。
与之不同,ChatGPT引入了Instruction-tuning,强调的是和人的协同、交互与价值对齐。在经过GPT-1和GPT-2漫长且不那么成功的摸索与积淀过程,直到在GPT-3阶段实现工程上的重大革新,如今的ChatGPT正是在GPT-3基础上引入了Instruction-tuning与人在环路的强化学习,通过人对AI的标注、反馈,实现价值对齐,更好地帮助ChatGPT去理解,让它更清楚什么样的答案是好的并从中不断学习。
举个例子,如果要求AI为一个6岁的小孩解释登月,以GPT-3的基础模型能力可以从各种角度去回答这个问题,包括基于物理原理的万有引力、基于历史背景的美苏冷战促使登月、基于天文学角度的地月关系,或基于人类关于月亮的神话传说等等。须知,找到这些信息并整合生成文字并不难,难的是GPT-3该如何辨别其中哪个答案更适合一个6岁的小孩子,这就是价值对齐。
常规模式会按照答案的出现概率进行排序。但ChatGPT在这个基础上,由人对四类答案进行选择、打分并给出排序,这些反馈可用于微调GPT-3模型,将GPT-3与人类的意图和评价体系进行对齐,进而改变模型参数和推理结果。
通过上述与人的交互协同后,如果再要求ChatGPT为6岁孩子写童话,它就会自己学会以“once upon a time(很久以前)”来开头,因为它已经掌握在一个与6岁小孩的谈话环境中,以这种方式进行回答会更好。因此,人类越多去使用ChatGPT,它就会变得越智能。
大家对ChatGPT效果惊艳的同时,可能也意识到了,这些结果的产生也取决于用户提问的方式、指导ChatGPT修正与迭代答案的技巧与耐心。所以严格来说,这些惊艳效果是用户和AI共创得来的。正因如此,ChatGPT成为了历史上第一个与人协同交互而非竞争关系的,以人为中心、更好服务于人的里程碑式产物,其社会价值与潜力不可限量。这也是我长期研究前沿AI的理念,我的观点一直是AI更大价值将来自于人和环境的协同与交互,所以我在2022年5月加入清华即建立了电子系协同交互智能研究中心。
诚然,当我们回顾来路,GPT-1、GPT-2当年所使用的参数局限性也是一个重要影响因素。GPT-1只有1.1亿参数,GPT-2也不过15亿参数,直到GPT-3这一数字猛增至1750亿,方才有了涌现能力,有了后面更多突破性成果的产生。面对这一发展过程中对算力和训练投入的庞大需求,不得不承认,不仅要有长期的研究积累,与清晰的前瞻思想引领,也要有足够的资金做支撑。
2
OpenAI为什么能坚持下去?
Google又因何变成了一家“脆弱的大厂”?
GPT大模型背后是一部艰辛的创业史,起初两代由于不够成熟经常败给谷歌的Bert,直到GPT-3才真正实现了飞跃。很多人都佩服OpenAI的毅力,能够在GPT-1和GPT-2不断受挫的阶段仍然坚持下来并对抗全世界,最终证明自己是对的。您认识很多业内核心人士,对OpenAI能一路坚持下来并最终取得成功是怎样看待的?
Transformer成功后,一时间大家都拿它来做各种大模型,但在NLP领域分成两派:一派像是OpenAI这类公司,专注实践从左到右的预训练,命令AI去学习预测下一个词是什么,一步步把自然语言的生成全部实现出来。这个思路的底层和我们的2016年论文中强调自注意力理念是一致的,即不允许AI使用未来的信息来学习,这样更逼近通用人工智能的思路。
另一派像是Google的Bert,采用任务导向型的思考方式,目的在于做好针对自然语言的理解,即一段话从左到右要看,从右到左也要看,看得越多理解能力就越强。
这两种思路其实不存在对错,只是反映出双方在哲学观上的巨大不同,就如同我们提出的自注意力一样,即坚决要求学生不能先看考题再来学习,而是要先把知识学明白再去考试。这也是为什么我认为GPT的哲学观更适合真正的通用人工智能。但在发展的前期,GPT模式确实让OpenAI受挫不少,GPT-1和GPT-2都没能胜过Bert,直到GPT-3才扬眉吐气。
此外,还有一个角度我认为非常值得关注,即OpenAI的成功不单单是这家公司独立实现的,而是依托于整个AI学术研究社区的支持和帮助。英文里有一句俗语叫“It takes a village to raise a child”,OpenAI之所以能够一直坚持做GPT,得力于整个AI学术研究社区对大模型丰富的研究分析,比如其中很多研究人员一直试图证明在GPT和Transformer的中、低层中,包含有词法和语法知识;在中、高层中存储了大量语义和常识知识。
AI学术研究社区的相关验证分析工作,极大地增强了OpenAI团队的信心和方向。如果没有上述这些自发研究工作的助力,OpenAI可能很难坚持下来。试想一下,如果你拿大量数据训练了很久,最后却发现没有证据证明这个大模型学会了任何知识和推理,只是学习到了统计相关性,无法形成自身沉淀与未来涌现效应的可能性,那谁还会一直有决心坚持下去呢?ChatGPT的成功,正是因为OpenAI公司依靠背后强大的AI学术研究社区,有较好的产学研的融合生态,这样的经验值得我们借鉴。
从规模上看,OpenAI只是一家几百人的创业公司,而Google却是一家拥有上万员工的科技巨头。我相信在Google内部,无论从技术亦或想法上也是具备领先意识的,他们也传出过与人工智能相关的新闻,但相比于openAI迟迟没有上线真正的产品。其中一个原因或许是Google的主要利润源自其搜索业务,而生成式AI则可能彻底颠覆相关商业模式,这似乎又是一个柯达与数码相机的故事?
一个是商业层面,一个是大公司的决策层面。大公司虽然看起来很强,但在很多时候特别是技术代际跃迁时其实是非常脆弱的。
ChatGPT这种深度强人工智能的对话模式,会让搜索业务本身的价值大大降低,原有以“搜索关键词排序”的商业模式届时很可能已经不成立了,因为用户不再需要去看网页中那么多搜索引擎排序后的链接,这将导致的结果是Google的毛利率会迅速下降。而在占比份额不足10%,久居搜索引擎次席的微软看来,这却是一次千载难逢的机会,其在该领域的疯狂投入可见一斑。
同时,微软的To B业务及受众非常多元化,所以我认为微软的组织能力是远优于Google的。在这种情况下,微软可依托To B业务在前,同时迅速调优整个组织,从而比Google更好地适应新挑战,并在搜索领域跟Google打消耗战。
此外,微软具备在更多To B场景中嵌入ChatGPT的能力,而Google在这方面相形见绌。因此,我认为投资人在AI时代不可以再轻视To B领域。过去,AI在生产力工具方面不够强力,因而变成了“C端的玩具”;但是,现在的AI已跨过技术门槛,其在B端的应用将会越来越具备冲击力。当然,不是说To C不重要了,最好的模式依然是做到To B和To C兼顾。
在大公司的决策层面上,总有很多声音质疑大公司缺乏创新,但大公司往往不缺乏单点创新能力,问题往往出现在系统性创新过程中,特别是在内部资源的协同与聚焦上。与此同时,大公司也有很多负担,比如:Google需要维护自己的技术形象,如果认为新研发的产品不够好,就不会开放公测。以ChatGPT为例,它一开始就存在非常多的错误和问题,如果是Google在做,大众和舆论恐怕也很难像对OpenAI这类创业公司一般宽容。此外,在技术开发的早期,甚至可能引发政治性的争论,这些均会对公司市值产生严重影响。
综上两方面因素,导致Google 在类似的产品发布上趋于保守。 但这种生成式人工智能技术,从GPT到ChatGPT,中间很大的一道门槛是与大量用户的真实交互,如果缺乏大量用户的反馈,就永远越不过这道门槛,且一旦落后便可能永远落后。OpenAI敢于大胆投入,聚焦设计和打磨好一款产品。而大公司背负来自市值管理、资金使用效率、技术声誉、社会口碑等方面的一系列压力,因而在决策中很容易动作变形。
这就是为什么像OpenAI这样的创业公司会跑得更快、路线更灵活,因为他们没有大公司过多的包袱,不管有什么困难都能够勇往直前。当然,无论是在Google还是微软,都有我很尊敬的同事和朋友,他们都很聪明,个人能力也绝不比OpenAI差。
值得一提的是,微软是在体外投资了OpenAI去完成这项工作,如果做得不好只需要在PR上进行切割,一旦功成微软便大获全胜,这也是其投资眼光和技巧上值得称道的一点。
不仅是新公司,所有人都需要积极思考怎么去结合。比如最先到来的一大波C端变革,反而可能会是微软,如果它把人工智能集合在Word、Excel、PowerPoint、outlook里面,这将是很大的场景。同时,GPT也会颠覆很多SaaS公司,比如一个财务SaaS,作为客户可能只需要输入问题,它就可以直接形成答案了。您觉得会有很多公司因此受到威胁吗?
对SaaS公司而言, 如果原来的业务涉及太浅,只是在流程上做了自动化或信息整合,那么这样的公司的确会受到很大的威胁,因为所有的流程如果基于深度自然语言理解和协同交互重新迭代一遍,不但门槛迅速降低,带来的体验会远远超过现在的产品;但如果业务跟行业深度绑定,且具备非常强的行业Know-how,那ChatGPT的加入就只有帮助而没有威胁,因为ChatGPT目前还没有办法产生真正的洞察,在需要精确答案时不具备可用性。
此种情况下,端到端的垂直模式壁垒会更深。比如,有些SaaS公司可能原来与行业绑定较浅,虽然通过ChatGPT可以重构业务,但这个能力是与别人拉平的,大家都可以做同样的事情,这时门槛就很低。
3
对ChatGPT的总结
“到来不吃惊、影响不低估、未来不可怕”
近几年来,虽然不断有AI绘画、AI视频、AI声音、AI预测蛋白质结构等新技术出现,但它们还是点状分布的。而这次ChatGPT的面世,却以产品化聊天机器人的形式让全世界感到震撼。您怎么看待AI的前景?
最近确实有非常多的人在问我对ChatGPT的看法,其中一部分人对其到来感到兴奋,同时也有人抱持顾虑。我的观点总结起来就十五个字:“到来不吃惊、影响不低估、未来不可怕”。
“到来不吃惊”是指,这轮并非那种“斯普特尼克时刻”(Sputnik Moment),因为里面的很多技术和理念其实是2021年就已出现的趋势。所以,这轮对于长期做AI前沿和前瞻研究的人来说并不太吃惊,核心的技术创新点大部分在2021年就已经出现了。所以说ChatGPT这样的集成产品创新的出现是必然的,只不过什么时间、最终由谁做出来存在一定偶然性。
“影响不低估”是指,ChatGPT将会改变很多事情。ChatGPT在这个时刻出现是具有里程碑意义的,它对人类社会的影响将在经济、技术等方方面面得以体现。
“未来不可怕”是指,我不认同很多人对AI的妖魔化,其中就包括马斯克的所谓“危机意识”。至少目前来看,AI是可控的。而未来,包括政府决策者、学术研究团队、企业家及法律界人士在内,也将持续从各方面思考人工智能该如何融入人类社会。
举例来说,当下就会面临一些问题,比如ChatGPT其实是一种讨好型人格,偏向于不停的依循所得到的回答来修正自己,但人类社会充斥着矛盾、冲突等信息,ChatGPT在形成自身价值体系的过程中该如何迭代,就是一道非常值得思考的问题。
此外,知识版权也是不可回避的问题之一。ChatGPT的数据有很多是基于大众创造的,如果涉及商业化,其中的利益又该如何分配?更何况ChatGPT并不是简单的搜集,而是一个融合机制,那又该如何溯源、分配,厘清此间种种会十分复杂。
还有对使用方面的界定问题,比如部分学术界不允许论文发表者使用ChatGPT,但很多非英语母语的学者却很喜欢用ChatGPT去修改语法和润色语句,相关应用场景也很值得讨论。
总之,ChatGPT是一个划时代的产品。自此,AI开始真正找到了应用的爆发点,未来将与各个行业持续融合发展。最后,我还是用那十五个字来收尾,希望大家对正在发生和即将到来的AI新时代:“到来不吃惊、影响不低估、未来不可怕”。