×

失业 担心 不会 不要 GPT

GPT-4来了,但不要担心:你还不会失业

jnlyseo998998 jnlyseo998998 发表于2023-03-19 04:02:29 浏览18 评论0

抢沙发发表评论

没有用过ChatGPT的人可能要抓紧时间了,它的进化速度远远超乎人们的想象。

抛开其复杂的内核,许多人都把ChatGPT当成一个有问必答的AI系统,有时让人惊叹于它渊博的知识、清晰的语言逻辑,有时也不禁使人调侃其“不懂装懂”地给出离谱的答案。

这款由OpenAI公司开发的AI系统——ChatGPT,已经有超过1亿的日活用户。

但这显然只是这个AI系统的一个起步。3月15日,OpenAI发布了全新升级的版本,名为GPT-4。相比于只能接收文字提问的老版本,最新的GPT-4可以识别图片的意思,10秒钟做出一个简单的网站,甚至能回答出“这个表情包为什么好笑”的刁钻问题。

GPT-4煞有介事地解释为什么梗图好笑。(图源:OpenAI)

不仅如此,科学家们现在让GPT-4去考试,发现它在美国律师资格考试中的成绩超过90%的人类考生,在语言考试GRE、“美国高考”SAT中拿到近乎满分,在生物奥林匹克竞赛中超过99%的人类考生。

总体而言,目前这个基于对话训练的GPT-4,在语言方面出类拔萃,但其数学水平似乎有待提高。

ChatGPT还没玩明白,GPT-4怎么就要来了?AI发展的速度令人惊叹甚至惊恐,我们是不是要失业了?而在AI引发的一些列疑问中,失业可能恰恰是最不急迫的那一个。

为什么不必担心失业?

在围棋中战胜人类,在考试中取得满分等等,还只是让人把AI当作新鲜事来看待。然而当AI在简单编程、旅游规划、保费评估和诊断病情等具体场景下出色地完成任务时,做着同样工作的人慌了。

AI不需要吃饭睡觉、没有精神压力,也无需劳动保障。按照内卷的逻辑,打工人岂不是要被这个AI“卷”走了?

展开全文

这一切似曾相识,却也有些不同。

工业革命后,机器给社会生产方式带来了深刻的变革,大量人员下岗。但直到今天,也没有几个工厂能用得上比肩特斯拉超级工厂的生产方式。

一方面,机器取代了简单的重复劳动,另一方面,有能力取代精密劳动的机器,成本极其高昂。

而不变的是,真正纯粹的体力劳动和人工服务,将越来越贵。

工业革命中的机器极大地提高了生产效率,也导致了大量失业。(图源:社交媒体)

面对AI是否会引发大规模失业的问题,答案是否定的。因为没人想让AI替代自己,打工人不想,老板和各国政府估计也不敢。

假设一家企业的老板执意要把员工都替换成AI,那么老板是否懂得如何管理AI?该从哪里购买统筹AI的服务?

他最终仍然需要雇佣有能力使用AI辅助工作的员工。例如,科技巨头企业微软近期就设立了新职位——指令工程师(Prompt Engineer),专门负责与AI沟通。

即便是企业学会了活用AI,提高效率后进行裁员,也没有国家敢接受大规模失业引发的政治风险。因为选票仍然在人们手中,若是发生大规模失业的情况,福利政策和救济政策需要随时跟进,这对各国政府来说都是不小的压力。

更何况,AI的能力超出了人们想象,目前大多数国家、组织、个人对AI的态度都是谨慎、谨慎、再谨慎。

实际上,在ChatGPT出现前,每个人都已经主动或被动地拥抱AI十几年了。

目前看来,用于消费领域的AI似乎不会造成直接的人员下岗,抖音、淘宝、美团、滴滴等这些互联网平台早已经在用AI为用户提供服务。推荐人们感兴趣的视频或商品、安排外卖骑手接单、规划路线等等,这些决策几乎都有AI的参与,甚至全部被AI接管。

近十几年来,AI就是这样悄无声息地接管了大量的工作,却没有引发大规模的失业。

类似问题其实早已有了案例。例如,让人类迈入信息时代的计算机和互联网,在刚出现的时候也足够颠覆,然而今天,没人会把自己的问题归咎于电脑生产企业或互联网本身。

此前,网络上一种流行的说法也从侧面展示出AI的局限性:“AI不能坐牢,所以不能替代会计”。

正因为AI不能负起相关责任,所以目前看来无法取代人。同理,AI法官和AI医生的判断有可能被广泛接受吗?不然未来所有的纠纷难道都要归咎于OpenAI、谷歌、微软这些企业吗?

面对这样的社会变革趋势,有的人会觉得“礼崩乐坏”,但又不可能完全与AI割席,陷入没有尽头的精神内耗。而有想法的人则开始学习掌握训练AI的能力,直到平台推送的都是他想要的内容,俗称“养号”。

在平台上随便一搜,就有驯化AI的养号攻略。(图源:社交媒体截图)

可预见的未来是,AI想要在工作岗位上替代真人,将依旧是一个隐性的、谨慎的过程,能够活用AI的打工人将具备更强的竞争力和议价能力。

对此,微软德国执行长Marianne Janik也曾表示,新的AI技术已经带来新的变革,大多数人不需要换工作,而是要在此关键时刻学习AI让自己成为专家,为企业的产品与服务增加价值。

他对企业家的建议则是,要开始训练员工使用AI,这样才能顺利过渡到下一个世代。

颠覆认知的潜力与威胁

AI与人的不同之处,恰恰是它的魅力,也需要我们警惕。

通过摄入大量的信息,科学家们发现,AI越来越像一个总是能蒙对答案,但写不出解题步骤的学生。

2020年,麻省理工学院用AI发现了一种新的广谱抗生素Halicin,它能杀死许多具备耐药性的“超级细菌”,却不会让细菌产生耐药性。

科学家们先是教AI了解抗生素分子的普遍规律,然后放手让AI自行模拟了61000个分子,最终找到了Halicin。

由AI找到的抗生素Hailicin。(图源:社交媒体)

但整个事件给人带来的震撼不是AI找得有多快多准,而是AI学生用科学家老师们至今都无法理解的解题方法,得出了Halicin这个正确结果。

这并非特例,早在AlphaGo大战世界围棋冠军李世石时,人们就发现AI经常会走出一些人类棋手匪夷所思的走法。

现在,许多行业的前沿从业者和研究者都在使用AI,但绝大多数人并不知道AI为何如此抉择。如果不及时反思或学习AI的方法论,这将是一件恐怖的事情。

不知道其方法论,那AI所做的一切真的正确吗?如果AI能够轻易完成科研成果、股票交易这些人类社会较高难度的任务,那么追求真理、牺牲精神、人心博弈等这些最具人性的行为又有何意义?

目前仅限于解决特定问题的AI也许还没什么威胁,但等到AI发展到了广泛处理各种事务,接管每个人的方方面面时,情况可能会变得让人哭笑不得。

AI会综合人们知道的、不知道的所有信息,为人们提供决策或建议,而人们可能根本没有核实其对错的能力。在一些小事上,会直接替人作出决策,就像AI现在推送个性化内容一样。

最终,对绝大多数人而言,AI什么都知道,什么都做得比人好。这样的良师益友,为何不尽情地依赖它?又或者会有人将其人格化,甚至将AI奉若“上帝”。

届时硅谷会否成为一个“新梵蒂冈”?(图源:社交媒体)

那些早就开发出AI,并供给资源调控其进化速度和方向的公司,也可能会被改名为“教会”。

届时,今天那些沉溺于商品、短视频推送算法,放弃思考、拒绝接受新观点的人,可能最先成为“教徒”。人类社会或许也会面临一轮新的启蒙运动,重新拥抱理性。

这也正是基辛格、谷歌前CEO施密特和麻省理工学院计算机学院的院长胡滕洛赫尔在《AI时代:以及人类的未来》一书中强调的,“任何情况下,真正的决策权应该掌握在人的手里。”

掌握并驾驭AI

所幸,AI领域的先行者们,正在带头警惕AI取代人。

2月24日,开发ChatGPT的OpenAI发布了一则声明,表态该公司正在谨慎地给AI发放学习资料,比如此前人们用的ChatGPT是基于GPT-3.5这个版本的应用,只收录了截至2021年底的信息。

OpenAI还在声明中表示,“我们希望就三个关键问题进行全球对话:如何管理这些系统,如何公平分配它们产生的利益,以及如何公平分享使用权。”

GPT-3和GPT-4的区别是,后者不仅可以接收文字信息,还可以学习多媒体素材。(图源:社交媒体)

目前,决定AI发展的三大因素是算力、算法和数据(教材),这些都需要人的参与。

算力是物质基础,而这就牵扯到芯片。

GPT对芯片的需求是极大的,且需求量呈指数级增长。GPT-4上一代的GPT-3.5,训练所需的芯片是英伟达的A100型号GPU(图形处理器,俗称显卡),一颗大概要8万元。

而完成整个训练过程,大概需要30000颗A100芯片,也就是2.4亿元。

要知道,训练当年战胜李世石的AlphaGO,也只用了176颗芯片。GPT-4的整个训练过程需要要多少芯片,现在还未可知。

与此同时,训练AI还特别耗电,ChatGPT据说训练一次,就要消耗90多万度电,相当于1200个中国人一年的生活用电量。目前,仅仅是维持日常运转,每天的电费大概就要5万美元。

此外,训练AI的素材目前仍然需要人工筛选。AI该学什么,判断是否正确,这些都需要一种名为数据标注师的工种。美国《时代周刊》在今年1月曾报道过,截止到2022年,全球已经有500万名数据标注师。其中,许多人来自非洲国家,比如肯尼亚。

在算法上,目前的AI比前代更像人,也因此取得了更迅猛的进展。

以往的设计,是“人教给AI语法和词汇,然后让AI讲话”。但语言模型本身就是模糊的,很多概念在人类社会中都没有所谓“正确”的定义。

比如,什么是猫?每个人都可以轻易地判断出猫的照片,但却没人能简单地总结出判断规则。有毛?尖耳朵?大眼睛?人类老师都不一定能解释清楚,如何教给AI学生?

科学家最终发现,直接把100万张猫的照片丢给AI,AI就学会了判断“什么是猫”。因此,现在的算法是把“日常对话”直接丢给AI,让AI自己感受出一种“语感”。

试想如何教会小孩子“什么是猫”。(图源:社交媒体)

有时,AI的办法让人琢磨不透,有时甚至能启发人。

当前一个亟待解决的问题是,如何保障AI训练数据的准确性?除了事实本身之外,编程语言都是经由英语输入,AI只能“看懂英文教材”。这就意味着,如果要训练ChatGPT回答中文问题,也无法保证不在翻译上出现纰漏。

但抛开这些研发者的苦恼,对个人而言,ChatGPT或许将成为最好的学习工具,颠覆每个人接受教育的方式。

有问必答的ChatGPT可以从头教你如何向它提问,这是一种对话式的学习。从孔子和苏格拉底的时代开始,这种形式似乎就是“学习”最本真的样子。而且在吸收了大量的知识后,ChatGPT甚至可以扮演孔子和苏格拉底,直接与人们对话。

ChatGPT也许不能完美扮演孔子,但起码是个精通孔子思想的学霸。(图源:网络截图)

加州大学河滨分校2023年刚刚发布了一项研究,他们把《意识的解释》的作者、美国认知科学家丹尼特的所有的书和文章都输入给ChatGPT。研究者们让ChatGPT扮演丹尼特,回答受试者的问题,并将丹尼特自己的回答也混入其中,让受试者判断。

结果,25个熟悉丹内特领域的哲学家平均正确率为51%,经常阅读丹内特哲学博客的粉丝得分也差不多。也就是说,ChatGPT扮演的丹尼特已经到了真假难辨的程度。

现在,想阅读一本书,ChatGPT不仅可以为人们推荐、做摘要,甚至能在一定程度上替代作者本人答疑解惑。

但作者本人并不会失去价值,他的新思想恰恰是ChatGPT学习的食粮,ChatGPT也将成为敦促他思考的动力。

就像机械普及后,人工服务的价值反而越来越高。AI普及后,人的价值或许也将愈发凸显。