// 新刊推荐
// 中经传媒智库

技术怎样改变我们的未来

原创 作者:钱丽娜 / 发布时间:2023-09-04/ 浏览次数:0
 
ChatGPT在全球范围内的“大获成功”,让人们重新唤醒了对人工智能的热情。2023年是否会成为人工智能应用的元年?中国是否会再现1998年互联网大潮汹涌而来时的创业激情和2012年移动互联网普及时的万众创业?在人工智能、5G、XR等技术交叉融合、深刻变革的时代,我们为下一个浪潮的到来准备好了吗?
 
中美AI竞争的差异,不是能力差异,而是发展路径的选择 
 
在中国科技企业羡慕ChatGPT在全球范围内“大获成功”之时,中国电信研究院大数据与人工智能研究所所长杨明川博士却认为,在训练复杂的千亿级参数的大语言模型方面,中国企业和研究机构的积累并不薄弱,起点也并不比美国同行低。中美之间这一轮AI竞争在大模型领域产生的显著差距,不是能力的问题,而是发展路径选择的问题。造成发展路径差异的主要原因如下:
 
首先,直接因素是面对大模型发展路径的主动选择。通用大模型的研发存在两种路径,一种是理想主义路径,其目标做出可以改变整个产业的通用人工智能(强人工智能),但是需要高成本投入(包括海量数据和大规模算力),同时风险高、周期长,落地应用的前景不明确;另一种路径是现实主义路径,其目的是通过现有技术的不断改良,满足现实的行业需求,可以快速变现。ChatGPT走了第一条路。
 
过去几年,中国也有从事通用自然语言人工智能模型研发和异构计算的创业团队,但面对路径选择,在OpenAI用微软的融资不计代价投入巨额算力让ChatGPT“大力出奇迹”的时候,中国的互联网巨头和创业公司,都选择了“让模型尽快产业化”这样一条“稳妥”且“性价比”更高的路径。
 
其次,核心因素是美国科技霸权制约的强压下,导致了路径选择的差异。今天美国依然是信息技术产业的中心,作为美元霸权的三大基石之一,高科技霸权是美国保持全球竞争力的主要支柱。美国的发展模式是“科技主导型”,以跨国企业为主体,掌控产业链最高端的科技,在全球进行产业链布局。
 
作为美国科技霸权的重要组成部分——“芯片产业”就曾上演过类似的剧本。恰如《芯片战争》一书中所描述:“其他国家发现凭一己之力已不可能跟上潮流,但当它们将自己彻底融入硅谷的供应链时,它们就能成功。欧洲拥有生产芯片所需的机器和设计芯片架构方面的知识产权壁垒。韩国、日本和中国台湾等亚洲国家或地区,则通过补贴企业、采取汇率低估政策以及对进口芯片征收关税等方式,挤进了芯片行业。这些战略产生了其他国家或地区无法复制的某些能力,同时也需要继续从根本上依赖美国的工具、软件和客户。与此同时,美国最成功的芯片公司已经建立了遍布全球的供应链。”
 
在人工智能时代,美国正在通过控制芯片、数据、技术人才等关键环节,企图复制和巩固其在信息技术领域的霸权。面对人才外流、格外高昂的算力成本、美国主导了对全球人工智能供应链关键环节的封锁,中国企业不得不开始通过“加速产业化落地”等方式实现“大模型的曲线救国”。
 
再次,人才外流成为科技霸权的助燃剂。在全球前20%具有研究生以上学历的AI研究人员中,有59%在美国工作,有11%在中国工作。而在美国工作的AI研究人员中,有17%是在中国高校完成的本科学业,中国已超越美国,成为美国顶级人工智能研究人才的最大来源国。不仅仅是美国,如果追溯全球前20%的AI研究人员本科毕业地,高达29%的人员来自中国,占比为世界第一,远超占比20%的美国。数据显示,这些将来会成为顶级AI研究人员的中国学生,从中国毕业后,有58.29%的人选择前往美国读研,并且毕业后绝大多数留在了美国工作,只有极小部分回流中国。中国在高等教育的基础阶段,具有强大的实力,但在高等教育进阶以及产业承接方面存在不足,高校在培养顶级AI人才方面实力欠缺,产业也不能吸纳大量的高级人工智能研究人员。
 
关键技术的进步,很大程度上取决于人才和资金的积累。面对可以大幅改变生产力的技术,中国更需要为技术人才提供成长和施展的土壤,包括与世界接轨的高等教育和开放包容的产业环境。避免在某项关键技术再次迎来突破时,又一次回答“我们提供了全球最多的顶级人工智能人才,为什么ChatGPT没有诞生在中国?”这一灵魂拷问。
 
目前,中国电信研究院大数据与人工智能研究所正在积极研发支撑大模型的数据基础设施。同时,面向网络、新闻、司法等开展领域化大模型技术应用探索。其中,中国电信研究院基于电信丰富的网络数据资源,已训练输出预置网络核心场景任务的网络大模型。“在商业化落地过程中,我们也在努力解决算力制约、大模型幻觉、模型算法安全可控、数据隐私等一系列技术问题,并通过探索可行的开源商业化模式,寻找大模型商业落地和人工智能开源发展之间的平衡。”杨明川表示。
 
“美第奇效应”才能驱动产业跨时代变革
 
5G、IoT、AI、XR等技术在这个时代同时出现时,技术融合成为大势所趋。“多领域技术融合产生的‘美第奇效应’才能驱动产业的跨时代变革。”杨明川说。“美第奇效应”指的是在不同领域交汇的地方所爆发出来的惊人创新。
 
高通公司最近发布了一份题为《人工智能的未来是混合的》白皮书,其中阐述了一个多技术融合促进人工智能发展的案例:人工智能要发挥其最大能力,需要在云端和边缘进行处理。5G将为人工智能提供高效、稳定、低时延的通信支持;边缘计算将降低成本、节省能耗、解决用户隐私泄露等问题;5G及未来6G支持下的IoT将实现更多设备的同时连接,从而为人工智能提供更丰富的数据。人工智能技术的优化和发展,需要多领域技术融合带来的解决方案。事实上,对于所有快速发展中的新兴技术来说都是如此。
 
杨明川认为,元宇宙、人工智能、区块链都将是Web3.0的重要组成部分。下一代互联网Web3.0将是一系列高度发展的新兴技术相互融合推动的产业革命。从自然进化的角度来看,多样化因素的融合在推动着个体和文明的演化。前三次产业革命涉及的技术逐渐拓宽,产生的影响不断加剧。而即将到来的第四次产业革命的主要特征就是多技术融合,所涉及的各项网络化、信息化、智能化技术的发展速度也将以指数级展开,在颠覆生产力的基础上,变革生产关系。
 
人类智能与人工智能的区别:人类拥有生命力和想象力
 
我们正处于人工智能时代变革的早期阶段,面临着大量未知的风险和挑战。未来作为碳基生物的人类与作为硅基生物的人工智能如何相处?人工智能的风险是真实存在的,但怎样才能变得可控?
 
华东师范大学紫江特聘教授、历史系博士生导师许纪霖在“拜耳‘看见生命力’多元共创艺术作品展论坛”中发表观点认为,ChatGPT在可预见的将来一定会比人拥有更多的知识,它可以再生知识,但它有没有生命,这是最核心的问题。
 
在许纪霖的表述中,他认为,人除了拥有理性,还拥有情感意志。从理性层面而言,ChatGPT就是高级人工智能,它一定会超过人类,但是到目前为止,它的情感功能是被关闭的。如果有一天,ChatGPT的情感功能被打开,人工智能将进入2.0时代,即具身智能的时代。它拥有像人一样的身体,具备感知、认知、决策和行动的能力,可能像人类一样与环境交互。一旦机器的自我意识被唤醒,人工智能就拥有了生命力。
 
目前,人工智能虽然可以绘画、创作文章,但它却是按照某个规范程序在运行,并没有自我,这也就意味着它没有生命力。真正的创新是需要有生命力的,它不仅指饱满的身体的生命力,也指饱满的精神的生命力。
 
“人与动物最重要的区别是想象力。人类可以想象一个现实之外的世界,想象力是人类最强大的生命力。”许纪霖说,“生命科学和人工智能本来是分头发展的两个学科,但是具身智能却将两者结合起来。如果有一天ChatGPT拥有了具身智能和感知能力,甚至拥有了想象力,这是人类难以想象的事。人类作为碳基生物,很难想象硅基生物的想象力是什么,也许是‘非我族类,其心必异’。未来人类只能运用生命力和想象力与硅基生物竞争。”
 
虽然人类的基因演化仍然一如既往慢如蜗牛,但人类的想象力却是极速奔驰。想象力建立起了地球上前所未有的大型合作网络,比如,公元前1776年的《汉谟拉比法典》和公元1776年的美国《独立宣言》都是通过想象力丰富的故事支撑着整个帝国,想象着这个世界有着放诸四海而皆准、永恒不变的正义原则。
 
世间很多事情的确是“可堆积的”,比如修桥、铺路,但有些事情是“不可堆积的”。不可堆积的东西往往要求高水平人才的奇思妙想,要求复杂的环境,要求可遇不可求的机遇。ChatGPT火爆的背后,并不是单纯算力堆积那么简单,还有通过对话框显著降低用户使用门槛、通过深度神经网络构建“思维链”等AI技术人才的诸多灵光乍现的妙想,有获得微软巨额投资和英伟达GPU芯片不断升级迭代的产业机遇。并不是每一项发明都能创造出一个成功的创业公司,也不是每一个创业公司都能激发出一个改变世界的新产业。很多时候,新的产业诞生不只是技术本身的故事,更是供应链、商业营销、政治文化等多重因素共同讲述的故事。“不可堆积”的事情,往往更需要丰富的想象力来推动,也往往能够讲述出推动世界变革的产业故事。
 
绕不开“安全与发展的辩证关系”
 
如果有一天ChatGPT拥有了具身智能,也许就像潘多拉打开了“魔盒”。杨明川对此却认为不必过于担心:“因为历史已表明,解决新技术带来的挑战、控制技术风险是可能的。汽车的发明、个人电脑的兴起等都曾引发人类的担忧,但最终都取得了好的结果,并积累了大量经验。比如我们通过设立安全标准、制定道路规则、限制速度等一系列措施,让汽车得以安全普及。”
 
杨明川认为,目前可能导致人工智能“失控”的风险及应对措施大概包括以下四种情况:
 
1. 超智能风险。如果人工智能超越人类的智能,很可能操纵或欺骗我们以追求其自身目标。不过尽管ChatGPT带来了人工智能的“iPhone时刻”,但它仍然属于ANI(狭义人工智能),我们距离真正的AGI(通用人工智能)还有很长的路要走。
 
2. 价值观变异风险。人工智能系统的价值观和目标在训练与运行过程中可能产生偏差和变异。如AI生成的深度伪造内容和错误信息可能会对社会秩序带来负面影响,并进一步污染模型训练数据。但另一方面,AI不仅可以创建深度伪造,还可以帮助识别它们。例如,英特尔、Optic等公司和研究机构正在开发深度伪造检测器,研究如何识别视频或音频是否被篡改。
 
3. 算法偏差、数据误导风险。人工智能算法与系统可能存在我们未知的偏差、漏洞,并继承人类数据中带有的偏见或误导性信息。全球的技术研究机构正在努力解决模型幻觉与偏见的问题,如在AI中加入人类价值观和更高层次的推理。
 
4. 黑客入侵风险。人工智能模型将通过帮助黑客编写更有效的代码来加速入侵进程。
 
不过,人工智能既可用于恶意攻击,也可以帮助进行安全漏洞检测,以便在犯罪分子利用安全漏洞之前发现并修复它们。人们可以通过技术手段“攻防演练”,实现数据安全,国内的百度安全、腾讯安全玄武实验室、阿里安全图灵实验室等,正在传统网络攻击防御体系的基础上,研究AI大模型引入的新型网络攻击面、组合型攻击手段及应对措施。
 
发展人工智能,应当首先充分认识安全与发展的辩证关系,通过加强数据隐私保护、推动公平性和解释性算法设计、强化安全防护和鲁棒性(Robut的音译,是指在异常和危险情况下系统生存的能力),以及完善法律和伦理框架,推动人工智能的可持续发展,并确保其与人类社会的和谐共存。美国正在考虑出台措施监管人工智能;由我国国家网信办等七部门联合发布的《生成式人工智能服务管理暂行办法》于2023年8月15日正式施行。相信我们可以在管理人工智能风险的同时最大限度地发挥其效益。这将是一个循环过程。
 
当ChatGPT出现时,提问的能力变得更重要
 
杨明川认为,当使用大语言模型时,更好地提问是充分释放大模型工具潜力的必经之路。Prompt Engineering提示工程是指导 AI 模型生成所需输出的艺术和科学。有一些提问的插件可以帮助优化提示语,比如Prompt Perfect;也有一些网站提供了较好的提示示例,比如Prompt HUB。对此,杨明川总结了几点建议:
 
1.问题描述越具体,响应可能越准确和集中。
2.像与刚认识的人交谈一样,同人工智能交谈,提供足够的背景信息。
3.尝试不同的提示样式,例如要求生成列表、提供摘要等。
4.要求AI扮演角色,这样可以获取所需信息或输入的所需过程。
5.通过多轮对话迭代和完善,以获得更好的答案。很少有人会在第一次提问后得到想要的最佳答案。可以鼓励和要求它根据其先前的响应修改输出。使用提问继续提示引导模型。比如:让AI逐步思考或分析不同答案的利弊。
6.提出开放式问题,开放式问题通常会产生更全面的答案。
7.请求示例。如果根据它的回答,你对什么不满意或不理解,首先告诉人工智能“你不明白答案”,并要求它提供一个例子。
 
让故事开启未来世界
 
在人工智能高度发展的未来世界里,人类可能只是导演、宏观设计师,而具体的工作都将由AI来完成。正如在当前的阶段,“会提问题”才能够充分发挥大模型的工具潜力那样,在未来的世界里,“会讲故事”才能引导AI创造出更有价值的内容。
 
许纪霖说,当我们在使用ChatGPT时,通常会觉得它在胡编乱造,觉得很可笑。但360创始人周鸿祎认为,这正是人工智能可怕的地方,它开始像人一样讲故事了。我们可以把ChatGPT当成孩子,当他会编造故事时,应该为他高兴,哪怕是在胡编乱造,因为他的心灵已经打开了。
 
所以当AI初步具备了编造故事的能力时,未来的发展将取决于人类是否会把情感功能的开关打开,还是把它禁闭在理性工具的层面,这是核心问题所在。如果仅仅把人工智能当成工具,那么人类最值得珍惜的就是讲故事的能力,科学是讲故事,人文是讲故事,艺术就更不用说了。
 
“我们还是小孩子的时候,天生有讲故事的能力,但等到成人后,反而不会说故事了,我们习惯于按标准答案来回答,变得没有创造力了。所以我们要珍惜讲故事的能力,特别是孩子们讲故事的能力,千万不要抹杀人最重要的天性,这是人的生命力。”许纪霖说。
 
人类会被AI取代吗
 
“我们对未来人工智能前景的乐观预测,是人类的美好愿景。但当前的AI能力,确实被普遍高估了。近几十年来,AI都是科幻小说的主题,恰如大量机器人、机器人起义、AI接管世界等为主题的小说、电影中展现的那样,人类之所以高估AI,其实是源于人类对建造智能机器的着迷、好奇和恐惧。”杨明川说。
 
目前以ChatGPT为拐点的新一轮人工智能发展仍属于ANI(狭义人工智能范畴),真正的AGI(通用人工智能)能够在无需人工干预的情况下执行多种不同的任务。
 
当前人工智能发展的重点可能仍然是使用 ChatGPT 等 AI工具来提升生产力,节省时间和金钱成本,协助人类进行创造性的工作。
 
杨明川说:“我想人们对人工智能最悲观的态度莫过于‘人类会被AI取代’。最乐观的态度应当是‘人类与智能机器人合作’,探索我们共同的人工智能未来。”
 
人类会被取代吗?这个问题几乎贯穿了工业革命以来的两百多年。无论两百年前的蒸汽机,还是今天的AI,每一项新技术的出现,都会带来一定程度的社会变革,它解放了生产力,就一定会导致一些传统的岗位受到冲击。但同时,新技术的发展,必然也会催生出新的业态,释放出新的工作岗位,以适应社会发展的需要。
 
目前,包括OpenAI、谷歌等在内的全球人工智能领先企业和机构都开始投身于“AI Agent”智能代理的研发。随着智能代理的专业化、普及化和智能化,它们可能从被动的指令接受者,逐步转变为更主动、更具备行动力、更值得信赖的顾问、教练、秘书……未来的社会将是人类与智能机器人共生、共同进化的世界。
 

除《商学院》杂志署名文章外,其他文章为作者独立观点不代表《商学院》杂志立场,未经允许不得转载。版权所有

欢迎关注平台微信公众号

 点赞 30
 收藏 20