中国企业报集团主管主办

中国企业信息交流平台

微博 微信

新技术总会伴随新风险,AI为何更棘手?

2023-05-12 10:25 来源:文汇报 次阅读
 
新技术总会伴随新风险,AI为何更棘手?

“深度学习三巨头”之一杰弗里·辛顿请辞谷歌,警示人们人工智能风险紧迫 

  新技术总会伴随新风险,AI为何更棘手?

  站在“人类文明的十字路口”,AI何去何从?这是摆在人类面前的一道必答题。自去年底ChatGPT横空出世、5天突破百万用户以来,有关AI与人类未来的讨论愈演愈烈,从产业界到学界,至今尚无定论。

  回望历史,科学技术的发展总是在反对和质疑声中一路前行。新技术总会伴随新风险,这一次为何更棘手?作为地球文明的主导者,我们似乎遇到了一个前所未有的挑战:以目前AI的发展速度,人类会否沦为硅基智慧演化的一个过渡阶段?这一次人人都是参与者,无人可以置身事外。

  ——编者

  ■本报记者 沈湫莎

  继全球千余名业界大佬公开签名呼吁暂停研发比GPT-4更强大的人工智能(AI)系统后,在业内有“AI教父”之称的计算机科学家杰弗里·辛顿(Geoffrey Hinton)本月初宣布离职谷歌,进一步加深了人们对AI是否已经失控的担忧。

  现年75岁的辛顿在神经网络领域长期从事开创性工作,为AI技术的发展奠定了基础。在3月下旬那封聚集了1000多个签名的公开信发布时,“深度学习三巨头”、三位2018年图灵奖得主表现各不相同。其中,蒙特利尔大学教授约书亚·本吉奥(Yoshua Bengio)高调签名,脸书首席人工智能科学家、纽约大学教授杨立昆(Yann LeCun)旗帜鲜明地反对,身为谷歌副总裁的辛顿一言未发。

  宣布离职谷歌后,辛顿公开表达了自己的观点。他在接受《纽约时报》采访时表示,相较于气候变化,AI可能对人类的威胁“更紧迫”。他甚至表示,之所以离开谷歌,就是为了完全自由地说出AI潜在的风险,向世人提出警示。在5月3日麻省理工技术评论举行的一场半公开分享会上,辛顿坦言,过去他认为AI风险是遥不可及的,“但现在我认为这是严重的,而且相当近,但停止发展AI的想法太天真了。”

  人类又一次陷入“科林格里奇困境”

  人类历史上,曾无数次因新技术的诞生而产生担忧。比如,1863年瑞典化学家诺贝尔发明硝化甘油炸药,1885年德国人卡尔·本茨和戴姆勒发明内燃机汽车,20世纪40年代人类发明了原子弹……

  辛顿如今对AI的情绪,与晚年时期的诺贝尔和爱因斯坦如出一辙。诺贝尔发明炸药原本是为了提高开矿、修路等工程的效率,当他发现自己的发明被投入到战场上后,其自责达到了顶点,这也促使他后来创立了诺贝尔奖。

  清华大学人工智能国际治理研究院副院长梁正认为,在新技术兴起时,人类通常会面临所谓的“科林格里奇困境”——技术尚未出现,监管者无法提前预测其影响并采取行动;而当它已经出现时,采取行动往往为时已晚或成本过高。

  幸运的是,迄今为止,人类通过不断适应新技术的发展而调整治理手段,一次次走出了“科林格里奇困境”。“比如在汽车大规模上市前,人们就为其安装上了刹车,之后也一直在完善汽车的安全性,为其提供各类检测和认证,甚至在汽车发明100多年后,人们还在为其安全‘打补丁’——装上安全气囊。”梁正说。

  不过,他也承认,这一次AI的来势汹汹似乎与以往有些不同,“速度太快了。”比如,训练了几个月的ChatGPT的性能提升比过去几年迭代都要快,这意味着生成式AI大模型可以在几周内将潜在风险转变为实存风险,进而对人类社会造成不可估量的影响。

  另一个不同是,这一次我们似乎无从下手。辛顿坦言,对于气候变化的风险,人类可以提出一些有效的应对策略,比如减少碳排放,“你相信这样做,最终一切都会好起来的。但对于AI的风险,你根本不知道如何下手。”

  另外,商业竞争也会促使大模型一路“狂飙”。OpenAI深知GPT所蕴含的潜在风险,尽管他们对外表示将审慎推进AI系统的研发,但并不愿意就此暂停或彻底放慢脚步,而是期望社会为此做好准备。今年2月,这家公司刚刚公布了其发展通用AI的雄心与策略。而其首席执行官山姆·阿尔特曼表示,通用AI在AI技术上只能算是一个小节点,他们的远景目标是创造出远超人类智能的超级AI。

  AI真的拥有人类智能了吗?

  AI失控的故事,一直出现在科幻小说中。在大模型出现前,人们也对AI保持了相当警惕,但从未像今天一样如临大敌。那么,能识别出照片中的种种不合理、在各项考试中拿到高分、与人如沐春风般对话的大模型,真的已经拥有人类智能了吗?

  联合国教科文组织AI伦理特设专家组专家、中国科学院自动化研究所AI伦理与治理中心主任曾毅认为,以ChatGPT为代表的大模型是“看似智能的信息处理”,与智能的本质没有关系。

  “人们之所以觉得它很厉害,因为它的回答满足了人们的需求,如果这些回答来自于一个人,你会觉得他太聪明了。但如果你跟它说‘我很不高兴’,它说‘那我怎么能让你高兴一些’,这让人觉得它似乎理解了情感,而实际上它只是建立了文本之间的关联。”曾毅认为,目前的AI系统与人类智能的区别在于,大模型没有“我”的概念,没有自我就无法区分自我和他人,就无法换位思考,无法产生共情,也就无法真正理解情感。

  清华瑞莱智慧科技有限公司AI治理研究院院长张伟强表示,当前的大模型仍属于第二代AI,其主要特征为以深度学习为技术、以数据驱动为模式。这使得它在决策链路和逻辑上具有天然的不确定性,即便是模型开发者,也无法准确预知模型的输出结果。当语言大模型“信口开河”时,不能认为是出现了所谓的“自我意识”,而仅仅是技术缺陷使然。

  “计算能力当然是智能的一种,但智能的范围比这大得多,除了计算还有算计。”梁正说,如果把智能看作一个球体,阿尔法狗表现出的智力如同一个针尖般大小,大模型则是球体表面那一层,离真正的智慧内核还差得远。因此,许多技术派将ChatGPT视作某种“高科技鹦鹉”或人类知识库的映射。他们并不认为情况已经十分危急,因为与人类智能相比,大模型并没有触及认知的底层逻辑。

  大模型真正的威胁在哪里?

  我们应该允许机器充斥信息渠道传播谎言吗?应该将所有工作(包括那些让人有成就感的工作)都自动化吗?应该去开发可能最终超越甚至取代我们的非人类智慧吗?应该冒文明失控的风险吗?细读那封千人签名支持的公开信不难发现,业界大佬们并非为AI的智能即将超过人类而忧心忡忡,而是担心AI将消解人类存在的意义,解构人类社会的关系。

  2017年,AI领域的重磅论文《一种采用自注意力机制的深度学习模型Transformer》发表,这个不到200行代码的模型开启了AI发展的新阶段。原本分属不同领域的计算机视觉、语音识别、图像生成、自然语言处理等技术开始融合。在Transformer的模型下,工程师利用互联网上的文本进行AI训练,训练方法是在一句话里删除一些单词,让模型试着预测缺失的单词或接下来的单词。除了文本,此模型也可应用于声音和图像。和单词一样,工程师可以将声音和图像分解成细小的模块,并利用修补模型进行预测和填补。

  “所谓生成式AI,通俗来说就是让AI能够像人类一样说话、写字、画画,甚至分析和理解问题。”张伟强说,基于这种“创作”能力,“人工”与“非人工”的边界正在消弭,数字世界的信息真伪也越来越难以辨识。目前,已有聊天机器人被用来生成针对性的网络钓鱼邮件。不久的将来,当人们听到或看到家人的声音或图像时,或许首先要问自己一个问题:这是真的吗?毕竟,最新的AI技术只需3秒就能拷贝一个人的特征。

  此外,生成式AI还带来了其他新风险的挑战。张伟强举例说,第一个风险就是加深“信息茧房”。过去,当我们搜索信息时,还能得到多种答案以供选择。语言大模型则更像一个“茧房”,你将如同《楚门的世界》中的男主角,被动接受模型世界给你的信息。

  大模型带来的第二个新风险是对创新动能的干扰。人类总是会在思考的过程中迸发灵感,在动手的过程中有所收获,在不断试错的过程中走向成功,不少伟大的发明都是研究的“副产品”。而大模型提供了前往正确答案的直通车,人们将由此减少很多试错机会。正如刘慈欣在科幻作品《镜子》中描写的一种人类“结局”,人类因为从不犯错而走向灭亡。

  我们为AI“套笼头”的速度并不慢

  生成式AI的飞速发展,让人类社会面临着一场信任危机。当网络上充斥着越来越多不知真假的图片和视频,AI助手几秒钟就“洗”出了一篇像模像样的稿件,大批学生开始用ChatGPT写作业、写论文,我们是否有信心用好生成式AI这个工具?

  对此,梁正比较乐观。他认为,新技术总是伴随着风险,而人类曾无数次处理过这种情况,因此不必太过担心。在他看来,人类应对这一波生成式AI的速度算得上及时。

  去年11月30日,OpenAI推出ChatGPT。今年3月,英国政府发布了第一份AI白皮书,概述了AI治理的五项原则。3月底,意大利个人数据保护局(DPA)宣布从即日起禁止使用ChatGPT,限制OpenAI处理意大利用户信息数据,同时对其隐私安全问题立案调查。随后,德国、法国、爱尔兰等国家也开始准备效仿意大利的做法,加强对ChatGPT的监管。

  在生成式AI的立法方面,中国与欧盟基本同步。4月11日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》。梁正认为,《管理办法》从三方面给生成式AI的发展戴上了“笼头”:一是大模型的数据来源要可靠;二是对AI生成的内容应履行告知义务;三是一旦造成损害,相关责任方需要承担责任。他建议,对生成式AI实行分级分类管理。比如,对某些高风险领域应该谨慎或严格控制使用生成式AI,而对一般的办公娱乐场合,只要标注出AI生成内容即可。

  与其焦虑,不如用技术规制技术

  如果把生成式AI比作“矛”,那么检测其安全性的公司就是“盾”。目前,在全球范围内,“盾”公司的数量并不多。由清华大学人工智能研究院孵化的瑞莱智慧(Real AI)就是一家“盾”公司,他们负责检测内容是否由AI生成,以及给大模型的安全系统“挑刺”。

  “人类需要保持辨识信息真伪的能力,只要能识别出哪些内容是AI生成的,并精准告知公众,这项技术也没有那么可怕。”张伟强说,目前他们研发了一套AI内容识别系统,在识别能力上处于国际领先。

  比识别AI内容更重要的,是弥补第二代AI本身的安全缺陷。张伟强解释说,AI的“智力”提高后,需要视其为社会生活中的一位新参与者。但第二代AI本身的运算过程是个“黑箱”,相当于你无法看透这位新伙伴的所思所想(可解释性差),且他还极易被欺骗犯错(鲁棒性差)。至今在大模型中无法彻底解决的“幻觉”问题就是由此产生,即使数据来源准确可靠,但大模型仍可能会“一本正经地胡说八道”。

  不可否认,ChatGPT开启了一场全球范围的大模型“军备竞赛”,大厂纷纷发布各自的大模型系统,不少小公司也推出了基于自身领域的“小模型”。张伟强表示,市场的充分竞争固然有利于行业快速发展,但其先天的安全不足同样需要引起重视。比如,上个月,瑞莱智慧仅通过添加少量对抗样本,就让Meta发布的史上首个图像分割模型SAM失灵,显示出大模型在安全性方面仍然任重道远。

  梁正认为,未来,当人们回望现在所经历的这个阶段,会清晰认识到AI的工具属性。为了保证它永远只是工具,我们必须及时跟进它的动向,敏捷治理,就像历史上人类曾经一贯为之的那样。

点赞()
上一条:天翼云中国行•甘肃站收官,开辟甘肃数字经济发展新局面2023-05-11
下一条:没有了

相关稿件

郑州慈善总会“科学预防溺水、平安伴随左右”慈善项目为上万群众保驾护航 2022-09-09
兰州高新区:开展高新技术企业研发费用加计扣除培训 2021-01-08
北京丰台发布措施全方位支持高新技术企业发展 2022-07-26
多家企业在服贸会上展示或发布新产品、新技术 2022-09-02
王加邦:Microled工艺新技术可实现产业化的量产 2021-12-04
国务院国有资产管理委员会 中国企业联合会 中国企业报 中国社会经济网 中国国际电子商务网 新浪财经 凤凰财经 中国报告基地 企业社会责任中国网 杭州网 中国产经新闻网 环球企业家 华北新闻网 和谐中国网 天机网 中贸网 湖南经济新闻网 翼牛网 东莞二手房 中国经济网 中国企业网黄金展位频道 硅谷网 东方经济网 华讯财经 网站目录 全景网 中南网 美通社 大佳网 火爆网 跨考研招网 当代金融家杂志 借贷撮合网 大公财经 诚搜网 中国钢铁现货网 证券之星 融易在线 2014世界杯 中华魂网 纳税人俱乐部 慧业网 商界网 品牌家 中国国资报道 金融界 中国农业新闻网 中国招商联盟 和讯股票 经济网 中国数据分析行业网 中国报道网 九州新闻网 投资界 北京科技创新企业诚信联盟网 中国白银网 炣燃科技 中企媒资网 中国石油化工集团 中国保利集团公司 东风汽车公司 中国化工集团公司 中国电信集团公司 华为技术有限公司 厦门银鹭食品有限公司 中国恒天集团有限公司 滨州东方地毯集团有限公司 大唐电信科技股份有限公司 中国诚通控股集团有限公司 喜来健医疗器械有限公司 中国能源建设股份有限公司 内蒙古伊利实业集团股份有限公司 中国移动通信集团公司 中国化工集团公司 贵州茅台酒股份有限公司