您当前的位置:首页 >> 聚焦 >  >> 
即时:AI狂飙时代,如何扼住技术的缰绳
来源: 经济观察报      时间:2023-05-16 05:48:06

陈永伟/文


(资料图片仅供参考)

5月1日,现年75岁的图灵奖得主杰弗里·辛顿(GeoffreyHinton)突然宣布从工作了十多年的谷歌离职。在辛顿宣布这一消息后不久,《纽约时报》对其进行了专访。令许多人意外的是,在这次访谈中,辛顿没有表现出对自己所取得成绩的自豪和欣慰,而是表达了巨大的悔意。

在人工智能领域,一直存在着严重的路线分歧。在很长时间内,符号主义(Symbolism,这个学派主张人工智能的研究应该从基于逻辑推理的智能模拟方法模拟人的智能行为)一直是学界的主流,而辛顿所信奉的联结主义(Con-nectionism,这个学派强调智能的产生是由大量简单的单元通过复杂的相互联结和并行运行)则被视为小众甚至异端。在这样的背景下,辛顿依然一直对自己的研究领域保持积极和乐观的心态。即使他制作的神经网络研究被一些学术权威当面斥为一文不值,他也从来没有改变过对自己研究的自信。1986年,他与合作者一起发表了开创性的论文《通过反向传播误差来学习表征》。正是这一工作,为后来的深度学习革命奠定了理论基础。

在进入新世纪后,计算技术突飞猛进,深度学习所需要的算力瓶颈被突破。在强大算力的支持之下,这一技术表现出了强大的力量——无论是几年前战胜人类棋手的AlphaGO,还是用短短两个月时间就成功破解了所有蛋白质折叠结构的AlphaFold,又或是现在大放异彩的GPT、Midjourney,它们的底层技术其实都来自于辛顿的贡献。而在ChatGPT横空出世的过程中,辛顿的弟子、OpenAI的首席科学家伊尔亚·苏茨克维(IlyaSutskever)则更是居功至伟。随着这一切的实现,联结主义终于战胜了符号主义,在人工智能领域取得了主流的地位。

按理说,经过了这数十年的筚路蓝缕,最后终于苦尽甘来,辛顿对于自己的研究领域应该表现出比以往更多的自信和乐观才对。那么,是什么原因让辛顿对自己的成果表现出了悔恨呢?

在他看来,如果按照这个趋势发展,那么原来认为需要50年或者更久才能实现的强人工智能可能不到20年就会出现。如果这一天真的到来了,那么不排除出现AI屠戮人类、奴役人类的情形。遗憾的是,人们可能还没有准备好这一切。在阐述了这些观点后,辛顿用不无尴尬的口吻对记者说:“我用这个平常的借口安慰自己:要是我没有这么做,别人也会这么做。”

在辛顿的上述“忏悔”被报道之后,关于在AI狂飙时代,应该如何应对AI所产生的各种问题又成为了社会热议的话题。

远虑和近忧

AI迅速发展,然后意识觉醒,最终从人类的造物成为奴役人类的主体,这个桥段在很多科幻电影中都出现过。但在之前,这个桥段更多是人类的一种想象,因为即使是十分乐观的学者(如《生命3.0》的作者泰格马克)也认为AI要超越人类,达到强人工智能的水平,至少要到本世纪末。然而,近半年AI领域的实践却告诉我们,人们或许是太低估了AI的发展了。过去,人们一直以创造性为人类独有的能力,认为AI虽然可以在一些机械性、重复性的工作上超越人类,但人类依然可以在文学、绘画等需要创造性的领域对AI保持持久的优势。然而,几乎是一夜之间,ChatGPT证明了AI可以比人类写得更快、更好;Dall-E、StableDiffusion和Midjourney证明了创造画作并非是人类的专利;而AlphaFold等模型则证明了即使是在科学探索领域,AI也可以做得非常棒。或许AI离凌驾于人类之上只差一个让它觉醒自我意识的机缘巧合。如果是这样,人类的未来又会是怎么样呢?我们将面临的是“终结者”还是“黑客帝国”?现在看来,这已经不再仅仅是科幻小说家们需要考虑的问题了。

当然,相比于上面这些问题,AI发展带来的“近忧”似乎是更值得我们关注的。

第一,AI,尤其是最近的生成式AI的兴起,正在对人们的就业造成巨大的冲击。随着AI的发展水平越来越高,很多原本由人类承担的工作都可以由AI来代替。例如,OpenAI不久前发布的一篇研究报告表明,以GPT-4为代表的生成式AI将至少对80%美国劳动力的工作产生冲击,并且白领工人受到的冲击更大。目前,不少企业已经开始用GPT取代文案工作,例如有某4A广告公司已经公开宣称自己的广告策划将用GPT来完成;而Midjourney和StableDiffusion的普及让大量的插画师下岗。颇为讽刺的是,那些大规模研发AI的大型科技企业也是AI应用的重点单位,他们的老板正在用那些本公司发明的AI来取代自己的员工——其中的一些员工甚至也参与了替代他们的AI的研发。例如,IBM就在5月1日宣布,可能用AI替代7800个工作岗位,而谷歌则正在尝试用AI取代一些初级的程序员。这些例子都表明,由AI造成的失业压力或许是十分巨大的。

第二,是AI带来的虚假信息和内容的泛滥。在前几年,一些人已经开始用AI合成的语音来从事电话诈骗活动。而去年以来,生成式AI的大爆发更是大幅降低了虚假信息的制作成本。在这种造假和识假能力严重失衡的状况下,整个互联网,甚至整个社会上的造假活动都大规模增加了。很多人在并非出于恶意的情况下,也会用AI制作非真实的内容。比如,一些人会用AI生成一些搞笑的图片或视频,虽然他们的本意可能只是出于娱乐,但在客观上也会对很多人造成认知上的巨大干扰。

第三,AI被一些人滥用,也给社会带来了很大的威胁。在目前这个阶段,AI主要还是一个工具,会根据人的指令去精确地完成各种任务。比如,目前的军用无人机在AI的指导之下已经可以非常精准地击中目标。如果这种技术的应用仅局限在战争上,那么它固然可以减少不必要的军事人员消耗,也可以减少大规模破坏带来的额外损失,但如果类似的技术被一些不法分子掌握,那它们就可能会成为公共安全的巨大威胁。

第四,AI引发的数据、隐私、知识产权等问题也十分引人关注。总的来说,最近几年的AI进步主要是由机器学习(或者更确切的说,是机器学习中的深度学习)所推动的。为了训练出强大的机器学习模型,就需要给AI“喂”海量的数据。通常来说,数据的规模越大,模型的性能也就越好——甚至有研究表明,相比于算法的改进来说,数据量的增加对于提升模型的性能所起的作用要更大。而在开发者搜集的数据中,就可能包括带有个人信息或行为轨迹的数据,以及由他人创造的各种作品。其中,前一类数据的获取可能引发隐私和个人信息泄露等问题,而后一类数据的获取和使用则可能会引发知识产权相关的纠纷。如果这些问题不处理好,就会对经济和社会产生非常负面的影响。

综合以上分析,我们可以看到,在AI狂飙突进的时代,我们绝不能仅仅看到它所能带来的便利和效率改进,还需要对它可能引发的风险和问题保持足够的重视。

“堵”不如“疏”

用法律为AI的发展划定轨道

我们应该如何面对AI飞速发展带来的各种问题呢?一种最为直观的思路就是停止对于AI技术的开发。早在古罗马时期,韦帕芗就曾拒绝工匠向他进献的先进运输机器,理由是如果用了这种新机器,就可能让自己的臣民大量失业。在韦帕芗之后的一千多年,当工业革命的浪潮席卷欧洲的时候,也有一部分人站出来,试图通过摧毁机器来阻挡技术进步的步伐。但无论是皇帝还是工人,最终都没能成功地阻挡技术进步,而技术进步过程中的问题也并没有因为这种努力而消失。可以预料,在AI突进的时代,通过阻挡AI发展的方式来预防它可能带来的问题的努力也同样不会成功。

相比之下,“疏”似乎是更为务实可取的思路。也就是说,要允许和鼓励AI的发展,但与此同时,也要对AI的发展进行规范和引导,为这匹狂奔的“野马”套上缰绳。而要做到这一点,我们就必须综合应用好法律、政策、市场,以及技术等各种手段。

近年来,面对AI技术的迅猛发展,各国都认识到了AI技术可能蕴含的风险,纷纷尝试通过立法来为AI的发展划定界限。

在全球的各大区域中,欧盟是较早开始着手对AI进行立法的。在过去几年中,欧盟针对AI发展和应用当中产生的一些问题专门制定过一些法律法规。在最近,欧洲议会又刚刚就《关于制定确立人工智能统一规则以及修改部分联盟法律的欧盟议会和欧盟理事会的条例的提案》(简称《人工智能法案》)达成了协议,这可能意味着世界上第一部“人工智能法”已经呼之欲出。

在《人工智能法案》中,有相当多看点。具体来说,该法案利用“基于风险的方法”(risk-basedapproach)将人工智能系统(AISystem)划分为了四类:“不可接受的风险”(unacceptablerisk)、“高风险”(highrisk)、“有限风险”(limitedrisk)以及“最低风险”(minimalrisk)。在这四类风险中,具有前三类风险的AI系统都需要受到法案的监管。

“不可接受的风险”被认为是与欧盟的基本价值观相违背(例如对基本人权的侵犯),需要完全被禁止。

“高风险”指的是作为关键基础设施、执法或教育的工具的AI系统。这类系统的风险很大,但作用也很重要,因此不会被完全禁止,但需要在操作中保持高度透明,AI系统的提供者需要承担较重的任务。具体来说,提供者应当做到几点:(1)负有合规义务,确保高风险人工智能系统的预期使用目的符合规定,按照规定建立、运行、记录并维持风险管理系统,并确保人工监管的准确性、韧性和安全性。(2)建立合理的质量管理系统,并以书面政策、程序和指令的形式有序地载明该质量管理系统,确保合规程序的执行、相关文件的草拟以及强有力的售后监管制度的建立。确保高危人工智能系统在投放市场或投入使用前,经过相关的评估程序。(3)担负记录保存义务。在人工智能系统投放市场或者投入使用之日起的10年内,提供者应保存技术资料、质量管理系统相关文件等以备检查。依照与用户的协议或法律规定由其控制高危人工智能系统自动生成的日志的,则提供者有义务保存上述日志。

《法案》对违规提供或使用AI的个人或机构规定了高额的罚款。具体来说,AI系统的提供者如果违反相关的禁止性规定或数据治理义务的,最高可以被处以3000万欧元的罚款或全球年营业额的6%(以较高者为准);高风险AI系统的使用违反其他规定的,可以处以最高2000万欧元或营业额的4%的罚款;向成员国主管机构提供不正确、不完整或具有误导性的信息,将被处以最高1000万欧元或营业额2%的罚款。

需要指出的是,在《法案》提交欧洲议会表决之前,还专门根据当前AI发展的现状,加入了有关生成式AI的相关规定。例如,规定了提供生成式AI工具的公司必须披露他们是否在系统中使用了受版权保护的材料,以及生成式AI的模型的设计和开发必须符合欧盟法律和基本权利等。

美国目前还没有全面的AI立法,不过联邦、州和地方政府,以及某些具体的职能部门已经对一些问题进行了相关的立法实践。比如,在2023年4月底,美国联邦贸易委员会(FTC)、消费者金融保护局(CFPB)、司法部民权司 (DOJ)和平等就业机会委员会(EEOC)等四个部门就曾联合发布声明,称将继续针对AI系统执行现有的民权法,以避免人工智能“使非法偏见永久化”。根据这一声明,这几大监管部门将重点从AI可能产生偏见的数据集、大模型的透明度、系统设计的前提假设这三个方面入手,监管其潜在的歧视风险。

此外,美国国家电信和信息管理局(NTIA)也就人工智能审计和评估的发展发起征求意见。在这份征求意见稿中,NTIA承认了普遍存在共识的“AI监管难题”,包括如何权衡多重目标、实施问责机制的难度、AI生命周期和价值链复杂性带来的挑战、如何标准化评估等。而对于一些涉及更有争议的、难以协调的、跨领域的标准难题,NTIA认为“根本不部署人工智能系统将是实现既定目标的手段”。

目前我国还没有关于AI的系统性立法,但是针对AI发展过程中出现的各种问题,有关部门出台相关规定也都非常及时。例如,不久之前,网信办就公布了《生成式人工智能服务管理办法(征求意见稿)》,对生成式AI发展做出了很多规范。

用政策及时回应AI发展中的问题

从根本上看,法律法规可以解决的主要是一些长期性的问题。但在AI的发展过程中,还经常会出现一些短期的、易变的问题。以AI对劳动力市场的冲击为例,不同类别的AI模型的影响就很不一样。在几年之前,AI的发展方向主要是帮助人们完成一些重复的、繁琐的预测性工作。在这种情况下,那些工作内容相对单一、原本收入较低的蓝领工人就是受AI冲击最大的群体。而在生成式AI崛起之后,拥有较高学历、经过较长时间职业技能培养、原本收入较高的白领人士就成为了受冲击最大的群体。很显然,对于这两种不同的冲击情况,应对的策略应该是不同的。所以相对固定的法律并不适合于处理类似的问题,而相比之下,灵活的政策组合拳则是更为可取的。

而在政策的制定当中,有很多不同的思路。一种思路是回应性的政策,即在发现了问题之后,再研究相应的政策来加以破解;另一种思路则是前瞻性的政策,即主张通过政策的预判,率先制定好相关的政策。这两种思路各有利弊,前者可能因为政策出台的迟缓而延长了问题的影响时间,从而加大了由此产生的成本;后者则可能因为误判而影响了AI正常发展的进程。在实践当中,我们必须根据具体情况对这些成本进行权衡。大部分情况下,政策误判带来的成本可能是更大的。从这个角度看,或许看似笨拙的回应式政策会比看似高瞻远瞩的前瞻式政策更为可取。

AI的代码之治

无论是利用法律还是政策来对AI进行治理,从根本上讲都是用人在治理AI。随着AI的发展越来越迅速,应用范围越来越广,这种治理方式的弊端会越来越明显:一方面,AI治理所需要投入的人力、物力和财力要求将会越来越大,由此产生的巨量成本将是人们难以承受的;另一方面,无论是法律的制定还是政策的出台,都需要一定的时间,因此它们必然具有滞后性。

在这样的背景下,我们除了对AI进行“人治”之外,必然会需要应用各种技术的手段来对AI进行“技治”。具体来说,如下几点是需要重视的:

首先,应当将一些根本性的原则写入代码,要求AI必须遵守。著名的科幻作家阿西莫夫曾在自己的小说《我,机器人》中提出过著名的“机器人三法则”:(1)机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;(2)机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;(3)机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。这个“三法则”非常有名,后来的很多小说,甚至与机器人相关的政策文献中都经常加以引用。很多人认为,作为与机器人学有千丝万缕联系的学科,AI的发展也需要有一些类似的基本法则。例如,对于目前火爆的生成式AI的一大担忧就是AI会用自己的造物作为材料,不断进行新的创造,最终让整个创造过程失控。针对这一情况,一些学者就建议,要将禁止这种“递归造物”作为一个法则写入AI的底层代码,以保证AI要进行新内容的创造必须经过人类的允许。通过这种方式,就可以有效地防止AI造物的无序进行。

以上思路非常有价值,但也存在缺点。因为人在构建法则的时候总是可能存在着这样或那样的漏洞,这就可能导致AI误解这些法则,最终造成法则的失败。以“机器人三法则”为例,机器人完全可以在遵守这几个法则的前提下对人类造成伤害,比如出于保护人类安全的考虑,将人类像动物一样圈养起来,而这显然是人们不愿意看到的。由此可见,想要通过为AI制定一个法则来解决所有问题是不现实的。在实践当中,人们还需要通过对AI进行持续的教育和沟通,以保证AI能够明白人类制定法则的真正目标,让自己的行为和这些目标始终对齐。目前,关于AI对齐性(AIalignment)的研究已经成为了AI研究中的一个重点。相信在未来,它也将是对AI进行“技治”的一个关键。

其次,应当充分利用AI的能力来辅助AI治理。比如说,现在基于AI的定向推送广告给用户带来了非常大的困扰。如何来应对这个问题呢?一个方法就是开发一种“AI保安”,将自己的真实需要告诉它,让它在接到推送广告的时候根据用户需要,以及广告推送者的“信用”状况来进行甄别,只有通过了甄别的广告才被允许继续推送给用户。通过这种方式,就可以一定程度地破解定向广告扰民的问题。

这里值得一提的是,在用AI辅助治理的过程中,非常重要的一点是用AI来训练其他AI,以此来保证后者具有良好的价值观。事实上,在ChatGPT的训练过程中就已经应用了这一思路。在GPT-3被训练完成后,它已经具有了十分强大的功能,不过,依然经常在一些涉及价值观的问题上犯错误。比如,在涉及种族、宗教等问题的时候,它就经常会发表一些政治不正确的观点。如何解决这一问题呢?OpenAI的做法就是用AI训练AI。具体来说,先取GPT-3的一部分作为一个小模型,然后对这个小模型进行“基于人力反馈的强化学习”(ReinforcementLearningfromHumanFeedback,简称RLHF)训练,也就是让很多人类训练员不断地拿一些“敏感”问题和模型交流,并根据它的回答状况进行打分。这样,模型就会根据得分的状况不断地对自己的回答进行调整。在训练达到了一定的量之后,这个模型就可以“出师”,成为一个价值观上可靠的模型。这时,再让这个模型作为“教练”,对原模型用类似的方法进行训练,让原模型可以通过不断的训练来树立正确的价值观。正是通过这种方式,OpenAI才最终得以用一个比较低廉的成本训练出了ChatGPT这样的产品。我想,这个经验应该是可以在以后的AI治理实践中进一步借鉴的。

再次,包括区块链、隐私计算在内的其他技术也有助于AI的治理。例如,在生成式AI兴起之后,一个十分困扰人的问题就是知识产权。一方面,AI训练者可能违规使用网络上的各种作品而不支付相应的报酬。另一方面,人们在使用AI创作相关内容时也无法证明自己在创作过程中所起的作用,因而也无法主张对应的知识产权。尤其是在现在各国的立法机关都倾向于认定AI生成物不能享有知识产权保障的情况下,一些对于作品的形成有较大贡献的AI使用者将无法主张他们的权利。对于这些情况,区块链技术将可以起到作用。借助于区块链的可追溯性,人们就可以确认在产品生成过程中不同人、不同投入要素的作用,从而为最终的利益分配提供参考。又如,现在很多的AI任务都需要多个模型、多个单位之间进行协同,在这种情况下,利益的分配问题难以解决。而如果借助于区块链技术,则可以较好地对每个参与方的利益进行记录,并根据贡献状况来分配相应的通证予以激励。此外,针对AI使用过程中可能带来的隐私和信息泄露问题,则可以借助隐私计算等技术来进行解决。应用这些技术,就可以有效地破解应用法律和政策难以破解的AI治理难题。

责任编辑:

标签:

X 关闭

X 关闭