收藏中国人民公安大学出版社 社长致辞 | 出版社简介 | 帮助中心 
      高级搜索
访问群众出版社

美国人工智能犯罪趋势与防范 The U.S.’s Prevention of AI Crime

中国人民公安大学出版社  2024/2/29 9:10:02
浏览次数:2260  

  文/李皛

  近年来,以ChatGPT为代表的基于互联网的生成式人工智能(指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术)工具迅速发展,很多此前需要昂贵硬件设施和大量资源的工作,如今普通人在个人电脑和移动终端上即可简单且迅速地完成,新型生成式人工智能工具的强大能力,及其前所未有的便利性和普及性,引起社会各界对于其被犯罪分子利用的广泛担忧。美国是目前全世界首屈一指的人工智能强国,面临的人工智能犯罪风险也最为严峻,据路透社近期的一项调查显示,61%的美国受访者认为人工智能的快速发展可能“危及人类的未来”。有鉴于此,美国政府和学界自2010年代末以来加强了对人工智能犯罪的发展趋势及应对措施的研究。
  
  一、人工智能犯罪的主要类型

  美国主流观点认为,人工智能犯罪总体上可分为两大类型:其一是将人工智能工具直接作为犯罪的工具或手段;二是通过攻击政府或企业使用的人工智能系统达到犯罪目的。
  对于将人工智能工具直接用于犯罪,目前最具威胁性的技术被称为“深度伪造”(Deepfake)。“深度伪造”是指通过机器学习方法,使用人工智能工具生成具有极高仿真度的图片、音视频、叙事文本等虚假作品。美国各界最为关注的是利用“深度伪造”实施网络诈骗、生产违法色情产品和制作政治性假新闻。
  面向公众的网络诈骗犯罪在美国也被称为“网络钓鱼”,早期犯罪分子通过大量散发包含有欺诈性内容及有害链接的电子邮件和短信息,指望能“筛选”出少数受害者。由于文本内容缺乏针对性,犯罪分子知识水平有限,此类骗术往往能被轻易识破,或被安全系统自动识别拦截。但利用ChatGPT等生成式人工智能工具,仅需少量提示就可以编辑出文法正确流畅、符合特定文化背景、叙事逻辑完善的虚假文本,可帮助犯罪分子伪造天衣无缝的假身份或虚构极具说服力的故事情节,应用于情感欺诈、投资欺诈、伪装政府人员等不同场景。如果再利用遭泄露的个人信息,以虚假音视频和图片配合文本,则可以实施针对特定目标的网络诈骗即所谓“鱼叉式网络钓鱼”。
  制作、传播、营销甚至阅览、下载、保存违背当事人意愿,以伤害他人为目的,以及含有任何未成年人内容的色情产品,在美国均属于违法犯罪。自2017年以来,不法分子出于猎奇、情感报复、家庭暴力、校园及职场霸凌、满足个人欲望、获取经济利益等目的,利用生成式人工智能工具,将通过合法或非法途径获取的图片、视频中非自愿、不知情或未成年受害者的形象加以修改,或将其面容“嫁接”到色情图片和视频上,或进行加入血腥暴力内容等更复杂的“合成”,并将成品存储在个人电子设备或进行网络传播的违法犯罪行为开始大规模出现,特别是未成年人、影视明星、网络“大V”和知名政治人物成为典型的受害者。截至2020年,国际互联网上大约95%以上的“深度伪造”内容都是色情内容。
  自2016年美国大选以来,利益集团制作、传播政治性虚假新闻以实现操纵舆论、煽动民意之目的的现象受到美国各界的广泛关注。自2018年以来,利用“深度伪造”技术,虚假图片和视频内容的加入使虚假新闻的效果进一步提升。这些虚假新闻中有一些是出于讽刺、宣传目的,其内容较为夸张或明确注明是人为编造,并非要使受众信以为真,其影响较为可控;但由于网络媒体的匿名化和“链式反应”式的信息传播方式,越来越多的旨在混淆视听、颠倒黑白的虚假新闻在互联网上病毒式传播,特别是每当重大政治事件发生时出现爆发性增长,对社交媒体大面积覆盖,挑动社会矛盾,政府和平台难以筛查拦截,而事后辟谣也对已造成的社会影响无能为力。目前已有大量网站或新媒体账户专门发布虚假新闻。2023年5月,专门揭露虚假新闻的“新闻卫士”(NewsGuard)公司确定了125家网站的内容全部或大部分为虚假新闻。此外,人工智能也被用于充当“水军”,发布评论或参与网络调查。对于制作、传播虚假新闻在“言论自由”和违法犯罪中的界定,美国各界对此尚有较大分歧,但对此类行为的严重社会影响和潜在危害性已予以高度重视。
  当然,利用生成式人工智能工具的违法犯罪活动远不止此,如2023年8月,一位美国作家竟然在亚马逊线上书店发现一部盗用其名义,内容完全由人工智能工具生成的“伪书”正在发售中。又如“黑客”利用人工智能编写难以被识别且能更好利用系统漏洞的恶意软件实施破坏或勒索(一类恶意软件可停止其所感染的计算机系统的全部功能,直至受害者缴纳“赎金”)——IBM公司在2018年出于检测网络安全目的而开发的DeepLocker软件展示了这种可能性。
  至于针对人工智能系统本身的犯罪行为,其主要手段是通过将虚假或恶意信息注入以机器学习方法“训练”人工智能系统时所用的数据中,以降低人工智能系统的效能,或引导其产生开发者和运营者意料之外的有害效果。2016年,微软发布了网络智能聊天机器人Tay(可视为ChatGPT等应用的前身),一些推特(2023年7月更名为X)账号利用Tay的“训练”方法,短时间内在推特上发布大量攻击性内容,并诱导微软为Tay在推特设立的账号重复这些内容,导致Tay“养成”了攻击性的对话习惯,迫使微软暂停了该账号。这只是在生成式人工智能发展早期,由业余人员出于猎奇目的针对缺乏实用价值的人工智能应用发起的实质影响较小的攻击。然而,当前人工智能系统已在社会生活中得到广泛应用,例如,基于机器学习的汽车智能无人驾驶系统,如果不法分子对用于“训练”该系统的数据进行“污染”或针对性“篡改”,可能导致大量运行中车辆的自动驾驶系统失灵或对特定情况作出错误反应,甚至可能会被用于实施破坏、暗杀或大规模恐怖袭击。还有一类针对人工智能系统本身的犯罪行为是通过“黑客”手段或应用端的特殊操作,将此前“训练”人工智能工具所使用的海量数据“还原”,从中获取含有个人隐私、商业秘密或其他关系社会安全的敏感信息,将其非法出售或用于实行针对特定目标的犯罪,研究认为诸如人脸识别等人工智能应用的数据面临此类风险最高。

  二、人工智能犯罪的表现和危害

  2022年,美国电信网络诈骗犯罪报案数为800944起,相比2021年下降约5%,但造成的潜在经济损失则从69亿美元大幅增长到102亿美元,犯罪分子对人工智能的利用是诈骗“精准性”与成功率上升的重要因素。2023年4月,犯罪分子利用“深度伪造”技术生成的虚假音频,成功使亚利桑那州的一位女士相信她的女儿遭到绑架,并勒索到100万美元赎金。业内专家表示,目前的普及型人工智能应用只需使用时长数秒到十几秒的语音素材进行“训练”,就足以生成以假乱真的短时间虚假音频。实际上早在新冠疫情时期,很多犯罪分子就利用企业普遍进行线上会议的机会,使用虚假的图片和音视频实施诈骗,但受当时技术所限其质量比较低下,以至于犯罪分子还需要用诸如网络延迟等借口增强其说服力,但当前生成式人工智能的技术水平几乎每半年就会有大幅提升。2023年7月,ChatGPT的插件“代码解释器”(Code Interpreter)全面部署,该插件可以帮助不掌握机器语言的一般公众在对话界面使用自然语言命令ChatGPT执行基于“Python语言”(一种常用的机器语言)的编程操作,美国咨询公司“人工智能领导者”(AI Leader)的首席人工智能策略师莉莎·帕尔默警告称,犯罪分子利用该插件强大的数据分析能力,可以在几分钟内从海量数据中获取其筛选受害者、伪造虚假身份、编写诈骗文本所需要的信息,甚至直接完成这些工作。这一趋势如果与近年来频发的大规模数据泄露事件联系起来——如2021年求职网络巨头领英(LinkedIn)泄露7亿条用户数据,2019年社交媒体巨头脸书(Facebook)泄露5.33亿条用户数据,且这些数据都在互联网上以低廉的价格公开售卖——未来电信网络诈骗犯罪的威胁无疑令人担忧。
  滥用“深度伪造”技术导致的非法网络色情内容泛滥在美国不仅令执法部门忧虑,甚至引起了广泛的社会恐慌。2010年代末以来已有众多可根据用户喜好,根据给出的照片或图画,或者使用者的命令,生成多种类型写实或卡通风格虚假图片的网络人工智能应用在运营中,其中一些或明或暗地以色情为卖点。美国《麻省理工学院技术评论》2022年底的一篇文章对热门应用Lensa AI进行了评测,发现其在使用者并未作出明确命令的情况下生成了大量“裸体或带有明显色情特征”的图片。目前,在互联网上传播的大多数“深度伪造”色情内容都是以英美女性影视明星为“主角”,其中绝大多数都是未经当事人同意的非法作品。然而更令人担忧的受害者是未成年人。美国1996年出台的《儿童色情预防法案》包含有禁止“虚拟儿童色情”的内容,但其中对“虚拟儿童色情”进行较宽泛解释的条款在2018年因违宪起诉而遭废除。2023年11月,美国北卡罗来纳州的儿童精神病专家戴维·塔图姆因使用秘密录制的、包含裸露内容的真实儿童影像素材,利用“深度伪造”技术制作儿童色情图片和视频而被判处40年监禁,但对于制作和传播更加“虚拟”的儿童色情内容的行为仍然难以惩罚。2023年9月,全美50个州的检察官发表公开信敦促国会采取立法行动加强对制作和传播“深度伪造”儿童色情内容行为进行制裁,他们呼吁:“我们正在与时间赛跑,以保护我们国家的儿童免受人工智能的威胁。众所周知,防线已被攻破,现在必须采取行动了。”美国南卡罗来纳州总检察长艾伦·威尔逊表示,现有法律难以制裁利用合法取得的儿童肖像制作“深度伪造”色情内容的行为,更无法管控“完全虚构”但足够拟真的数字儿童色情内容。
  美国政府认为,“深度伪造”假新闻和其他用于操纵舆论的人工智能技术,已对该国政治体制造成根本性威胁。美国前总统奥巴马、特朗普,众议院前议长佩洛西等知名政治人物均已成为虚假新闻的“素材”,并引发舆论风潮。2023年4月,美国政治顾问协会(美国政治家组织,民主党和共和党在董事会各占一半名额)董事会一致谴责利用“深度伪造”假新闻影响选举的行为,表示“尽管几十年来公众对政治组织及其活动的信任已经动摇,但‘深度伪造’虚假内容对美国的民主构成了截然不同的威胁”,认为包含“深度伪造”内容的政治广告不属于“言论自由”的范畴,不能被视为讽刺和宣传,而是恶意的欺骗,主张所有媒体、平台都应该拒绝发布此类政治广告。美国专家认为新技术赋能,未来“深度伪造”假新闻不只限于传统意义的媒体报道,可能出现如利用候选人的虚假音视频信息误导选民错误投票、传播仇恨言论、发布退出选举的假声明,甚至向选民发送来自其喜爱的名人的虚假通信,劝导其为特定候选人投票等更具破坏性的行为。在特定情况下,经过精心筹划,大量虚构的战争、灾难、丑闻新闻可能以不同形式在同一时间联动推出,短时间内“淹没”公众的信息源,可能直接导致社会动乱。美国政界人士普遍认为,2024年总统选举将面临来自“深度伪造”的严峻威胁。
  就针对人工智能系统本身的犯罪行为而言,美国方面最担忧犯罪分子将配备自动驾驶技术的汽车作为“武器”。早在21世纪10年代初,高等级汽车自动驾驶技术刚刚开始实验时,联邦调查局就在忧虑道路上正在行驶的汽车突然被“黑客”控制可能导致的可怕场景,并在呈交参议院的报告中要求汽车制造商排除这种危险,此后,美西方国家发生了多起通过汽车冲撞实施的恐怖袭击并导致大量人员伤亡,进一步加剧了此类忧虑。《华尔街日报》设想了“黑客”攻击汽车自动驾驶系统的多种犯罪场景,如将驾驶员锁在车中并勒索赎金。纽约大学研究人员的实验证明,犯罪分子可以对自动驾驶系统进行恶意“训练”,使其在一般情况下表现正常,但可被“训练”时预先定义的“触发器”激活反常行为。例如,自动驾驶汽车平时可以正常识别停车标志并制动,但如果在该标志上贴一张黄色便签纸并被汽车“看”到,则加速行驶并锁定方向盘。目前在美国,特斯拉、福特等厂商已获准开放了允许驾驶员在公共道路上“放开方向盘”的自动驾驶服务,尽管还没有实质性证据,但一些在使用自动驾驶功能时发生的伤亡事故已引起社会上关于人工智能犯罪的讨论。除此之外,美国证券交易商普遍利用人工智能系统辅助决策带来了潜在的安全风险。早在2010年,交易员纳文德·辛格·萨劳使用简单的自动化程序,利用时间差进行投机交易导致美国股市戏剧性崩盘。纳斯达克前副主席表示,人工智能系统的应用“创造了一个对人类而言变化太快的证券市场”,监管机构认为如果这些系统发生技术故障或被犯罪分子“劫持”,事态将在几秒钟内失控,交易商根本来不及作出反应。

  三、对人工智能犯罪的综合防范措施

  其一是立法控制。在联邦层面,美国于2018年出台《禁止恶意“深度伪造”法案》,规定对制作“深度伪造”内容引发犯罪和侵权行为的个人,以及明知内容为“深度伪造”还继续分发的社交媒体平台,可处以罚款和最高两年的监禁。如果伪造内容煽动暴力、扰乱政府或选举,并造成严重后果,可处最高10年监禁。但这部法律被认为过多强调行为人的动机,对后果考虑不足,影响了控制力度。2019年,美国出台《“深度伪造”责任法案》要求任何创建“深度伪造”视频文件的人,必须用“不可删除的数字水印以及文本描述”来说明该文件是篡改或生成的,否则将属于犯罪行为;而《“深度伪造”报告法案》,明确了“数字内容伪造”的定义,将国土安全部作为主管协调部门,要求其定期发布“深度伪造”技术相关报告,全面参与“深度伪造”技术研究。2022年,美国参议院国土安全和政府事务委员会提交了《“深度伪造”特别工作组法案》,要求设立“国家‘深度伪造’和数字生产工作组”。在州层面则进行了更多、更具体的相关立法。如2019年,得克萨斯州出台了《关于制作欺骗性视频意图影响选举结果的刑事犯罪法案》,将制作“深度伪造”视频等企图干扰选举的行为定义为刑事犯罪;弗吉尼亚州颁布了一项反“色情复仇”(指出于报复他人的目的制作、传播包含其形象的非法色情内容)修正法案,将“制作、传播虚假的裸体或性视频或图像”以胁迫、骚扰或恐吓他人的行为认定为刑事犯罪,违法者将面临最高12个月的监禁和2500美元的罚款;加利福尼亚州则出台法案禁止制作可能对处于60天选举期内的候选人产生负面影响的“深度伪造”音视频内容。与防范人工智能犯罪相关的其他重要法律则有2019年出台的《隐私权利法案》等,该法明确定义了个人数据,还要求联邦贸易委员会出台立法,赋予个人若干权利,包括:接收关于数据控制者收集、使用、存储和共享其个人数据通知的权利;被收集和使用个人信息时的选择加入权;访问个人数据处理活动有关细节的权利;访问可携式电子表中个人数据的权利;纠正不准确的个人数据的权利;要求删除个人数据的权利等。
  其二是行业自律。面对美国政府越来越严格的立法限制,以及社会舆论压力,生成式人工智能工具的开发商也在采取技术措施防范自家产品被用于犯罪或不道德的目的,并努力形成共同遵守的行业规范。如ChatGPT可识别出用户的指令或提示可能出于诈骗、儿童色情、虚假宣传等目的,并拒绝作出回应。但目前此类技术措施并不保险。如2022年以来广为流行的人工智能绘画软件“稳定扩散”(Stable Diffusion),被一些用户“开发”出生成裸体和色情内容的“功能”,并因此成为最受儿童色情内容制作者喜爱的软件,开发商紧急加入了过滤不安全和不适当内容的功能,但用户可通过使用未升级的旧版本简单地绕过这一限制。ChatGPT也被发现可通过一定的命令及提示技巧绕过其安全措施,已令开发商防不胜防。更有甚者,由不法分子仿照ChatGPT开发,但取消了安全措施,甚至专门为实施诈骗、编写恶意软件等犯罪目的进行优化的生成式人工智能工具FraudGPT从2023年7月开始广泛传播,而同类工具还有WormGPT等。
  其三是公众教育。美国政府和学界正在努力通过宣传和教育使公众能更好适应人工智能带来的社会变革和潜在风险,特别是在面对“深度伪造”政治性虚假新闻等威胁的时候。在西方国家中,芬兰被视为在这方面工作较为成功的典型,其经验在于鼓励民众有组织地在网络平台上揭发并抵制生产虚假新闻的账户,并对转发的媒体施加压力以促使其加强自我约束;将培养识别虚假新闻技能的课程引入学校和成人教育机构;加强对青少年的思想政治教育等。不过,仅有550万人口且高度同质化,具有欧洲知名的全民阅读传统的芬兰的经验,可能并不适用于社会严重撕裂、居民受教育程度两极分化的美国。毕竟很多时候,虚假新闻并不需要受众完全信服其所捏造的事实,而只需要迎合受众的偏激情绪、强化其既有立场即可达到目的,正如过去几十年来美国在他国煽动“颜色革命”时的策略一样。如今同样的伎俩在美国被引以为傲的人工智能技术赋能,被其国内利益集团出于内部斗争的需要而加诸己身,可谓是一杯不得不品尝的苦酒。■
  
  【作者简介】李皛,中国人民公安大学涉外警务学院教师,博士研究生学历,主要研究领域为涉外警务和边疆学。
  (责任编辑:冯苗苗)
  





编辑:现代世界警察----石虹   

    站内搜索

关键字
方 式

Copyright 2007 © 中国人民公安大学出版社™ All Rights Reserved
地址:北京市西城区木樨地南里甲一号  邮编:100038    出版社位置地图
出版社电话:010-83905589  010-83903250(兼传真)  购书咨询:010-83901775  010-83903257
E-mail:zbs@cppsup.com   zbs@cppsu.edu.cn
互联网地址:www.cppsup.com.cn  www.phcppsu.com.cn