近年来,随着AI技术的不断发展,越来越多的人在工作生活中开始享受到该技术所带来的全新体验。但随之而来的是,一些不法分子开始利用AI技术从事违法犯罪活动。AI 犯罪“花样”翻新、层出不穷。除了AI 换脸实施诈骗等,还有人利用 AI 软件对他人照片“一键脱衣”,“造黄谣”并四处散播;AI“换声”“偷声”假扮熟人……AI 技术本身是中性的,但如果使用不当,就可能带来“双刃剑”效应。所以,对于AI 技术,要明确划清应用边界,防范“双刃剑”效应。而对于 AI 犯罪,则应严厉打击。为了有效打击 AI 犯罪,政法机关采取了一系列措施,维护 AI 技术良好的发展环境。2023 年 9 月,最高人民法院、最高人民检察院、公安部联合发布《关于依法惩治网络暴力违法犯罪的指导意见》,明确对“利用‘深度合成’等生成式人工智能技术发布违法信息”的情形予以从重处罚。2024 年 4 月 23日,全国首例 AI 生成声音人格权侵权案在北京互联网法院一审开庭宣判,法院认定被告方使用原告声音、开发涉案 AI 文本转语音产品未获得合法授权,构成侵权,赔偿原告各项损失25万元,并书面赔礼道歉。
要想彻底打击 AI 犯罪,还需要标本兼治。AI技术发展迅猛,在一些领域监管存在一定的滞后性。对此,监管要能及时跟上,对于“花样”翻新的AI犯罪,要能见招拆招,及时予以痛击。同时,要加强全链条打击力度,针对AI犯罪特点,持续完善相关法律法规,提升打击AI犯罪的监管力量,并善于从典型案例中总结经验教训,堵住监管漏洞。
AI 犯罪多借助于网络平台实施,网络平台也要首担其责,所以,还需进一步强化平台责任。网络平台一方面要加强监管,落实好网络安全主体责任,加强对自媒体账号的管理,对AI犯罪信息进行有效管控,另一方面要畅通举报渠道,及时制止 AI 犯罪行为,并严惩问题账号,绝不能让AI技术成了违法犯罪的“帮凶”,也不能让网络平台成了AI犯罪的“帮凶”。
从监管部门到App应用平台、网络平台及每位网民,都应守土有责,对各种AI犯罪说不。广大网友也要增强法律意识、网络素养,不滥用AI技术进行违法犯罪活动,对于“AI 造谣”、AI 诈骗等 AI 犯罪,要保持警惕,不要轻信,还应及时举报,避免自己在不自觉间成了AI犯罪的受害者或“帮凶”。
技术并无原罪,关键在于人们怎么规范使用它。社会各方要多管齐下,合力管住AI 犯罪背后的“黑手”,不给 AI 犯罪任何可乘之机,绝不让 AI 犯罪成为 AI 技术发展的“附带品”。只有规范 AI 技术,守住 AI 技术应用法治底线,AI犯罪才不会从“潘多拉魔盒”中放出来,AI 技术才能更好得到善用,造福社会。