人工智能浪潮下如何掌控监管“罗盘”,点亮行业前行“灯塔”?_世界滚动

Sam Altman走进了国会山。这位在过去几个月赢得全球最多关注的年轻创业者,和他身后的OpenAI一起迎来了属于自己的听证会时刻。

近日,美国参议院司法机构隐私、技术和法律小组委员会举行名为“AI监管:人工智能的规则(Oversight of AI: Rules for Artificial Intelligence)”的听证会。在听证会上,被誉为ChatGPT之父的OpenAI首席执行官兼联合创始人Sam Altman提出了一个并不常见的诉求——请政府加大对人工智能领域的监管力度


(资料图片)

ChatGPT横空出世,大型语言模型的惊艳表现让一条未曾想象的道路在技术与产业面前徐徐铺开。然而硬币的另一面,是科技伦理、知识产权、数据安全等诸多问题亟待监管和治理的现实。

梳理发现,各国政府和监管机构已开始采取措施加强监管,以确保公众利益和安全。然而,在面对日新月异的人工智能技术,监管层面仍面临多重挑战,全球也尚未形成通行、共识的人工智能治理规则和体系。

受访专家表示,针对人工智能的风险监管或者治理,需多方参与,共同型构规制空间,协力促进人工智能良性发展。

AI要监管:千人联名信与国会山里的呼吁

人工智能技术可能使人类历史迎来一个“印刷机时刻”。5月16日,Sam Altman走入国会山,在听证会中如是说道。

作为OpenAI的联合创始人兼首席执行官,Sam Altman在过去几个月随着ChatGPT的出现和扩散逐步走到聚光灯下。与此前科技巨头展露出的攻击和防备不同,他认同议员们对风险的质疑,并积极地给出了自己的解决方案。

在这个以AI监管为主题的会议上,围绕人工智能,对版权侵害、虚假内容、数据安全、政府监管等诸多活了议题进行了讨论。

在听证会上,Sam Altman表示,人工智能有潜力改善我们生活的方方面面,但同时也会带来严重的风险。“我认为应该对我们施加监管压力。”他直截了当地表示。

担忧与ChatGPT的火爆相伴相生。泄露机密信息、撰写虚假文章、剽窃人类创意……ChatGPT似乎打开了“潘多拉魔盒”。

会议上,Sam Altman提供了几个监管建议。首先是成立一个新的机构,超过一定规模的功能研究和应用需要获得该机构的许可才可进行;该机构也有将许可收回的权力其次是构建一套人工智能安全标准,重点关注模型的危险能力评估,模型在部署到外部世界时需要通过具体的测试。另外,他还指出应该践行独立审计。在公司或机构的自我审查之外,监管需要广泛听取外部专家的评价意见。

人工智能的应用往往与大量隐私数据关联,针对被用以研究和计算的数据,Sam Altman认为应当设立便捷的退出、删除机制。用户有权决定自己的数据是否用户训练,也能自由地删除相关数据。

两天前,OpenAI官网发布Sam Altman参与写作的博文,主题仍是人工智能治理,其中提到:“现在是一个开始思考超级智能(Super Intelligence)监管的良好时机 —— 未来的 AI 系统将比 AGI 都要强大”。他提出,应当成立类似“国际原子能机构”的专门监管机构对超过一定能力(或计算资源等)超级人工智能进行监管。

在Sam Altman走进国会山之前,全球范围内已有多方对当前人工智能技术表达了关切和担忧。

3月,美国数千名人工智能领域企业家、学者、高管发出了一封题为《暂停大型人工智能研究》公开信,呼吁关注人工智能研发中产生的安全问题,并敦促各国政府及时介入人工智能的监管。同月,人工智能和数字政策中心向美国联邦贸易委员会投诉,试图阻止向消费者发布强大的AI系统。

监管进行时:禁用、调查和立法

各国政府和监管机构也已采取措施加强监管。

3月,意大利隐私监管机构宣布境内暂时禁用ChatGPT。4月,意大利、加拿大等国宣布将对OpenAI展开调查;同月,美国商务部就ChatGPT等人工智能技术相关的问责措施正式公开征求意见,包括具有潜在风险的新型人工智能模型在发布前是否应进行核准认证程序;中国国家互联网信息办公室发布的《生成式人工智能服务管理办法(征求意见稿)》。

此外,英国、美国、日本、欧盟均在5月针对人工智能有所动作。其中,欧盟《人工智能法案》多个提案在欧洲议会通过,即将进入欧盟委员会、欧洲议会及欧盟理事会的“三方会谈”(trilogue)阶段。

事实上,人工智能是一把双刃剑早已成为全球共识。梳理发现,在此轮AICG浪潮之前,全球范围内关于人工智能已有多份立法及监管文件。

在斯坦福大学发布的《2023年人工智能指数报告》中提到,对127个国家的立法记录调研的结果显示,包含“人工智能”的法案被通过成为法律的数量,从2016年的仅1个增长到2022年的37个。报告还对81个国家2016年以来的人工智能议会记录的分析也同样表明,全球立法程序中提及人工智能的次数增加了近6.5倍。

随着生成式人工智能研究和使用规模逐渐增长,建立新型的人工智能监管框架十分必要。

对外经济贸易大学数字经济与法律创新研究中心执行主任张欣就指出,监管框架的构建能够保证在推动人工智能的负责任创新的同时化解新兴技术应用时蕴含的风险。在市场机制无法很好地发挥作用的“野蛮生长期”,框架式的监管也能为行业指明健康发展的方向。

而据南方财经全媒体记者不完全统计,从2019年至今,多个国家、地区和国际组织就已经着手于建立人工智能的监管框架。

协同共治:构建多元规制空间

现如今,新型人工智能监管框架的构建在各国迅速推进,如何有效推动落地?在采访中多位专家表示多方参与,协同共治是关键。

由企业、第三方团体和公众所组成的外部监督也是构成整个监管体系的重点。”张欣指出。

同济大学法学院副教授、上海市人工智能社会治理协同创新中心研究员陈吉栋则表示,社会各主体构成的多元规制很重要,有了多元主体参与才能确定社会权益的分配边界和规则。“总的来说,风险的监管或者风险社会的治理,是多种规制力量协力的结果,目前看,各方主体需要对话,共同型构一个规制空间。”他表示。

实际上,各方也已在发力。4月初,OpenAI发布《我们迈向人工智能安全的路径》,阐述了他们在安全工作付出的努力,并从建立日益安全的人工智能系统、从实际应用中学习,以改进保障措施、保护儿童、尊重隐私、改善事实准确性、持续研究和合作七个方面做出了保证。在几天前国会山的听证会上,Sam Altman则宣布在未来六个月内不会训练GPT-5,年内也可能不会再推出更强大的AI模型。

此外,4月,美国新闻/媒体联盟发布“人工智能原则”,要求生成式人工智能必须尊重创作者对其内容的权利,其生成的内容必须对发布商和用户透明并负责。

5月,人工智能初创企业Anthropic结合联合国人权宣言、若干信任和安全“最佳实践”等一系列文本制定了人工智能道德原则,并基于此开发了宪法AI“Claude”。

在我国,抖音也于近期发布了《关于人工智能生成内容的平台规范暨行业倡议》,制定标识水印及元数据规范,呼吁全行业向公众提示信息内容的合成情况以避免混淆或者误认。

“监管、企业、媒体和公众在人工智能治理框架下将扮演不同的角色。” 北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括指出,“监管作为秩序的建立者和维护者的角色,一方面提供关于业务运行的基本指引规则,另一方面突出对于红线风险有效地研判、防范和干预。企业则通过积极履行主体责任,在合法合规层面通过有效的技术创新、有效的流程管理和有效的风险防范来构筑人工智能治理的生态底座。媒体和公众作为监督和治理的第三极,发挥着凝聚共识的重要作用,通过有效均衡的治理结构推进人工智能的良性可持续发展。”

观往知来,如何处理好监管与发展的双生博弈,让我们拭目以待。

统筹:王俊

记者:李润泽子 冯恋阁 麦子浩

关键词: