为在人工智能时代更好地保障个人数据安全,也让使用者能更安心使用AI产品,我国预计明年初推出针对生成式人工智能开发者的安全指南。 数码发展及新闻部长兼内政部第二部长杨莉明星期一(7月15日)在个人资料保护周研讨会开幕仪式上致辞时,宣布这个消息。 她说,这份针对生成式人工智能(Generative AI)框架和应用开发者的安全指南,旨在将数据的透明度和安全性测试定为AI开发的优先基准和基本要求。 这份指南会建议,开发者和部署者应对使用者更透明,包括提供关于生成式AI工作原理的信息,例如使用哪些数据、测试与评估的结果,以及可能还存在的风险和局限。 “这有点像开架药品盒子里的说明书,告诉你这个药该怎么用、可能有什么副作用。这种程度的透明度,对于使用生成式AI搭建的AI模型是必要的。这是我们的建议。” 杨莉明指出,AI的开发和测试使用了大量数据,如果不降低与数据安全相关的风险,企业和用户可能难以信任AI支持的产品和服务。若没有信任作为基础,对AI发展的支持可能逐渐减弱,甚至成为阻力,最终让发展停滞。 她说:“新加坡会以主动、保护和务实的方式应对这些挑战。” 由于AI领域发展迅速,我国早在2019年便推出人工智能监管模式框架(Model AI Governance Framework),2022年推出了全球首个人工智能治理测试框架和工具箱AI Verify。此次宣布的安全指南将是AI Verify的一部分,预计在明年初推出。 延伸阅读 保护人工智能系统技术指南 网安局本月展开公众咨询 杨莉明:政府下来须研究如何应对滥用“深伪”视频 加强AI领域个人信息保护 除了安全指南,杨莉明也宣布,当局将进一步支持在AI领域使用隐私增强科技(Privacy Enhancing Technologies),包括通过资讯通信媒体发展局监管沙盒,支持与生成式AI数据使用相关的项目,以及推出针对合成数据(synthetic data)生产的建议指南。 针对亚细安的数据匿名化指南(ASEAN Guide on Data Anonymisation)预计也将在明年初发布,以推动区域数据监管和互联,并为亚细安的相关业者提供重要的资源。 每年举办的个人资料保护周研讨会为亚洲监管机构、政策制定者、行业领导者和国际智囊团等,提供了探讨数据使用与合作的平台。今年研讨会的主题是“在信任中创新,以数据推动改变”,于7月15日至18日在滨海湾金沙举行, 在其中一场关于AI发展与数据保护的讨论会上,资媒局助理局长黄慧雯指出,由于使用的技术和构建、部署的特殊性,生成式AI的监管是个复杂的课题。 她举例,其中一个关键点是,在整个流程中,每一个人需要或可以获得的信息有哪些,又必须承担哪些责任。当局希望能与业界合作,在安全指南中厘清这样的透明度和责任划分。 ChatGPT开发公司OpenAI的副总法律顾问兼隐私法律主管杰西卡(Jessica Gan Lee)说,她相信公司、监管部门和广泛社群都应该沟通与合作,才能取得最佳效果,保障数据安全。 |