筑牢法律与技术双防线,护航人工智能稳健前行
发布时间:2025-02-07 09:20:04
今年春节期间,深度求索人工智能基础技术研究有限公司(DeepSeek)开发的生成式人工智能(AI)服务成为大众焦点,吸引了大量关注,引发热烈讨论。然而,有报道显示,针对 DeepSeek 线上服务的攻击强度陡然上升,攻击指令数量急剧增加,由此引发的服务中断、数据泄露等网络安全风险不容忽视。如何借助法律保障,营造更安全的人工智能产业环境,成为亟待探讨的重要议题。
在人工智能产业蓬勃发展的进程中,个人信息安全、虚假网络信息生成、算法歧视等问题频繁出现。为解决这些问题,相关部门相继出台了《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等法律法规,不断完善和优化人工智能应用的合法性。2023 年 7 月发布的《生成式人工智能服务管理暂行办法》明确指出,支持行业组织、企业、教育科研机构、公共文化机构以及专业机构等在生成式人工智能技术创新、数据资源建设、转化应用和风险防范等方面展开合作;推动公共数据分类分级有序开放,扩充高质量的公共训练数据资源。这些具体措施,对化解潜在技术安全风险具有重要意义。未来,还需多管齐下,筑牢人工智能安全屏障。
其一,持续细化人工智能产品研发者、服务提供者以及用户的法律义务与责任承担方式。从长远角度看,难以把控的技术安全风险会阻碍科技创新。因为在确保信息服务质量和功能稳定性方面,事前控制技术风险所带来的经济效益远超事后行政干预和纠正科技创新方向。生成式人工智能服务和产品展现出超乎市场预期的智能化水平,不仅像 ChatGPT 刚推出时呈现出高质量的文本编辑功能,还在代码编写、视频制作等领域实现高效生成。这种高度智能化的特点给网络信息内容治理带来挑战,一旦被用于网络黑灰产领域,将对公民的人身和财产安全造成巨大威胁。所以,要进一步规范研发者和服务提供者的科技创新行为,通过将事前安全风险评估、强制性算法备案等治理措施法治化,引导产业健康发展。
其二,通过保障型条款实现科技创新资源的高效分配,为经营主体打造公平公正的市场竞争环境。从技术创新层面来说,人工智能科技创新离不开算法、数据和算力这三个关键要素,相应的法治保障体系也应围绕它们构建。因此,要从基础科技创新、促进科技成果转化、人才培养等方面提升算法模型的自主创新能力;丰富训练数据的获取方式,充分保障中小企业平等获取训练数据的发展权利;构建算力资源供给机制,涵盖算力网络建设、资源调度规划、服务交易等具体内容。
声明:本站所使用的图片文字等素材均来源于互联网共享平台,并不代表本站观点及立场,如有侵权或异议请及时联系我们删除。