监管先行促生成式AI安全发展
来源:中国经济网 发布时间:2023-07-23 08:42 作者:叶子琪 阅读量:4597
国家网信办等7部门近日发布《生成式人工智能服务管理暂行办法》,对生成式人工智能技术应用划定清晰边界,实行包容审慎和分类分级监管,确保科学监管和鼓励发展并行。《暂行办法》坚持发展和安全并重、促进创新和依法治理相结合,旨在推动生成式人工智能健康有序发展。这符合今年4月底中央政治局会议提出的要求——要重视通用人工智能发展,营造创新生态,重视防范风险。
时下,以ChatGPT为代表的生成式AI技术正引领全球新一轮科技发展潮流,被视为新一轮产业变革新风口。据有关机构预测,生成式AI将为全球经济带来每年2.6万亿至4.4万亿美元的增长。生成式AI技术应用逐步落地,在对全球经济社会系统产生深刻影响的同时也引发关于其风险的担忧。各国迫切需要在AI创新应用和有序监管两方面做出妥善平衡。
作为技术本身,生成式AI兼具正、负外部性。运用得当能解放生产力和发展生产力,运用不当也可能产生适得其反的效果。鉴于生成式AI带来的风险尚不可预知,各国高度关注可能由此引发的各类安全与权益保护问题。比如,微软、谷歌等科技公司开始反思AI伦理道德问题,诸如隐私信息保护等问题也亟需解决。
事实表明,促进生成式AI创新应用需要以良性监管来引导其规范健康发展。对技术加以规范,不一定会阻碍创新。通过精心设计,能做到平衡兼顾,既能接纳发展新事物,也能防范失控风险。各国目前已认识到监管AI的必要性和重要性,对推动生产式AI创新应用保持着相对谨慎态度。今年5月,七国集团领导人峰会呼吁制定AI国际技术标准,并认为这一科技前沿技术的监管治理未能跟上其发展步伐。美国发布了《人工智能权利法案蓝图》《人工智能风险管理框架》等政策文件以规范AI发展,还拟发布政策指导和技术立法为AI应用设置“护栏”。欧盟制定了《人工智能法案》,对AI技术风险水平进行分类,对大型语言模型提出规范要求。英国竞争监管机构正在审查人工智能对消费者、企业和经济的影响。日本隐私监管机构警告OpenAI不得在未经公众许可的情况下收集敏感数据。
《暂行办法》的出台,表明我国在平衡AI技术创新与安全发展方面开展了有益探索。这一监管规则的落地释放出促进生成式AI技术发展的明确信号,将引导企业在划定的范围加速开展技术创新和推广应用。一方面,监管先行将为AI技术发展提供更加明确的政策预期,消除相关制度障碍,确保在科学监管框架下鼓励行业企业继续投入开发模型,从而在全球AI的竞赛中不掉队;另一方面,通过科学监管引导生成式AI技术应用健康向善发展,有助于提高生成内容的准确性和可靠性,有效堵住技术应用中的风险漏洞,避免被错用、误用、滥用,为保护公民权益和信息安全提供法规依据支撑。
生成式AI技术应用加速落地,将驱动新动能发展壮大。生成式AI技术已成为培育经济发展新动能的新赛道,能有效提升劳动生产率,也是国际间开展科技竞争的关键领域之一。当前,我国对生成式AI技术应用划定发展“红线”,将容错和纠错机制纳入审慎监管框架,旨在促进新技术的快速发展应用,以期增强经济发展的后劲。《暂行办法》通过明确生成式AI开发者、供应商和使用者社会责任和法律责任,不仅有助于维护国家、商业及公众的安全与利益,也为AI的蓬勃发展创造良好的激励相容生态环境。总体上看,我国及时出台这一温和明确的监管框架,将整体促进AI在各行各业的推广应用,加速生成式AI在各个层面的落地,鼓励探索优化各层面多领域的应用场景,从而推动整个行业规范健康成长,为推动经济高质量发展提供动力支撑。
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。