新出现的生成式AI技术,正以一种前所未有、绝无仅有的奇特速度慢慢渗透进我们的日常生活当中,然而,伴随着这种渗透而来的数据滥用现象以及接踵而至的伦理方面的风险,也变得日益突出、越发显著起来。就在最近这段时间,国家互联网信息办公室正式发布了《生成式人工智能服务管理办法(征求意见稿)》,这一行为标志着中国针对这一崭新兴起的领域的监管,由此正式实实在在地拉开了帷幕,其目的在于给那如同狂奔一般肆意的AI套上一根“缰绳”,从而保证其能够在符合规定的正确轨道之上,稳健、顺利、健康地向前发展。
监管框架初定调

《征求意见稿》一共有21条,第一次给“生成式人工智能”划定出明晰的法律界限,它把此类技术界定为借助算法模型生成文本、图像、音频等内容的技术,并且明确国家对基础技术的自主创新以及国际合作予以支持,这样的定义为后续的监管举措提供了根本的依据,防止了概念模糊所引发的执法难题。
文件着重指出,对于相关服务予以提供之时,务必要遵循法律法规,尊重社会公德。这所蕴含的意义在于,AI的创作以及输出领域不可以成为超出法律规制的特殊区域,任何借助AI开展非法内容生产活动、侵犯他人权益的行为都会被极为严格地加以禁止。这给行业划定了不可跨越的红线。
数据源头强管控

全新的规定针对训练数据的合法性设定了极为严格的条件,数据提供者一定要对用到预训练以及优化训练当中的数据来源承担起相应责任,要保证这些数据不会对知识产权造成侵犯,并且当这些数据里含有个人方面的信息时,必须征得相关主体的同意,这切切实实回应了公众针对AI“偷学”数据、侵犯隐私所产生的普遍担忧,从根源处遏制了潜在的侵权风险。
一时之间,数据务必保障真实性,还要落实准确性,更需要保有客观性以及确保多样性。这样的一项要求用以防范AI由于“投喂”了偏见又或是虚假数据继而输出有害或者歧视性内容,以此保证AI的生成结果具备可靠以及公正的特性。数据质量变成了AI服务合规的首要关卡。
服务提供者责任重
按照规定,在利用生成式 AI 给公众提供服务以前,得向网信部门申报安全评估,这是事前监管很关键的一步,这表明不是所有模型都可随意上线,其安全性以及社会影响会受到官方审查,这样做有助于把风险拦在门外。

那个用以提供相关内容的一方,还得依照规定去核验用户真实的身份信息。一旦察觉到用户借助服务来从事网络炒作、恶意进行发帖、编纂恶意软件或者开展不正当营销等违规的行为,那就一定要暂停或者终止服务咯。这就把平台的主体责任给压实了,令其不可以仅仅是提供工具却在管理方面有所疏忽呢。
用户权益得彰显

专门方式着重指出严禁非法取得、公开、运用个人信息以及商业秘密。于AI深度剖析数据有实现可能的现今如此阶段,此项条款给用户私密性以及商业机密构建起了防护屏障。任何一种服务均不可以技术创新的名义去做侵权的行为。
对普通用户来讲,这表明处在使用AI服务情形下,他们的个人数据理应获得更严谨的保护。服务提供者要构筑机制,保障AI于处理用户输入之际不披露敏感信息,就连用户的对话记录以及创作内容等也要妥善保存。

企业竞逐新赛道
紧跟着GPT在全球引发热潮,中国国内的科技巨头们纷纷展开布局,百度投身生成式AI的研发与应用,华为也投身生成式AI的研发与应用,腾讯同样投身生成式AI的研发与应用,阿里投身生成式AI的研发与应用,京东投身生成式AI的研发与应用,360也投身生成式AI的研发与应用。新规产生而出台,为这一场极其激烈的技术竞赛确定了清晰明确的规则,避免了无序竞争以及野蛮生长造成的不良情况。
监管框架得以明确,事实上也给负责任的企业给予了稳定预期,它们能够在符合规定的前提下,更加安心地将资源投入到技术创新以及商业探索之中,无需再去顾虑政策突然转变所带来的不确定性,这对形成健康产业生态颇为有利。

未来治理路漫漫
专业领域内的人士明确表示,这份意见征求稿仅仅只是人工智能标准化治理进程当中的首个步骤。伴随技术以较快速度不断更新换代,以及更多的应用得以在实际场景内落地实施,全新的风险以及挑战必定会持续不断地大量出现。针对监管所采取的各项措施同样需要始终保持动态性的调整,以此达成“精准施策”的目标,防止陷入那种“先造成污染而后再去进行治理”的被动不利局面。
未来的监管会是个长久、动态的进程,此进程需要监管部门、技术企业、行业专家以及公众持续对话、协作。其目标是平衡创新激励同时防控风险。意味着既要释放极具潜力的AI,又要把社会与人类安全、伦理底线守护好。
面临那即将来临的生成式AI监管全新时代,你觉得最需得以严格监管的AI应用场景究竟是什么?是内容创作这块吗?还是智能客服领域?又或者是更为深度的决策辅助方面?欢迎于评论区去分享你的看法,也千万别忘了点赞以及转发,从而让更多的人能够参与进这场关联着未来的讨论当中。






