为促进生成式人工智能技术健康发展和规范应用,根据《中华人民共和国网络安全法》等法律法规,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》,现向社会公开征求意见。现本网摘取部分意见稿如下
反对《生成式人工智能服务管理办法》征求意见稿第七条
以下5条为人类写的反对意见:
1、提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。
【意见】:目前按算法备案的深度合成的理解来看,有服务提供者和服务技术支持者,比如百度文心一言是服务技术支持者,使用文心一言技术接口的网站或APP并对外提供服务的是服务提供者,那么法律草案这里说的提供者要对数据来源合法性负责,如何负责呢?因为其算法是掌握在服务技术支持者,风险完全难以控制,如果服务提供者这里也要对生成的数据进行一个算法方面的过滤,那谈不上预训练数据、优化训练数据,只是阻碍创新。
2、用于生成式人工智能产品的预训练、优化训练数据,应满足以下要求:(二)不含有侵犯知识产权的内容。
【意见】:如果不得不含有侵犯知识产权的内容,那么许多人类的先进知识将无法训练进去,没有数据喂它的话,它就无法创新,无法创造出比chatgpt还伟大的产品,ai是人工智能产品模仿人类的神经网络,他就好比一个人,你可以把他当成一个人。如果你让一个人不能看含有知识产权的东西,那手机也是有知识产权的因为有外观专利发明专利,那这个人就不能用手机,那这个人也不能看新闻和小说,因为这些都是人家的版权,如果限制的这么死,那AI就学不到有价值东西,涌现不出独特的创新,不会像人类那样去思考。
3、(三)数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形
【意见】:若训练数据里含马斯克的新闻,是否还要去征得他同意呢?如果某个死了呢?还要联系他的继承人吗?如果人人都可以谈某个明星,而禁止ai去训练,那以后人家问这个AI是不是就问不到关于这个明星的任何信息呢?如果能够出现而他出示不了授权,是不是说明这个AI违规了呢?
4、(四)能够保证数据的真实性、准确性、客观性、多样性
【意见】:你能够保证每个人说的话都具有真实性、准确性、客观性、多样性吗?人都不能保证,何谈机器可以保证?机器只能通过大数据和概率去判断,根据用户反馈纠正,什么都是死的,很难有创新。
5、综上所说,《生成式人工智能服务管理办法》征求意见稿第七条严重阻碍创新,根据这个规定出来的人工智能将是人工智障,否则若真有创新,就是已经违反了该办法,那这样名存实亡的办法有什么用呢?
以下5条为chatgpt写的反对意见:
从反对的角度来看,针对《生成式人工智能服务管理办法》征求意见稿第七条的内容,我提出以下意见和理由:
数据来源合法性问题:对于预训练数据和优化训练数据的来源合法性负责要求过于严格,特别是对于大量使用开放互联网数据进行预训练的生成式人工智能模型。这可能会导致合规成本上升,限制了行业发展和创新。
数据真实性、准确性、客观性、多样性的要求:在实际操作中,确保所有训练数据完全满足这些要求可能非常困难。因为生成式人工智能所需的数据量巨大,逐个核实数据的质量和来源可能非常耗时且成本高昂。此外,客观性和多样性的标准可能因人而异,难以达成共识。
法律法规适用范围:第七条规定了对预训练和优化训练数据的要求,但未明确规定在跨国数据传输、数据保护和数据主权等方面的具体措施。这可能导致在国际合作和全球市场中出现法律法规执行的不确定性和不一致性。
知识产权问题:尽管要求不含侵犯知识产权的内容,但在实际操作中,生成式人工智能模型可能会在生成过程中产生与已有知识产权相似的内容。这可能导致潜在的知识产权纠纷。
个人信息保护:尽管要求征得个人信息主体同意或符合法律、行政法规规定的其他情形,但在实际操作中,征求个人信息主体同意可能非常困难。此外,生成式人工智能可能在生成过程中泄露个人信息,这会给个人信息保护带来挑战。
综上所述,针对第七条的内容,我们需要权衡监管要求和行业发展的关系,避免过于严格的监管限制了生成式人工智能的创新和发展。