**摘要:**近年来人工智能技术飞速发展,在给经济带来增长,使大众生活更加便利的同时,也产生了许多有关个人权利和公共利益的新问题。本文将从算法黑箱与免于歧视的权利、信息采集与个人隐私保护和生成式人工智能与创作权保护这三个方面进行分析讨论,旨在探讨如何让法律制度适应新时代。

**关键词:**人工智能,算法黑箱,个人隐私,创作权

引言

人工智能(AI)已经渗透进了我们生活的方方面面。以大数据作为支撑,人工智能从工业生产、医疗教育到交通、金融等领域,发挥着越来越重要的作用。然而,随着人工智能技术的快速发展以及社会不断的数字化,用户的权利保障以及隐私安全也受到了更多负面的影响。对此,有关部门需要基于新时代新技术进一步完善法律法规,及时对技术进行规范,从而更好地保障公民的权益。本文将基于算法黑箱与免于歧视的权利、信息采集与个人隐私保护以及生成式人工智能与创作权这三个方面的现象进行分析,并从法律规范和价值追求的角度对这些问题进行进一步评价与思考。

算法黑箱与免于歧视的权利

社会现象

在现代社会,大量的数据被用于训练和优化人工智能算法。这些算法通常被视为“黑箱”[^1],因为它们的内部运作方式对于外部观察者来说是不透明的。在这种情况下,“大数据杀熟”出现了。现今所说的“大数据杀熟”,一般是指互联网商家利用大数据技术,通过算法分析处理收集到的用户信息并做出数据画像,对价格不敏感者特别是熟客施行同物不同价的“价格歧视”政策,以此实现自身利益最大化。[^2]

据人民网报道,某用户分别使用自己的高级会员和普通会员账号在同一电商平台购买同款商品,结果发现,高级会员账号竟然需要比普通账号支付更高的价格。此外,北京市消协的一项调查显示,许多被调查者表示自己曾被“杀熟”,其中,网购平台、在线旅游、网约车类移动客户端或网站是杀熟“重灾区”。[^3]可见,大数据“杀熟”已经严重侵害了消费者权益,需要有关部门提升监管制度,加强制度约束,对行业风气进行整治,使市场更加健康地发展。

法律规范

欧盟《一般数据保护条例》第22条阐明,个人有权不受自动化判断的影响,包括算法分析。[^4]此外,中国专门针对互联网算法的法律《互联网信息服务算法推荐管理规定》明确规定,应当建立完善平台订单分配、报酬构成及支付、工作时间、奖惩等相关算法,不得根据消费者的偏好、交易习惯等特征,利用算法在交易价格等交易条件上实施不合理的差别待遇等。[^5]

显然,虽然已经有了许多法律去禁止“杀熟”,但仍然存在许多“杀熟”的现象,这表明法律的普及、实施以及监管还不到位,此外,法律本身也有进一步完善的空间。

2.3 价值评价

人工智能技术应该是服务人类的,技术的使用应该满足正义、平等和人权的价值追求。而从价值判断的角度来看,算法黑箱导致了公共资源如数据被机器垄断,并在不透明的条件下运用,甚至侵犯了公民的权利,这并不符合正义、平等和人权的价值追求。

随着研究越来越多,算法会变得愈发复杂和隐蔽,因此我们需要更多的思考,对它们提出质疑与要求,让制度的约束跟上技术的脚步,使“免于算法歧视的权利”成为法律和道义上的重要原则。

信息采集与个人隐私保护

社会现象

信息采集与个人隐私保护是一个热门且复杂的话题。从社会现象的角度来看,信息技术的发展使信息采集变得非常便利,各种APP、网站和互联网平台都可以轻易地收集大量的用户信息。随着社会的数字化,从企业和政府部门的工作到日常生活的出行和上网,都需要收集、使用和分析个人信息,而这也涉及到了个人隐私的问题。一些公司甚至出售或滥用用户数据以谋求利益。这种现象导致了用户隐私的泄露和滥用,引发了人们对个人隐私安全的担忧。在这种环境下,人们越来越重视个人信息保护,因此需要有更多更完善的法律法规来规范信息的采集和使用,以保护公民的隐私权。

法律规范

为了保护个人隐私,各国政府已经制定了一系列相关法律法规。例如,欧盟的《一般数据保护条例》(GDPR)同样要求企业和政府部门在收集、处理、存储和传输个人数据时,必须遵循透明、公平和合法的原则;[^6]美国的《加州消费者隐私法》(CCPA)也规定,消费者有权知悉企业如何收集、使用、分享和销售他们的个人信息,以及拒绝企业出售他们的个人信息;[^7]中国已经出台了《个人信息保护法》、《消费者权益保护法》、《电信和互联网用户个人信息保护规定》等法律法规,这些法规规定了信息的采集或使用者应当遵循合法、正当和必要的原则。但是,这些法规的适用性和执行力仍存较大提高空间。有不少网民反映,一些APP和网站的隐私政策过于模糊,个人信息采集范围和使用用途不够透明,并且对信息泄露事件的处罚不足以起到威慑作用。因此,还需要不断完善相关的法律法规,以达到更好的适用性和执行效果。

价值评价

从价值评价的角度来看,信息采集与个人隐私保护在某种程度上存在价值冲突。个人信息采集可以满足商业公司的数据应用需要,提高产品和服务的个性化定制,带来用户体验的提升,但过度的信息采集又会侵犯用户隐私,给公民的信息安全和人格尊严带来威胁。因此,在规范信息采集行为方面,立法者还需要合理地权衡信息采集的必要性与个人隐私保护的重要性,找到两者的平衡点。同时,也有必要加强对法律法规的执行力度,并进一步完善相关监管措施,以便在维护公共利益的同时,充分保障个人权利。总而言之,信息的滥用关键不在于客观的数量,而是信息采集者如何对待信息,其行为及意图是否损害了信息提供者的权益。

综上所述,信息采集与个人隐私保护的关系十分密切且复杂,需要将社会现象、法律法规和价值评价进行整体考量,同时,也需要不断完善法律法规,提高法规的可操作性与执行力,而这也需要在信息采集的必要性与个人隐私保护之间进行权衡,在不妨碍社会发展的同时,保障公民的信息安全。

生成式人工智能与创作权

社会现象

生成式人工智能(GAI)通过模仿人类的创作过程,可以生成音乐、文学作品甚至是艺术品,引发了人们对个人创作权的担忧。比如AI绘画就对Artstation和Pixiv这两个艺术作品展示平台的画师们产生了冲击性的影响。用户使用AI对原画师展示的作品进行训练,大量生成带有原画师绘画风格的作品,从而严重影响了原画师的作品展示。

对此,Artstation在推特上进行了回应,并更新了一条在 Artstation 上使用AI软件网站说明,其中重要的说明是如何处理艺术家版权和AI绘画软件问题。其内容大意如下:“我们认为,艺术家应该自由决定如何使用自己的艺术作品,同时不想成为一个把关者,因为在尊重艺术家的选择和版权法的情况下,网站条款会扼杀人工智能研究和商业化。以下是网站目前的计划:1.添加标签,使艺术家能够选择明确允许或禁止将其艺术作品用于训练非商业AI研究,以及训练商业AI。同时计划更新ArtStation网站的服务条款,以禁止AI在艺术家选择禁止的情况下侵权使用艺术作品。网站不打算默认添加这些标签中的任何一个,在这种情况下,人工智能对艺术作品的使用将仅受版权法的约束,而不是服务条款中的限制”[^8]。

P站官方则表示,相信在未来的创作过程中,人们对于AI技术的使用会越来越普及,因此并不打算完全排斥有AI参与绘制的作品:“更新了功能,编辑投稿作品时,提供可以标识为AI生成作品的选项;提供相关筛选功能,以在搜寻等画面中过滤AI生成作品;提供专属于AI生成作品的排行榜,并将其与通常作品完全划分”[^9]。

此外,人工智能系统生成的作品是否应该获得版权,版权应该属于人工智能还是程序设计者,它们会不会侵犯他人的创作权?这些都是值得我们深思的问题。

法律规范

从社会现象看,生成式人工智能产生的作品形式多样,涉及面广,它不仅能生成小说、新闻稿等文本,还能产生影像、音乐等多媒体内容。这些人工智能作品的增多势必会影响社会对创作与知识产权的理解,挑战现有的法律法规。有观点认为,人工智能只是一种工具,其作品应归属使用这一工具的人或组织。但人工智能系统的自动生成能力也在快速提高,人的参与程度越来越小,这使得确定创作权归属成为一个棘手的问题。

从法律法规来看,现行法律对此还没有明确的规定。若人工智能被视为作者,其作品能获得版权吗?版权法赋予作者包括人格权在内的一系列权利,但人工智能系统难以行使这些权利。而若将版权归于人工智能的使用者,则容易导致权利滥用,从而需要通过立法来进行进一步的规范。

目前,各国在知识产权法律方面仍然以保护人类创作者为主,如中国的《中华人民共和国专利法》、欧洲的《著作权指令》、美国的《美国版权法》等。这些法律对人类创作者的版权保护有积极的作用,却没有很好的解决AI作品版权的归属问题。

价值评价

从价值角度来看,人工智能的自主创作能力值得鼓励,但也必须考虑对个人创作权的保护。在追求人工智能技术进步的同时,应慎重考虑其对知识产权可能产生的影响。一方面,可以在法律上明确人工智能作品的著作权归属,规定其使用许可,防止其被滥用;另一方面,也要给予人类作者相应的权利保护,例如,加强对人工智能生成作品的监督,避免直接采用或大量引用他人作品。只有在创新与规范、技术进步与道德约束之间达成平衡,生成式人工智能与个人创作权才能实现和谐共生,从而更好地适应人工智能时代。

结论

人工智能技术的发展确实有着增长经济、便利生活的巨大潜力,但同时也给个人的权利保障和隐私安全带来了新的问题和挑战。本文分析了算法黑箱与免于歧视的权利、信息采集与个人隐私保护以及生成式人工智能与创作权这三个方面的问题,从法律规范和价值评价的角度进行了思考与评价。总而言之,如今为了应对这些挑战,我们有必要加强对人工智能相关法律法规的完善,在充分发挥人工智能技术潜力的同时,确保个人权利和公共利益得到充分的保障。

参考文献

  1. 参见MBA智库百科词条“算法黑箱”,https://wiki.mbalib.com/wiki/算法黑箱
  2. 《大数据杀熟与价格歧视那些事:一文全面解析“大数据杀熟”》,载知乎,2021年3月5日,https://zhuanlan.zhihu.com/p/354815577
  3. 《人民日报人民时评:用法制遏制大数据“杀熟”》,载人民网,2020年12月9日,http://opinion.people.com.cn/n1/2020/1209/c1003-31959826.html
  4. 欧盟《一般数据保护条例》,载微信公众号“数据法律资讯“。
  5. 《规范互联网信息服务算法推荐活动 维护国家完全和社会公众利益——解读<互联网信息服务算法推荐管理规定>》,载新华社,2022年1月4日。
  6. 欧盟《一般数据保护条例》,载微信公众号“数据法律资讯“。
  7. 《加州消费者隐私法(CCPA)》,载Microsoft,2021年9月14日,https://learn.microsoft.com/zh-cn/compliance/regulatory/offering-ccpa
  8. 海外画师集体抵制AI绘画,Artstation出现反AI浪潮,载知乎,2022年12月15日,https://zhuanlan.zhihu.com/p/592050105
  9. 《应对AI生成作品的相关功能现已上线》,载Pixiv,2022年10月31日,https://www.pixiv.net/info.php?id=8728&lang=zh