生成式人工智能带来新侵权形式
但与侵害知识产权相比较而言,生成式人工智能因可能产生虚假信息等原因,而对人格权侵害的风险更大。具体而言,生成式AI不仅会引发针对各类人格权的侵权行为,还带来了新的人格权侵权形式,主要表现在以下四个方面。
第一,侵害隐私和个人信息。生成式AI可能引发大规模隐私或者个人信息泄露问题。大型生成式AI需要大量数据作为参数,而AI产品的提供者在训练AI产品时违规收集大量的个人信息,或者运用大量没有合法来源的信息训练AI产品,这就可能带来一些侵害隐私和个人信息的新形式。有研究发现,由于大模型收集大量个人信息和隐私,且模型越大,所搜集的信息和隐私越多,因此,不法行为人有可能通过攻击大规模语言模型,提取出训练数据中的核心隐私和敏感个人信息,从而导致个人信息、隐私的大规模泄露,形成了“大规模微型侵害”的现象。
第二,侵害名誉权。大型生成式AI模型主要依赖消化人类文本输入生成输出产品,如文本、图像、音频、视频等,一旦这些输出的信息是虚假的,就有可能导致对他人名誉权的侵害。ChatGPT也会带来一些侵害名誉权的新形式。OpenAI公司首席执行官山姆•阿尔特曼在接受采访中说,“我特别担心这些人工智能被用于大规模制造虚假信息”。例如,生成式AI如ChatGPT的“臆造”现象,可能会导致ChatGPT在回答问题时,编造有关他人涉嫌性骚扰、某人与他人非法同居等消息,造成对他人名誉的损害。还可能自动生成虚假图片、音频、视频,不仅可以“以假乱真”,还能够“无中生有”,导致对他人名誉、隐私等人格权益的侵害,生成式人工智能自动生成的包含虚假信息的图片、视频、声音,已经达到了以假乱真的地步,甚至生成式AI都难以辨别其生成的图片等是真实拍摄的还是自动生成的。如果这些虚假信息在产生之后,不法行为人利用这些信息传播,受众就很容易受到虚假的影响,造成对他人名誉等人格权益的重大侵害。