生成式 AI 面临的抄袭问题 —— Midjourney 和 DALL-E 3 的实验揭示了版权方面的难题 [译]
长久以来,人们一直在探讨大语言模型 (LLMs) 在何种程度上可能会“记住”其训练数据的问题。包括 Google DeepMind 的 Nicholas Carlini 和本文的第一作者 Gary Marcus 在内的学者都曾对此提出疑问。最新的实证研究显示,在某些情况下,LLMs 能够原样复制或稍作修改后复制其训练集中的大量文本。例如,Milad Nasr 及其团队在 2023 年的论文 中指出,LLMs 可以被激发,泄露如电邮地址和电话号码等私人信息。Carlini 和他的合作伙伴 最近的研究 也显示,较大的聊天机器人模型(而非小型模型)有时会逐字复制其训练集中的大量文本。
January 7, 2024
View Article