博海拾贝 文摘 OpenAI和纽约时报撕起来了,但可能没人是冤枉的

OpenAI和纽约时报撕起来了,但可能没人是冤枉的

要说有什么瓜,能从去年吃到今年,那必须得有纽约时报 “ 开撕 ”OpenAI 的一席之地。

为了防止有差友还不知道这事儿,我先简单交代下背景。

去年年底,纽约时报突然向法院起诉微软和 OpenAI ,给他们安的罪名是大模型侵犯了纽约时报的文章版权

还在自家网站上发了篇文章,专门报道了这事儿。

截屏2024_01_18_09_37_52.png

一时间,舆论纷纷开始讨伐 OpenAI 。

而就在几天前,另外一位当事人 OpenAI 却大喊冤枉,还指责纽约时报没有说实话。

给一众吃瓜群众,看得是一愣一愣的。

其实之前 OpenAI 因为训练数据的事情,也没少被起诉过,但都没有这次这么大的阵仗。

一边是老牌传统媒体,一边是新兴 AI 巨头,事情发生后,有人把这次的案件,拔到了 AI 版权纠纷 “ 里程碑” 的高度。

甚至,还有不少科技、媒体圈的大佬亲自下场站队。

可现在的情况是,公说公有理婆说婆有理,那到底怎么一回事?

抱着说什么都得把这瓜吃明白的决心,世超在瓜田里上蹿下跳,终于把来龙去脉给理清楚了。

在纽约时报洋洋洒洒 22000 页的起诉书里,罗列了 OpenAI 包括未经授权拿文章训练大模型、 ChatGPT 生成了高雷同的作品,以及把生成的虚假信息甩锅给纽约时报等等罪名。

而且证据,也准备得非常充分。

就比如,他们说 GPT-2 和 GPT-3 的训练数据都大量地使用了纽约时报的文章内容。

在 GPT-3 的训练数据中,有 60% 来自一个叫 CommonCrawl数据集,这个数据集中域名为 www.nytimes.com 的来源,仅次于维基百科和美国专利文件数据库。

并且,他们也合理怀疑, GPT-3.5 和 GPT-4 也同样使用了他们的数据。

到这儿,其实训练数据的证据还不算是最关键的。

再往下看, GPT 生成的内容和纽约时报的原文几乎达到了雷同 99% 的程度。

像这篇纽约时报的报道,左边是 GPT-4 生成的内容,右边是报道原文。

标红的部分,就是输出内容和原文重复的地方。

类似的情况还有很多,起诉书一眼望去,齐刷刷一大片红色。

纽约时报还专门准备了个附件,详细列举了一百来个雷同的范例。

不仅如此, OpenAI 还被指控 “ 砸了纽约时报的饭碗” 。

比如,一篇在纽约时报上需要付费阅读的文章,用户现在可以通过跟 ChatGPT 对话就白嫖全文。

像这样,告诉 ChatGPT 因为付费没法儿看某篇文章,让它给你打出原文的第一段。

再一段接着一段地问,让 ChatGPT 把原文全都吐出来。

生成内容和原文对比,相同的部分也同样被标红了。

这就相当于,用户现在完全可以绕过付费墙,直接看文章了。

而且,因为 Bing 检索了纽约时报的在线时事新闻,但又比传统搜索引擎呈现的内容更详细,这就导致了纽约时报的网站流量被截胡

说实话,看完起诉书后我觉得 OpenAI 这么做确实有那么点不厚道。

这也难怪,纽约时报在最后的诉求里要 OpenAI 赔偿数十亿美元的损失。

不过,这也只是纽约时报的一面之词,咱们再来看看 OpenAI 是怎么喊冤的。

先说 “ 没有讲述完整的故事 ” 。

根据 OpenAI 的说法,去年 12 月月中的时候,他们还在跟纽约时报协商合作。

但没想到,不过几天时间就让纽约时报给起诉了,而且他们还是看了新闻报道才知道这事儿。。。

从 OpenAI 的角度来看,这波明显是被背刺了。

所以针对起诉书中的几个关键性问题, OpenAI 也作出了回应。

一个是训练数据,在 OpenAI 看来,使用网上公开的资料训练大模型属于版权法中 “ 合理使用 ” 的范畴。

也就是,在某些特定情况下,即使没有版权方的同意,也可以直接使用其作品。

早年间,谷歌就因为扫描纸质书上传到谷歌图书,被出版商和作家起诉了,但最后法院还是认定谷歌的行为符合 “ 合理使用 ” 。

但这次,纽约时报并不买账,咬定大篇幅雷同的内容并不符合 “ 合理使用 ” 。

对此, OpenAI 也解释了雷同内容有可能是因为大模型 “ 反刍” 。

就是,大模型在输出内容的时候,将训练数据也原封不动交代出来。

不过根据 OpenAI 的解释,在去年 7 月发现类似情况的时候,他们就已经采取措施限制了这种 “ 反刍 ” 。

虽然没有完全消除 bug ,但像起诉书里出现的上百个案例,还是很罕见的情况,除非是有人故意引导

而且他们好几次联系纽约时报,想看看到底是怎么个事儿,都被拒之门外。

所以 OpenAI 觉得自己怪冤枉的,又把脏水泼了回去,给纽约时报安了个 “ 故意操控模型” 的罪名。

一直到现在,纽约时报都还没出来回应。

反正这瓜吃到这,剧情是越来越精彩,但也越来越让人摸不着头脑了。

包括舆论,也是乱成了一锅粥。

纽约时报刚交起诉书的时候,就有国外知名媒体人 Jason Kint 连发了十几条推文为它发声。

即使在看了 OpenAI 回应后,他还是坚持自己的立场。

但 TechDirt 的记者却认为,纽约时报这是想借机敲 OpenAI 一笔。

有不少网友留言说,按照起诉书里的提示词,自己没法儿重现类似的 “ 反刍 ”bug ,怀疑纽约时报在起诉书中提供证据的真实性。

而在 OpenAI 回应后, AI 大佬吴恩达也赶来声援。

按照他的说法,起诉书中 ChatGPT 吐出原文的情况,可能是由于类似 RAG ( 检索增强生成 )的机制导致的。

打个比方,你问大模型《 红楼梦 》的某个情节,这个时候检索器会到知识库里找到相关的文档,大模型再根据这些文档来生成回答。

这种机制,就有可能导致生成出来的东西跟检索到的内容重复。

并且,吴恩达也认为 AI 用网上公开的资料拿来训练,属于 “ 合理使用 ” 。

但评论区还是各执己见,有说 bug 不是因为 RAG 机制,有不赞成 “ 合理使用 ” 的说法。。。

一直到现在,也没人能说得清楚到底谁对谁错。

所以,咱们还是法庭上见分晓吧。

来源:差评

本文来自网络,不代表博海拾贝立场,转载请注明出处:https://www.bohaishibei.com/post/88549/
关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
Telegram
返回顶部