TechCrunch分钟:Reddit站出来反对人工智能爬虫
Reddit正在对抗人工智能公司,或者至少要求它们付费。
本周早些时候,Reddit宣布正在更改其Robots Exclusion Protocol,也就是其robots.txt文件。这个听起来枯燥的编辑是一场更大的谈判/战斗的一部分,这场谈判/战斗是AI公司和那些实际拥有内容的公司之间为争取用来训练语言模型的内容而展开的。
“Robots.txt”是网站向第三方通信如何爬取网站的方式——经典例子是允许谷歌爬取网站以便被搜索结果收录。
在人工智能的情况下,价值交换并不那么明显。当你经营一个网站,其商业模式涉及吸引点击和关注时,让人工智能公司吸走你的内容然后却不给你带来任何流量并且有时甚至直接剽窃你的作品,并不具有吸引力。
因此,通过更改其robots.txt文件,并继续对未知的机器人和爬虫进行速率限制和阻止,Reddit似乎正在努力防止像Perplexity AI这样的公司受到批评的做法。
点击播放按钮以了解更多,然后在评论中告诉我们你的想法!