人工智能

AI公司不断开发新爬虫绕过阻拦 网站运营跟不上

字号+作者: 来源:3DMGame 2024-07-30 18:24 评论(创建话题) 收藏成功收藏本文

在网路建立的早期,大家有了一个不成文的协议,即一个名为“robot.txt”的文本文件——也就是拦截列表中将决定谁能够访问你的网站,这主要针对机器人/爬虫。'...

在网路建立的早期,大家有了一个不成文的协议,即一个名为“robot.txt”的文本文件——也就是拦截列表中将决定谁能够访问你的网站,这主要针对机器人/爬虫。一般网站主要面向搜索引擎开放,以让搜索引擎带来流量。但这个不成文的约定正在被人工智能公司打破。1g9品论天涯网

1g9品论天涯网

已经有许多网站为了保护权益正在试图阻止一家名为Anthropic的AI公司抓取网站内的内容。然而随着该公司不断开发新的爬虫,来不及更新“robot.txt”文件的网站成了被盗用资源的受害者。1g9品论天涯网

根据404Media采访跟踪网络爬虫和抓取工具网站的DarkVisitors运营者,他在帮助其他网站运营者更新“robot.txt”期间发现,现状非常混乱。匿名运营着说道:“代理生态系统瞬息万变,因此网站所有者基本不可能手动跟上。”1g9品论天涯网

拿Anthropic距离,一些热门网站例如路透社等在robot.txt中组织了“ANTHROPIC-AI”和“CLAUDE-WEB”两个爬虫,他们曾由Anthropic的ClaudeAI聊天机器人使用,但目前该公司最活跃的爬虫实际上是“CLAUDEBOT”,因此这些网站都不会阻拦该爬虫。其他数百个复制粘贴拦截列表的网站也未能阻止该公司。1g9品论天涯网

1g9品论天涯网

404Media采访了许多网络行业从业者,他们均表示面对AI公司的这种行为,鼓励网站积极屏蔽此类机器人/爬虫。网络安全公司StackAware首席执行官WalterHaydock就表示支持在“robot.txt”中添加大量的可能屏蔽对象,并说道:“如果它们最终不存在,那么阻止它们也不会产生任何影响。”1g9品论天涯网

他还表示该屏蔽列表说到底也不过是互联网的一个约定俗成,“阻止AI公司的代理依赖于AI公司尊重 robot.txt文件,并且你还需要知道所有的AI抓取代理。对于大多数公司来说,这种情况的可能性很低,因此我预计更多的创作者会将他们的内容转移为付费观看,以防止无限制的抓取。”1g9品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]