作为其打击"网络暴力"的更大承诺的一部分,约会应用程序Bumble正在开放其人工智能工具,以检测未经请求的不雅图像在社交平台内传递。PrivateDetector在2019年首次亮相,它模糊了通过Bumble应用程序发送的裸体图片,让接收端的用户选择是否打开该图片。
该公司在一份新闻稿中写道:"尽管在我们的应用程序上发送淫秽图片的用户数量幸运地是可以忽略不计的少数--只有0.1%--我们的规模使我们能够收集行业内最好的正常和不雅图片的数据集,为实现任务的最佳表现而量身定做。"
现在可以在GitHub上找到这个人工智能的精炼版本,可供商业使用、分发和修改。虽然开发一个检测裸体图像的AI模型并不完全算得上是尖端技术,但这是小公司可能没有时间自己开发的功能。因此,其他约会应用程序(或任何人们可能发送不雅照片的产品)可以可行地将这项技术整合到他们自己的产品中,帮助保护用户免受不受欢迎的淫秽内容的滋扰。
自从发布PrivateDetector以来,Bumble还与美国国会合作,以讨论人们在社交网络与即时通信软件当中发送未经请求的裸体照片会产生的法律后果。
Bumble补充说:"有必要在Bumble的产品生态系统之外解决这个问题,并参与一个更大的对话,讨论如何解决不请自来的不雅照片--也被称为网络炫耀--的问题,使互联网成为一个对每个人都更安全、更善良的地方。"
当Bumble首次推出这种人工智能时,该公司声称它有98%的准确性。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】