生成式人工智能以各种方式被越来越多地使用,这引起了人们对其可能被敌对分子和团体用来威胁儿童安全的担忧。谷歌、Meta、OpenAI、微软和亚马逊等科技公司今天承诺,将对其人工智能训练数据中的儿童性虐待材料(CSAM)进行审查,并在今后的模型中不再使用这些数据。
这两家公司和其他公司与两个团体合作,提出了这些新的承诺。一个名为"Thorn",是一个致力于打击儿童性虐待的非营利组织。另一个名为"所有科技都应以人为本"(AllTechIsHuman),旨在帮助创建一个"负责任的科技生态系统"。
微软在博文中表示,它将开发生成式人工智能模型,这些模型将不会在包含儿童性或剥削性内容的数据集上进行训练。这也将有助于保护这些模型在发布后免受此类内容的影响。
博文补充道:
今天的承诺标志着在防止滥用人工智能技术制作或传播儿童性虐待材料(AIG-CSAM)和其他形式的儿童性伤害方面迈出了重要一步。这一集体行动彰显了科技行业对儿童安全的重视,表明了对道德创新和社会最弱势群体福祉的共同承诺。
Google在博文中提到的儿童安全承诺与微软在其人工智能服务方面所做的一些承诺如出一辙。Google补充说,它有自己的团队专门负责查找显示儿童可能面临危险的内容,此外他们还表示,正试图通过"哈希匹配技术、人工智能分类器和人工审核的结合"来查找和删除涉及儿童性虐待和性剥削的内容。
最后,Google宣布支持美国国会关于保护儿童免受虐待和剥削的一系列法案。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】