人工智能

谷歌也担心泄密风险 警告员工谨慎使用AI办公

字号+作者: 来源:​财联社 2023-06-16 04:27 评论(创建话题) 收藏成功收藏本文

行业领导者谷歌在全球推广人工智能(AI)聊天机器人的同时,该公司也在警告员工注意聊天机器人的使用,包括ChatGPT与谷歌自家产品Bard。知情人士透露,谷歌已建'...

行业领导者谷歌在全球推广人工智能(AI)聊天机器人的同时,该公司也在警告员工注意聊天机器人的使用,包括ChatGPT与谷歌自家产品Bard。知情人士透露,谷歌已建议员工不要将其机密材料输入给人工智能聊天机器人,同时该公司还提醒IT工程师避免直接使用聊天机器人生成的代码。4OI品论天涯网

人们在使用这些聊天机器人的时候,会与其进行对话。一方面,人类评审员可能会阅读这些聊天记录;另一方面,研究人员发现,人工智能可以吸收并复制相关对话数据给其他人,从而产生信息泄漏风险。4OI品论天涯网

而谷歌对此回应称,其聊天机器人Bard可以生成一些不受欢迎的代码建议,但它仍然对IT工程师们会有所帮助。谷歌还表示,其目标是对人工智能技术保持足够的透明度。4OI品论天涯网

这些担忧表明,谷歌希望避免人工智能对公司的商业化运作造成损害,这种谨慎的态度也体现出企业对人工智能的使用限制,正越发成为某种具有共性的企业安全标准。4OI品论天涯网

在此之前,包括三星、亚马逊、德意志银行等大型企业都对员工使用人工智能设置了一定的“护栏”,以确保不会对公司运营造成风险。4OI品论天涯网

根据社交网站Fishbowl对12000名受访者的调查,截至今年1月,约43%的专业人士在工作中使用了ChatGPT或其他人工智能工具,而且通常都没有告诉他们的老板。4OI品论天涯网

谷歌告诉媒体,它已经与爱尔兰数据保护委员会进行了详细的对话,并正在解决监管机构的问题。谷歌在6月1日更新的隐私声明也指出:“不要在与Bard的对话中包含机密或敏感信息。”4OI品论天涯网

一些公司已经开发了软件来解决这些问题。例如,保护网站免受网络攻击并提供云服务的Cloudflare正在推广一种功能,可以让企业对某些数据进行标记,并限制其向外部流动。4OI品论天涯网

谷歌和微软也在向企业客户提供对话工具,这些工具的价格更高,但不会将数据吸收到公共人工智能模型中。Bard和ChatGPT的默认设置是保存用户的历史对话记录,用户也可以选择删除。4OI品论天涯网

微软消费者业务首席营销官YusufMehdi曾表示,公司不希望员工使用公共聊天机器人工作是“有道理的”。4OI品论天涯网

Cloudflare首席执行官MatthewPrince指出,在聊天机器人中输入机密信息,就像“让一群博士生随意查看你所有的私人记录”。4OI品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]