佛罗里达州一名14岁男孩自杀后,Character.AI遭到起诉,他的母亲说他迷上了该平台上的一个聊天机器人。据《纽约时报》报道,来自奥兰多的九年级学生SewellSetzerIII花了数月时间与Character.AI的人工智能角色扮演应用程序上的聊天机器人交谈。
塞泽尔尤其对一个叫"丹妮"的机器人产生了感情,他不停地给这个机器人发短信,以至于他开始远离现实世界。
塞泽在死前不久向机器人坦白了自杀的念头,并给它发了信息。
今天上午,Character.AI表示它将推出一系列新的安全功能,包括对违反服务条款的聊天进行"改进的检测、响应和干预",以及在用户聊天时间达到一小时时发出通知。
正如《泰晤士报》所写的那样,现在有一个蓬勃发展的人工智能陪伴应用程序行业--其对心理健康的影响在很大程度上还没有得到研究。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】