由OpenAI前首席科学家IlyaSutskever联合创立的AI初创公司SafeSuperintelligence(SSI)已筹集10亿美元现金,以帮助开发远远超过人类能力的安全的AI系统。SSI目前拥有10名员工,计划利用这笔资金来获得计算能力,并雇佣顶尖人才。SSI将专注于在加州帕洛阿尔托(PaloAlto)和以色列特拉维夫(TelAviv)建立一个高度可信的小型研究人员和工程师团队。
SSI拒绝透露其估值,但知情人士预计,其估值约为50亿美元。在此之前,人们对资助这些AI初创公司的兴趣有所减弱,因为这些公司可能在很长一段时间内无利可图。但SSI这笔交易表明,一些投资者仍愿意对专注于基础AI研究的杰出人才进行巨额押注。
参与SSI本轮融资的投资者包括顶级风险投资公司AndreessenHorowitz、红杉资本、DSTGlobal和SVAngel。此外,由Github前CEONatFriedman和SSI首席执行官DanielGross经营的投资公司NFDG也参加了投资。
当前,AI安全,即防止AI造成伤害,是一个热门话题。因为人们担心失去控制的AI可能会损害人类的利益,甚至导致人类灭绝。
近日,加州立法者通过了一项备受争议的法案,旨在对AI设立新的限制,确保AI技术既具有创新性,也具备安全性和可靠性。但该法案却引发了行业分裂,遭到了OpenAI和谷歌等公司的反对,但得到了Anthropic和埃隆·马斯克的xAI的支持。
Sutskever今年37岁,是AI领域最具影响力的技术专家之一。受OpenAICEO萨姆·奥特曼(SamAltman)被罢免一事的影响,Sutskever在OpenAI董事会的作用被削弱。后来,他被董事会除名,并于5月离开了公司。6月,他与Gross和OpenAI前研究员DanielLevy共同创立了SSI。
Sutskever称,他的新项目很有意义,因为他“发现了一座山,与我正在研究的山有点不同。”SSI目前非常注重招聘符合其文化的员工。Gross称,他们花了几个小时来审查候选人是否具有“良好的品格”,并正在寻找具有非凡能力的人,而不是过分强调该领域的资历和经验。
SSI还表示,计划与云提供商和芯片公司合作,为其计算能力需求提供资金,但尚未决定与哪些公司合作。通常,AI初创公司会选择与微软和英伟达等公司就合作,以满足其基础设施需求。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】