8月13日消息,据朝鲜日报报道,OpenAI首席战略官JasonKwon8月7日在旧金山OpenAI总部接受《朝鲜日报》采访时表示,没有人知道AGI出现后的结果会怎样,人工智能应该受到监管,安全措施也将到位。
人工智能(AI)革命正在改变全球各行各业的范式,这场革命的真正开始源于2022年11月OpenAI发布ChatGPT。今年5月,OpenAI再次震惊世界,发布了生成式人工智能模型GPT-4o,能够实时与人类互动,甚至能够检测情绪,让人想起科幻电影。人们对人工智能可能主宰人类时代的担忧愈演愈烈。
OpenAI首席战略官(CSO)JasonKwon负责监督未来战略,解决与人工智能相关的道德和法律问题,以及技术开发。他是一位正在塑造全球标准的韩裔美国人。
8月7日,权永哲在旧金山OpenAI总部接受《朝鲜日报》采访时表示,人工智能(AGI)的关键技术可能比很多人预期的更快出现。AGI是一种智力超越人类的人工智能。尽管很多人预测AGI将在3到5年内出现,但权永哲认为它可能会更早出现。
不过,他补充说:我们不会在一夜之间突然推出一款无所不包的人工智能。
当被问及这是否是因为它可能导致重大社会崩溃时,他确认是的。这表明,尽管AGI技术已经相当先进,但其开发速度正在得到谨慎管理,以减轻潜在的负面影响。这是权永哲首次接受韩国媒体采访。
这是否意味着AGI的出现已经指日可待了?
“我们假设这项技术很快就会实现,并正在寻找适当管理它的方法。然而,仅仅因为技术存在并不意味着它会立即成为产品。这类似于电发明后的第二天照明和电器并没有出现。核心技术的开发与其在社会中的应用之间可能会有很长的延迟。”
“将人工智能业务利润再投资于安全研究”
有人猜测下一个模型GPT-5可能接近AGI。
“(微笑)我们将在发布时进行更多讨论。”
OpenAICSO没有明确说明GPT-5(OpenAI的下一代AI模型)的发布时间或性能。尽管最初预计将在10月的开发者大会上亮相,但科技行业现在认为它可能会被推迟到明年。
OpenAI认为AGI的哪些方面最危险?
有四个主要领域可以被视为灾难性风险。其中包括极端的说服力、网络攻击、对核武器、化学武器和生物武器的支持以及人工智能模型的自主性。
权先生提到的极强说服力,是指人工智能能够利用各种数据,使人类盲目相信某些事情。人工智能自主性是指人工智能能够从自己的数据中创造和学习。
关于支持化学和生物武器,权先生说:如果有人试图利用人工智能执行具有生物学风险的任务,我们会监视和管理用户。到目前为止,人工智能似乎并不比Google等搜索引擎更危险。
他补充说:然而,最大的风险在于人工智能创造出前所未有的知识,并超越人类的控制。
OpenAI不是解散了负责AI控制的超级对齐团队吗?
“这方面存在一些混乱,但超级对齐团队在人工智能控制方面的工作并没有停止。相反,团队成员已被重新分配,继续在公司内部开展这项关键工作。我们仍然专注于开发安全技术,以阻止危险的用户请求并监控任何试图使用人工智能模型进行恶意活动(如网络攻击)的行为。”
协调工作是指引导和控制人工智能系统按照人类预期的目标和道德原则运行的技术。
“我们的AI控制小组解散了?真是个大误会。”
一些批评人士认为,人工智能公司现在优先考虑盈利能力而不是安全性。
“这完全不是事实。盈利和安全可以齐头并进。成功的企业可以将其利润再投资于安全研究,从而创建一种可持续的模式。就像汽车行业利用汽车销售收入来资助最终使汽车更安全的研究一样,我们的创收能力直接支持我们目前正在进行的安全研究。如果没有财务上的成功,这些至关重要的安全工作就不可能实现。”
人类有能力应对AGI的潜在威胁吗?
“没有人能够准确预测AGI将如何影响世界,但公司需要做好准备。我的工作是深入了解AGI的潜在心理和经济影响,就必要的法律提供建议,并指导企业如何与全球政府合作。我们一直认为人工智能应该受到监管,这一承诺始终没有改变。”
OpenAI最近因开发检测学生滥用人工智能的技术但未公开而受到批评。
“这项技术仍处于试验阶段,远非完美。我们的目标是创造一个让技术造福人类的世界,而不是让人们因此受到不公平指责的世界。不当使用人工智能的背后往往有着复杂的原因,而仅仅依靠只能检测人工智能使用情况的审查工具可能会导致教师做出错误的决定。我们无法在提供不完全可靠的技术的同时向人们保证一切都很好。”
您对韩国的人工智能人才有什么建议?
“韩国的人工智能能力已经非常出色,OpenAI的一些顶尖研究人员就是韩国人。然而,韩国人才可以改进的一个领域是利用网络的力量。我天生就很内向,但在硅谷,我通过不断与人会面、沟通和抓住机会才达到现在的地位。在这里,仅仅优秀和勤奋并不足以保证成功。我希望更多重视谦逊的韩国人能够采取更积极主动的方式。”
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】