前两天,美国通过了一份儿关于AI监管的行政命令。说是以后,各家公司们在研发先进AI系统之前,得提前报备,通过后才能继续研发。而且命令还事无巨细……像必须给AI生成的内容打水印、得保护相关工人的权益,别让AI整得一堆人失业、要想法子护住美国在AI的领先地位等等,都在这一纸命令中。
总之看下来,比起发展AI,老美更加看重安全,希望把AI这只猛兽关在笼子里发展。
这可就一石激起千层浪了,有些人立马拍手叫好,觉得早该这么干了。毕竟,你也不想看到AI让大伙们失去工作。
有些人则觉得完了,这下AI发展的康庄大道,彻底被那些老顽固给堵死了,没救了,毁灭吧赶紧的。
一开始还只是网友们在吵吵闹闹,但没想到,不少AI圈儿的大佬也各就各位,做起了“嘴强王者”,发表着自己观点。
下面就给大家简单介绍一下,各位运动员。
参与这次“肉搏战”的主要人物有三位,两位图灵奖得主,也就是深度学习之父三巨头中的二位:LeCun和Hinton。
还有一位则是深度学习和机器学习的先驱者,Google大脑创始人之一的吴恩达。
率先打响第一枪的,是斯坦福副教授吴恩达,他在X上写了一条推文。
他的立场很明确,就是——严格监管AI,根本不利于创新。
吴恩达还洋洋洒洒地写了一篇长文,先是列了一些现在网上常听到的“AI会让人类灭绝”、“AI会取代多少人的工作”等等的言论。
然后直接竖起靶子开打,说这样的言论纯属炒作,是最可怕的,它会助长一些过于严格的规定出现,进一步“压制开源和创新”。
还细数了因强监管导致AI研究缓慢甚至停滞的案例,像什么加州暂停无人驾驶汽车项目,有人搞出破坏生成式大模型的工具等等。
吴恩达的推文呢,就像在瓦斯泄露的房间里点燃了一根火柴,本来整个AI圈子在这个话题上的分为都已经剑拔弩张了,这下直接炸了……
炸出的第一位就是觉得AI早该管管的Hinton,他也没藏着掖着,直接正面迎战,并且还拿自己开涮。
你吴恩达说AI有毁灭人类的风险很小,但我Hinton当初离开Google,可正是为了能把这些风险说出来。
Hinton还直接在吴恩达的帖子下反问他,如果AI没得到很好的监管,那未来30年人类灭绝的概率是多少呢?我目前的答案是0.1,你自己心里肯定也有数。
面对Hinton的接连反击,吴恩达倒是大方回应,先是撇清关系,说自己并没觉得AI安全得很。
只是觉得有些观点,说太过头了,可以说在散播恐慌了。甚至,这些观点已经影响到了AI的发展,美国这次的监管令就是活生生的例子。
最后吴恩达还有点阴阳地来了一句:我知道你出发点是好的,但我觉得你天天这么逼逼叨,绝对弊大于利。
至于30年后AI导致人类灭绝的问题,也立马召唤出了另一位大佬,也就是吴恩达的“同盟”LeCun。
他直接“以彼之矛攻彼之盾”回呛Hinton:
导致人类灭绝的因素海了去了,比AI有威胁的多的是,并且AI倒是有可能让人类免于灭绝呢。
有趣的是,有网友也跟着LeCun一起向Hinton倒油,挖出之前他在2016年预测的放射科医生5年内就会被AI取代的言论。
这下直接把Hinton本人“噎”得语无伦次了起来,连忙给自己圆场,说自己在时间尺度上确实有些毛病……
同时,LeCun还直接点名道姓Hinton和Bengio,说他们现在的立场,对那些不想开源代码、开放模型的科技巨头来说,简直就是助纣为虐。
过度监管等于是拉高了AI研发的门槛,后来的人想要进入这行就变得更难了。
而现在,辩论还在继续,很多从业者都来为自己的支持方呐喊助威。
像是Meta的CTOMike就直接吐槽,你们聊AI只说坏处全不看好处是吧?
AI如果不行了的确没法毁灭人类,但人类没了AI的能力,被什么地震、陨石、核武器灭绝的可能性也会增加啊。
根据前线战报,一向爱凑热闹的马斯克也来掺和了一脚。
但这次他却没有整活,反而是cos起了公平公正的蜻蜓队长。
他煞有介事地来了句:真正的战斗是在灭绝论者和人文主义者之间。一旦你注意到了这场战斗,就没法对此视而不见。
不过我们看下来,和国内不少媒体渲染的“骂战”“撕起来”不大一样。
大家的观点虽然针锋相对,聊得也很激烈,但基本都是有理有据的观点输出,也能让人清楚看到业界对AI的不同看法到底是啥情况。
就像亚马逊创始人BeffJezos在评论区说的,这样的评论很关键,也是人们所需要的。
归根到底,AI发展与监管之间的平衡问题,现在的业界肯定还没法有个确切的答案。
但可以肯定的是,就像网友说的“真理越辩越明”一样,在双方不断地拉扯之下,监管与AI发展的天平总会到达一个平衡状态。
而站在咱的角度上,只能祈祷那是个正确的答案。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】