你好,欢迎来到快科报,懂你更懂科技。
当前位置: 首页 - 互联 - 正文

GPT-5不能停!吴恩达LeCun直播回怼马斯克:汽车都没发明要什么安全

来源:网络 时间:2023-04-08 13:21 阅读量:19380   
导读大模型研究不能停!吴恩达和LeCun为了这事儿,甚至亲自搞了场直播。毕竟再不出手,事态眼看着越来越严重了:马斯克等人叫停GPT-5研发的事态再次升级,已从千人联名发展到超过13500人签署。两人还直言,暂停AI研究就是反理性:AI研究暂停6...
GPT-5不能停!吴恩达LeCun直播回怼马斯克:汽车都没发明要什么安全

大模型研究不能停!

吴恩达和LeCun为了这事儿,甚至亲自搞了场直播。毕竟再不出手,事态眼看着越来越严重了:

马斯克等人叫停GPT-5研发的事态再次升级,已从千人联名发展到超过13500人签署。

两人还直言,暂停AI研究就是反理性:

AI研究暂停6个月,才是真正巨大的伤害。

应该受监管的是AI产品,而不是背后的研究。

此前暂停比GPT-4强大的AI试验的呼吁,已得到深度学习三巨头中的Yoshua Bengio签名支持,Hinton未签名但表示ldquo;要比6个月更长才行rdquo;。

此次吴恩达与LeCun两人, 除了直播阐述各自的观点外,还回应了网友关心的更多问题。

观看了直播和视频回放的网友们则表示,视频出境比推特发言提供了更多的上下文背景和微妙的语气差异。

AGI逃出实验室,需要担心吗?

LeCun认为,现在人们对AI的担忧和恐惧应分为两类:

一、与未来有关的,AI不受控制、逃离实验室、甚至统治人类的猜测。

二、与现实有关的,AI在公平、偏见上的缺陷和对社会经济的冲击。

对第一类,他认为未来AI不太可能还是ChatGPT式的语言模型,无法对不存在的事物做安全规范。

汽车还没发明出来,该怎么去设计安全带呢?

对第二类担忧,吴恩达和LeCun都表示监管有必要,但不能以牺牲研究和创新为代价。

吴恩达表示,AI在教育、医疗等方面创造巨大价值,帮助了很多人。

暂停AI研究才会对这些人造成伤害,并减缓价值的创造。

LeCun认为,ldquo;AI逃跑rdquo;或者ldquo;AI统治人类rdquo;这种末日论还让人们对AI产生了不切实际的期待。

ChatGPT给人带来这种想法是因为它语言流利,但语言并不是智能的全部。

语言模型对现实世界的理解非常表面,尽管GPT-4是多模态的,但仍然没有任何对现实的ldquo;经验rdquo;,这就是为什么它还是会一本正经地胡说八道。

而且这个问题,4年前LeCun已经在《科学美国人》上与冷泉港实验室神经科学家Anthony Zador一起撰文回应过了,标题就叫《不必害怕终结者》。

在直播节目中LeCun再次重申了文章的主要观点。

统治的动机只出现在社会化物种中,如人类和其他动物,需要在竞争中生存、进化。

而我们完全可以把AI设计成非社会化物种,设计成非支配性的、顺从的(submissive)、或者遵守特定规则以符合人类整体的利益。

吴恩达则用生物科学史上的里程碑事件ldquo;阿希洛马会议rdquo;来比较。

1975年,DNA重组技术刚刚兴起,其安全性和有效性受到质疑。世界各国生物学家、律师和政府代表等召开会议,经过公开辩论,最终对暂缓或禁止一些试验、提出科研行动指南等达成共识。

吴恩达认为,当年的情况与今天AI领域发生的事并不一样,DNA病毒逃出实验室是一个现实的担忧,而他没有看到今天的AI有任何逃出实验室的风险,至少要几十年甚至几百年才有可能。

在回答观众提问ldquo;什么情况下你会同意暂停AI研究?rdquo;时,LeCun也表示应该区分ldquo;潜在危害、真实危害rdquo;与ldquo;想像中的危害rdquo;,当真实危害出现时应该采取手段规范产品。

第一辆汽车并不安全,当时没有安全带、没有好的刹车、也没有红绿灯,过去的科技都是逐渐变安全的,AI也没什么特殊性。

而对于ldquo;如何看待Yoshua Bengio签署了联名?rdquo;这个问题,LeCun表示他和Bengio一直是朋友,他认为Bengio担心的点在于ldquo;公司为了盈利掌握科技本质上就是坏的rdquo;,但他自己不这么看待,两人观点一致之处在于AI研究应该公开进行。

Bengio最近也在个人网站详细解释了他为什么会签署。

随着ChatGPT到来,商业竞争激烈了十多倍,风险在于各公司会急于开发巨大的AI系统,把过去十几年间开放的透明的习惯抛在脑后。

直播结束后,吴恩达与LeCun两人还在与网友做进一步交流。

对于ldquo;你为什么不相信AI会逃出实验室rdquo;,LeCun表示让AI在一个特定硬件平台上保持运行都很难了。

对于ldquo;AI达到奇点发生突变、不受控制rdquo;的回应则是,在现实世界中每个进程都会有摩擦力,指数增长会迅速变成Sigmoid函数。

还有网友开玩笑说,语言模型经常被形容为ldquo;随机吐出词汇的鹦鹉rdquo;,但真实的鹦鹉危险多了,有喙、爪子和伤害人的意图。

LeCun补充道,澳大利亚凤头鹦鹉更凶狠,我呼吁对凤头鹦鹉实施6个月的管制。

One More Thing

对于影响力越来越大的AI暂停6个月提案,也有越来越多的人表达自己的观点。

比尔盖茨对路透社表示ldquo;我不认为让一个特定的组织暂停就会解决这些问题。在一个全球性的行业中,暂停很难执行rdquo;。

据福布斯报道,谷歌前CEO埃里克施密特认为ldquo;监管部门大多数人对科技的理解还不足以正确规范其发展。另外如果在美国暂停6个月,只会让别的国家受益。rdquo;

与此同时,AI研究界另一股声音的影响力也逐渐加大。

由非赢利组织LAION-AI发起的请愿书也有超过1400人签署。

这个项目呼吁建设公众资助的国际化超级AI基础设施,配备10万最先进的AI加速芯片,确保创新和安全。

就相当于粒子物理学界的CERN。

支持者包括LSTM之父Juuml;rgen Schmidhuber,HuggingFace联合创始人Thomas Wolf等知名研究者。

相关资讯
  • 啥事不干年薪130万:科技公司为何愿意“养闲人”?
  • 阿里通义千问、百度文心一言和ChatGPT大PK:灵魂拷问后结果意外
  • 马斯克开源推特算法反被指责:隐藏重要细节、与承诺不符
  • GPT领域中国有多重优势 周鸿祎:两年左右时间就能追赶
  • 阿里版ChatGPT突然上线邀测!大模型热战正剧开始:第一手体验实录来了
  • 支持打赏
  • 支持0人

  • 反对

  • 打赏

文章价值打分

快科技·1997-2023 版权所有

豫ICP备18024899号-2豫公网安备 41010502003949号

热点推荐

好物推荐
    --> -->
  • APP下载

    手机扫码下载

    支持Android/iOS/iPad

  • 投稿
  • 纠错
  • 收藏-->
    --> -->
  • 线索爆料

    爆料群

    爆料1群

    免责声明:该文章系本站转载,旨在为读者提供更多信息资讯。所涉内容不构成投资、消费建议,仅供读者参考。

为您推荐