应该监管AI产品而不是停止研究
今天是Olina陪你的第2964天
第1796章
Olina
持续日更
努力的创业者
陪你一起在路上
自从 3 月 30 日,马斯克等人叫停 GPT-5 研发至少 6 个月,各路大佬纷纷有了后续回应,伴随着“支持”和“反对”各站一派。
先是吴恩达在 Twitter 上罗列出了四个理由,直球式反对 GPT-4 研究暂停 6 个月。
随后,深度学习三巨头的表态也很引人关注,当 Yoshua Bengio 的名字赫然列在联名者的第一位, Geoffrey Hinton 选择“沉默”之后,Yann LeCun 却直接在 Twitter 上表态:“我没有签署这封信。”一时之间,大家议论纷纷。
眼看着事态愈演愈烈,4 月 7 日,吴恩达和 Yann LeCun 这两位“反对者”还亲自在 YouTube 搞了场名为“ Why the 6-month AI Pause is a Bad Idea”的直播,对话涵盖了与人工智能发展、其社会影响和该领域未来相关的一系列主题,吸引了数千名观众。
在直播开场白中,吴恩达就简明扼要的阐述了观点:“我们对‘为期六个月的暂停提案’进行了长时间的思考,并认为这是一个重要的话题。如果政府实施这个提案,想必会造成重大伤害。因此,Yann LeCun 和我想和大家聊聊这件事。”
首先,吴恩达站在过去 AI 历史发展的角度上表示:AI 领域在近几十年来取得了显著的进步,尤其是在过去几年中。
ChatGPT、LLaMa 、Midjourney 、Stable Diffusion 和 Dall-E 的出现,为新应用带来了希望,但也存在潜在危害和风险。
因此,人们担忧的聚焦点主要在两个方面:一方面是现实问题,例如:公平、偏见和社会经济下滑。另一方面是对未来的猜测,例如通用人工智能(AGI)造成的一些不可控、意外的后果。
而 Yann LeCun 在直播中坦言:签署“联名信”的人士可能主要基于这几个动机。一部分较为不理性的人,会担心 AGI 被打开后,将在短时间内消灭人类。另一部分较理性的人,会认为有真正的潜在危险需要处理 。
Yann LeCun 坦言:“我同意 AI 存在潜在危险的看法,它的确存在很多问题,因此需要让其变得可控。”
直播中,吴恩达和 Yann LeCun 为了打消人们对 AI 不切实际的期待后产生的“焦虑”,分别做出了自己的阐述。
吴恩达举例了 1975 年的 Asilomar 会议。该会议是基于 DNA 新技术提供了相当大的机会,但存在潜在的健康和环境风险的情况下召开的。因此,通过 Asilomar 会议最终对重组 DNA 技术发展初步达成共识、确立了重组 DNA 实验研究的指导方针或准则、就一些暂缓或严令禁止的实验达成共识、提出生物科学家和科研机构的行动指南等。
但吴恩达表示,与传染病的传播不同,他没有看到人工智能逃跑的任何现实风险。如果 AGI 将带来显示的风险,至少需要几十年,甚至几个世纪。
Yann LeCun 则引用了 4 年前在《科学美国人》上与冷泉港实验室神经科学家 Anthony Zador 一起编写的文章《 Don’t Fear the Terminator 》中的观点。
他表示:统治的动机只出现在社会化物种中,如人类和其他动物,需要在竞争中生存、进化。而我们完全可以把 AI 设计成非社会化物种,设计成非支配性的、顺从的、或者遵守特定规则以符合人类整体的利益。
值得一提的是,他们在直播中还表示:GPT-4 接受过一点训练,但他们对世界是极其肤浅的,还没有那么接近人类水平的智能。也许在未来几十年内,我们会拥有智能水平等于或超过人类的智能系统,但毫无疑问,这不会在明天发生。因此,关于如何正确使它们安全的讨论有些为时过早。毕竟如果汽车没有,怎么能为汽车设计安全带?
基于人们对 AI 可能被滥用产生的担忧,吴恩达和 Yann LeCun 表示:一些监管是必要的,但不能以牺牲研究和创新为代价。
他们一致认为,暂停开发或部署模型是不现实的,往往最后会适得其反。同时,还呼吁研究人员、政府和企业之间加强合作和透明度,以确保人们可以使用负责任的 AI 。
Yann LeCun 坦言在看到“联名信”的第一反应是:呼吁推迟研发带有一丝蒙昧主义,也减缓了知识和科学的进步。
就产品问题而言, Yann LeCun 他赞成监管人们手中的“大模型”,但不赞成监管研发。他认为除了减少我们可以用来使技术更好、更安全的知识之外,没有任何目的。虽然 AI 有一些伤害的风险,比如偏见、公平、权力集中,但生成式人工智能在教育、医疗、教育辅导上创造的价值比比皆是。
Yann LeCun 还表示:“构建比 GPT-4 更好的模型将有助于这些应用程序帮助很多人,因此,暂停将会造成很大的伤害,组织有价值的东西产生。”
直播播出后, YouTube 的留言区也是热闹非凡,许多站“支持派”的网友纷纷表示:“这是有启发性的,感谢你们表现出勇气并分享真实的观点”;“人工智能研究需要继续不受限制地发展”;“ 6 个月 AI 暂停有点为时过早,也许不是一个好主意”。也有站“反对派”的网友称:“滥用和造成的严重社会混乱的风险很高”;“我们不能把安全放在没有保障的东西上”……对此,你怎么看,可以在评论区留言和讨论。
1.AI在教育、医疗等方面创造了巨大的价值,帮助了很多人。暂停AI研究会造成很多危害,减缓很多人对有价值事物的创造。
2.未来的AI系统不会像现有的自回归模型(如ChatGPT、GPT-4)或之前的其他系统那样设计,将有新的想法使这些系统更易于控制。
3.AI末日论或AI末日说其实是一种过度炒作。AI系统将会在各个领域超越我们,这将会发生,但不会在明天就发生。
4.某种程度的监管如果做得对,并不一定是坏事。但是不能监管一项技术,不能监管一项尚未发展起来的技术。当一项新技术出现时,我们需要做的是确保它的积极影响最大化,负面影响最小化,但这并不意味着要停止发展技术。
5.AI系统试图统治人类的情景是不现实的,因为要实现统治,需要有动机。这种动机在人类以及一些其他社会性物种中存在,但在非社会性物种中并不存在,我们完全可以把AI设计成非社会化物种,设计成非支配性、顺从的,或者遵守特定规则以符合人类整体的利益。
微信扫码关注该文公众号作者