像核战争一样,AI可能灭绝人类:Geoffrey Hinton、Sam Altman等百名专家签署了一封公开信
来源:学术头条
作者:学术头条
多位图灵奖得主、顶级 AI 公司 CEO、顶尖高校教授,与数百位在各自领域享有话语权的专家,共同签署了一份公开信,内容简单却有力:
降低 AI 灭绝人类的风险,应该与大流行病、核战争等其他社会规模的风险一样,成为全球范围内的优先事项。
该公开信发表在 Center for AI Safety(CAIS)上。CAIS 表示,这份简短的声明旨在就“来自人工智能的广泛的重要和紧迫的风险”这一主题展开讨论。
在这份联名公开信的人名列表中,有很多耳熟能详的名字,包括:
图灵奖得主 Geoffrey Hinton、Yoshua Bengio;
OpenAI 的 CEO Sam Altman、首席科学家 Ilya Sutskever、CTO Mira Murati;
Google DeepMind 的 CEO Demis Hassabis、众多研究科学家;
Anthropic CEO Dario Amodei;
以及来自加州大学伯克利分校、斯坦福大学和麻省理工学院的多位教授。
在一份相关的新闻稿中,CAIS 表示,他们希望借此“设置护栏并建立机构,以便 AI 风险不会让我们措手不及”,并将对 AI 的警告比作“原子弹之父” J.Robert Oppenheimer 对原子弹的潜在影响的警告。
然而,一些 AI 伦理学专家却不以为然。Hugging Face 的机器学习研究科学家 Sasha Luccioni 博士将这一公开信比喻为“欺骗/迷惑公众的行为”(sleight of hand)。
她表示,将 AI 的假设性生存风险与大流行病和气候变化等非常实际的风险放在一起提及,这对公众来说是非常直观的,更容易让他们相信。
但这也是一种误导,“将公众的注意力吸引到一件事(未来的风险)上,这样他们就不会想到另一件事(当前有形的风险,如偏见、法律问题)。”
一直以来,吴恩达(Andrew Ng)和杨立昆(Yann LeCun)都是 AI 技术的积极拥抱者。在这封公开信发出后,吴恩达便在个人推特上发表了个人看法:
当我想到人类大部分地区的生存风险时:
下一个大流行病;
气候变化→大规模的人口减少;
另一颗小行星。
AI 将是我们解决方案的一个关键部分。因此,如果你想让人类在未来 1000 年生存和发展,让我们让人工智能走得更快,而不是更慢。
随后,杨立昆转发了这条推特并戏谑称,“在我们拥有即使是狗级别的 AI(更不用说人类级别)的基本设计之前,讨论如何使其安全是不成熟的(想法)。”
微信扫码关注该文公众号作者