Redian新闻
>
生成式人工智能迎来大爆发,人类真的要纷纷失业了吗?

生成式人工智能迎来大爆发,人类真的要纷纷失业了吗?

公众号新闻
宿
ESL
去年夏天以来,以ChatGPT为代表的“生成式”人工智能系统接连问世,人们惊艳于它们的智能程度,但也对其未来发展产生担忧。这样的系统可以按需求生产内容,不仅威胁到人们的工作,还可能造成错误信息的激增。
Stable Diffusion根据提示自动生成的画作,真假难辨。图源:https://stablediffusionweb.com/
就在10多年前,三位人工智能研究人员取得了一项突破,永远地改变了这个领域。
“AlexNet”系统通过从网上采集的120万张图像进行训练,识别出了从集装箱船到豹子等不同物体,其准确性远远高于以往的计算机。
这一壮举帮助开发人员阿莱克斯·克里泽夫斯基(Alex Krizhevsky)、伊利娅·苏茨克维(Ilya Sutskever)和杰弗里·辛顿(Geoffrey Hinton)赢得了名为ImageNet的年度神秘竞赛。它还展示了机器学习的潜力,并在科技界引发了一场将人工智能带入主流的竞赛。
从那时起,计算机的人工智能时代基本上在幕后形成。机器学习是一项涉及计算机从数据中学习的基础技术,已普遍应用于识别信用卡欺诈、提高在线内容和广告相关性等领域。如果说从那时起机器人就开始抢走人们的工作,那基本上也是在我们看不到的地方发生的。
现在不是了。人工智能领域的另一项突破刚刚撼动了科技界。这一次,机器在众目睽睽之下运行,它们可能终于准备好取代数百万的工作岗位了。
一个11月底发布的查询和文本生成系统ChatGPT,以一种科幻小说领域之外很少见到的方式闯入了公众的视线。它由总部位于旧金山的研究公司OpenAI创建,是新一波所谓的“生成式”人工智能系统中最引人注目的一种,这种系统可以根据要求生成内容。
如果你在ChatGPT中键入一个查询,它将以一段简短的段落作为响应,列出答案和一些上下文内容。例如,你问它谁赢得了2020年美国总统大选,它会列出结果,并告诉你乔·拜登何时就职。
ChatGPT界面。
ChatGPT使用简单,能够在瞬间得出看起来像人类生成的结果,有望将人工智能推入日常生活。微软向OpenAI(由AlexNet创始人苏茨克维联合创立)投资数十亿美元的消息,几乎证实了这项技术将在下一阶段的人工智能革命中发挥核心作用。
ChatGPT是一系列日益引人注目的人工智能公众展示的最新例子。另一个OpenAI系统,自动书写系统GPT-3,在2020年年中发布时震惊了科技界。其他公司的所谓大型语言模型紧随其后,去年扩展到图像生成系统,如OpenAI的Dall-E 2、来自Stability AI的开源Stable Diffusion和Midjourney。
这些突破引发了人们争相寻找这项技术的新应用。数据平台Scale AI首席执行官亚历山大·王(Alexandr Wang)将其称为“应用案例的寒武纪大爆发”,将其比作现代动物生命开始繁荣的史前时刻。
如果计算机可以编写和创建图像,那么在正确的数据训练下,还有什么是它们无法生成的吗?谷歌已经展示了两个实验系统,可以根据简单的线索生成视频,还有一个可以回答数学问题。Stability AI等公司已将这项技术应用于音乐。
这项技术还可以用于向软件开发人员建议新的代码行,甚至整个程序。制药公司梦想着用它以更有针对性的方式合成新药。生物技术公司Absci本月表示,已经利用人工智能设计出了新的抗体,可以将一种药物进入临床试验所需的大约四年时间缩短两年多。
但随着科技行业竞相将这项新技术强加给全球受众,人们需要考虑潜在的深远社会影响。
例如,让ChatGPT以12岁孩子的风格写一篇关于滑铁卢战役的文章,你就能让一个小学生的家庭作业手到擒来。更严重的是,人工智能有可能被故意用来产生大量错误信息,还可能会自动取代大量工作,远远超出最容易躺枪的创造性工作。
微软人工智能平台主管埃里克•博伊德(Eric Boyd)表示:“这些模型将改变人与电脑互动的方式。它们将以一种前所未有的方式理解你的意图,并将其转化为计算机行为”。因此,他补充说,这将成为一项基础技术,“涉及几乎所有现有的东西”。
可靠性问题
生成式人工智能的倡导者表示,这些系统可以提高工人的生产力和创造力。微软称,公司旗下GitHub部门的软件开发人员,已经使用一个代码生成系统生成了40%的代码。
谷歌研究科技对社会影响的高级副总裁詹姆斯•马尼卡(James Manyika)表示,对于任何需要在工作中提出新想法的人来说,这类系统的输出可以“解锁思维”。它们内置在日常软件工具中,可以提出想法、检查工作,甚至生成大量内容。
然而,尽管生成式人工智能易于使用,并有可能颠覆很大一部分科技领域,但对构建这项技术并试图在实践中应用的公司,以及许多可能在不久之后在工作或个人生活中遇到这项技术的人,都构成了深刻的挑战。
最重要的是可靠性问题。计算机可能会给出听起来可信的答案,但人们不可能完全相信它们说的任何话。其通过研究大量数据,根据概率假设做出最佳猜测,却不能真正明白它产生的结果。
圣菲研究所教授梅兰妮·米切尔(Melanie Mitchell)表示:“它们对一次谈话之外的事情一无所知,无法了解你,也不知道词语在现实世界中意味着什么。”它们只是针对线索,产生大量听起来有说服力的答案,是聪明但无脑的模仿者,无法保证它们的输出不只是数字幻觉。
已经有事实展示,这项技术如何产生看起来有模有样但实际不可信的结果。
例如,去年年底,Facebook母公司Meta展示了一个名为Galactica的生成系统,它是根据学术论文进行训练的。人们很快发现,这个系统会根据要求发布乍一看可信但实际上是虚假的研究,导致Facebook在几天后撤回了系统。
ChatGPT的创建者也承认其有缺点。OpenAI表示,系统有时会给出“无意义”的答案,因为在训练人工智能时,“目前没有真相来源”。OpenAI补充说,使用人类直接训练它,而不是让它自己学习(这一种被称为“监督学习的方法”,可以由训练资料中学到或创建一个模式,并依此模式推测新的实例)并不奏效,因为系统通常比人类这个老师更善于找到“理想答案”。
一种潜在的解决方案是在生成系统的结果发布之前提交合理性检查检查。马尼卡说,谷歌的实验性LaMDA系统于2021年宣布,对每个线索提出了大约20种不同的响应,然后评估每种响应的“安全性、毒性和合理性”。“我们打电话去检验,看看这是真的吗?”
然而,斯坦福大学计算机科学副教授珀西·梁(Percy Liang)表示,任何依赖人类来验证人工智能输出结果的系统都存在问题。他说,这可能会教会人工智能如何“生成具有欺骗性但看上去可信的东西,实际上可以愚弄人类”。“事实是,真相难以捕捉,而人类并不擅长于此,这可能令人担忧。”
Photo by Arseny Togulev on Unsplash
而这项技术的支持者说,有一些实用的方法可以使用它,而不必试图回答这些更深层次的哲学问题。微软联合创始人保罗•艾伦(Paul Allen)创立的人工智能研究所A12的顾问兼董事会成员奥伦•埃齐奥尼(Oren Etzioni)表示,就像互联网搜索引擎既能提供有用的结果,也能提供错误的信息一样,人们将设法最大限度地利用这些系统。
他说:“我认为消费者只会学会使用这些工具来造福自己。我只是希望这不会让孩子们在学校作弊。”
但让人类去猜测机器生成的结果是否准确,可能并不总是正确的答案。研究人工智能应用的科技行业组织“人工智能伙伴关系”首席执行官丽贝卡•芬利(Rebecca Finlay)表示,在专业环境中使用机器学习系统已经表明,人们“过度相信人工智能系统和模型得出的预测”。
她补充说,问题在于,“当我们与这些模型互动时,人们会将结果对于人类有何意义的不同方面灌输给它们”,这意味着他们忘记了系统并没有真正“理解”他们所说的话。
这些信任和可靠性问题,为不良行为者滥用人工智能提供了可能。对于任何故意试图误导的人来说,这些机器可能成为虚假信息工厂,能够生产大量内容,淹没社交媒体和其他渠道。在正确的例子训练下,它们可能还会模仿特定人物的写作风格或说话声音。
埃齐奥尼说:“制造虚假内容将非常容易、廉价和普遍。”
Stability AI负责人伊马德•穆斯塔克(Emad Mostaque)表示,这是人工智能普遍存在的一个固有问题。他说:“这是一种人们可以道德或不道德地、合法或非法地、符合伦理地或不符合地使用的工具。坏人已经拥有了先进的人工智能。”
他声称,唯一的防御措施就是尽可能大规模地推广这项技术,并向所有人开放。
这在人工智能专家中是一个有争议的解决方案,他们中的许多人主张限制对底层技术的使用。微软的博伊德表示,其“与我们的客户合作,了解他们的用例,以确保人工智能在这种情况下真的是一个负责任的用途。”
他补充说,微软还会努力防止人们“试图欺骗模型,做一些我们真的不想看到的事情”。微软为其客户提供工具,扫描人工智能系统的输出,以查找他们想要阻止的冒犯性内容或特定术语。
微软此前经历了惨痛的教训,认识到聊天机器人可能会失控:聊天机器人Tay在发表种族主义和其他煽动性言论后,不得不在2016年被匆忙召回。
在某种程度上,技术本身可能有助于控制新人工智能系统的滥用。例如,马尼卡表示,谷歌已经开发了一种语言系统,可以以99%的准确率检测出语音是否为合成。他补充说,谷歌的任何研究模型都不会生成真人的图像,从而限制了所谓深度造假的可能性。
人类的工作面临威胁
生成式人工智能的兴起,也引发了关于人工智能和自动化对就业影响的又一轮争论,这已经是一个老生常谈的话题。机器会取代工人吗?或者,通过接管重复性工作,它们会提高现有工人的生产力,并增加他们的成就感吗?
最明显的是,涉及大量设计或写作元素的工作面临风险。当Stable Diffusion在去年夏末问世时,它对即时图像与提示相匹配的承诺,让商业艺术和设计界不寒而栗。
一些科技公司已经在尝试将这项技术应用于广告,其中就包括Scale AI,其已经在广告图像方面训练了一个人工智能模型。王说,借助这个工具,小零售商和品牌可以得到专业的包装图像,而此前为产品拍摄此类图像价格高昂,他们无法负担。
Dall-E 2解释生成原理的视频截图
这可能会威胁到内容创造者的生计。穆斯塔克说:“它彻底改变了整个媒体行业。世界上每一个主要的内容提供商之前都以为他们需要一个元宇宙策略:他们需要的是一个媒体生成策略。”
据一些面临失业的人说,这不仅仅事关生计。当歌手兼词曲作者尼克·凯夫看到ChatGPT写的听起来像他自己作品的歌曲时,他惊呆了。他在网上写道:“歌曲产生于痛苦,我的意思是,它们是基于人类复杂的、内在的创作斗争过程,而据我所知,算法是没有感觉的。数据没有感知。”
对科技持乐观态度的人相信,科技会放大而不是取代人类的创造力。斯坦福大学的梁说,有了人工智能图像生成器,设计师可以变得“更有野心”。“你可以创建完整的视频或全新的系列,而不仅仅是创建单个图像。”
版权制度最终可能发挥重要作用。应用这项技术的一些公司声称,出于“合理使用”,它们可以自由地使用所有可用数据来训练自己的系统。“合理使用”是美国的一项法律例外,允许有限度地使用受版权保护的材料。
其他人不同意这个说法。盖帝图像和三名艺术家上周在美国和英国对Stability AI和其他公司提起诉讼,指控这些人工智能公司肆意使用受版权保护的图像来训练其系统,这是这一领域首个法律诉讼。
一名代表两家人工智能公司的律师表示,这个领域的所有人都已准备好应对诉讼,这是为这个行业制定基本规则不可避免的一步。对科技行业而言,围绕数据在训练人工智能方面作用的争论,可能会变得与智能手机时代初期的专利战一样重要。
最终,为人工智能新时代设定条款的将是法院,甚至是立法者,如果他们认为这项技术打破了现有版权法所基于的旧假设的话。
在那之前,随着计算机竞相吸收世界上更多的数据,生成式人工智能领域迎来了自由狩猎的季节。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
那些曾经的点心渣儿首个由人工智能生成的游戏和电影问世,探秘生成式 AI 如何发展(附相关人工智能产品集)分布式人工智能,未来大有可为!| 文末赠书思想周报|世界杯的最终赢家与生成式人工智能的“魔法”沸腾!全球股市大反攻,五大利好刺激!"中字头"大爆发,人民币狂飙500点!两大隐忧显现,反弹能否持续?冠军是巴西!人工智能精准预测世界杯!人工智能就业趋势大公开!你们晒感恩节美食 我晒这个人工智能ChatGPT当导演,电影人真要失业了?《阿凡达2》能救市吗?影院经理说,我曾见证过它的奇迹 | 人类真实故事集11帮扶与人工智能标注师: 有多少人工,就有多少智能|自由谈《流浪地球》里的引力弹弓人类真的实现过!张朝阳在线手推旅行者号木星之旅如何定义幸福?为什么“即时工程”和“生成式人工智能”被夸大了盘点四大技术板块,洞察百项人工智能开源项目——InfoQ研究中心带你探秘中国人工智能开源领域初创公司想要聊天机器人,但80%缺乏对话式人工智能的知识伊朗裔女医生生成式人工智能 (AIGC) 会给电商与媒体行业带来怎样的变化? | PH分享#74ChatGPT来了,我们都要失业了吗?让三家AI分别写了侦探小说……中国工程院院士王坚:人工智能迎来最好的时代人类真的无法战胜新冠病毒了吗?刚刚,人民币飙升600点!“史诗级”大爆发,腾讯、美团嗨了中信建投:从CHAT_GPT到生成式AI(Generative AI):人工智能新范式,重新定义生产力(100页)年终盘点:2022年,人工智能带给人类更多惊喜总统用AI写演讲稿?!帮法官判案、帮考执照写论文,人工智能全面碾压人类了?中国式家庭,英国式生活任正非:华为三年完成13000替代开发,教育应该让学生“胡思乱想”,人工智能98%的贡献是对工业社会……解药or毒药:AI辅助设计,建筑师要失业了吗?面对困局的医美行业,如何才能迎来爆发式增长?ChatGPT之外,人工智能的另一应用正迎来爆发!文末送书 | 从0到1全面探讨分布式人工智能:理论、算法与实践ChatGPT揭开AI时代!AI真的能超越人类吗?失业潮真的会来吗?留学生别只顾返澳!2023春招竟提前迎来大爆发,澳洲留学生加这个群就够了…米粒妈要失业了吗?还不是因为这个女人!GTP-4恐怖的升级速度,人工智能比我们想象的要凶猛得多!上海人工智能实验室招收人工智能加速计算全息实习生
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。