一觉醒来 AI 又变天了
AIGC经历了疯狂一夜
作者 | 新宇 志劭 智健
来源 | 爱范儿
(ID:ifanr)
AI 的 「iPhone 时刻」已经到来
在刚结束的英伟达 GTC 2023 大会上,英伟达 CEO 黄仁勋把这个观点反复说了 3 遍。
怎么理解?
iPhone 搭载的多点触摸屏幕技术开创了一个全新的智能手机界面交互模式,由此孕育了移动互联网。
而 ChatGPT、Stable Diffusion 等 AI 超级应用的出现,标志着加速计算和 AI 技术的成熟已迈入成熟,AI 正以一个前所未有的速度渗入各行各业,推动一场新的产业革命。
经过近几年 AI 技术的不断发展,强大算力和先进模型为 AI 提供了合适的应用平台,促使各个厂商们重新构想自己的产品和商业模型,以及更新迭代的速度。
昨天晚上,英伟达、微软、Google、Adobe 等厂商在相差无几的时间里都推出了各自的 AI 服务,你追我赶之势仿佛在传达着同一个焦虑:
「在这个大 AI 时代,如果不想被人颠覆,就要先颠覆别人。」
AI 将会怎样改变我们的生活?看过这「AIGC 最卷一夜」后,你或许能有更深的感触。
突发!Google开启Bard测试
如果说英伟达让我们看到了 AI 发展的未来,那 Google 的 Bard 就是 AI 的今天。
在大家被 GPT-4 和 Midjourney V5 震撼刷屏一周后、老黄展望未来 AI 时代的同时,Google 宣布正式开放 Bard 的访问:请尝试 Bard,并提供你的反馈。
根据 Google 的最新演示,相比 ChatGPT,Bard 更像是一个专注于工作学习的随身助理,你可以在它的协助下,激发想法、满足好奇心。
你可以让 Bard 用简单的语言解释量子物理学,或者让它提供头脑风暴,帮你在一年内阅读 20 本书。
Google 表示,用户可以在 Bard 的协助下,加速想法、激发好奇心。你可以使用 Bard 提供一些技巧,比如如何实现一年阅读 20 本书,或者用简单的语言解释量子物理学。
在演示中内容中我们还发现了一些细节,Bard 似乎会同时生成多个回答,你可以根据需求选择最适合你的那一个,并进行持续提问。
当然,ChatGPT 也可以生成多个回答,但它是在回答结束后重新生成,相较来看,Bard 更像是一个会同时提供多种方案的乙方。
可能是 ChatGPT 和 Bing Chat 的负面消息引起了 Google 的重视,后者不断强调 Bard 只是一场实验,Bard 生成的信息并不代表 Google 的观点。
Google 表示,虽然 Bard 由大型语言模型提供支持,并会随着时间推移而日渐强大,但它会学习到一些偏见或者刻板印象,导致它「自信满满」地说出一些不准确或者虚假的信息,比如它会将「ZZ Plant」理解为 Zamioculcas zamioculcas,而不是正确的 Zamioculcas zamiifolia。
有了 Bing Chat「疯了」的前车之鉴,Bard 的第一个测试版就限制了同一对话中的交流次数,从而保证内容的准确。当你第一次登陆 Bard 时,它就会告诉你这只是一个实验,并期待你的反馈。
作为 Bard 的第一个版本,它暂时还不支持更多语言(包括中文),Google 会持续更新写代码、识别/生成图片以及多语言支持。
Bard:我不会中文,但希望未来会说
目前,Bard 仅在英国、美国开放访问权限,未来会逐渐扩展到更多国家和地区。
抢先体验地址👇
https://bard.google.com/
英伟达正在把AI带到各行各业
英伟达在一年一度的 GTC 大会上又带来了很多让人眼前一亮的「新活」。
例如发布了一项名为 CuLitho 的 AI 辅助制芯技术,为 2nm 制程铺平了道路;与路特斯、奔驰、宝马等汽车厂商合作,用 Omniverse 搭建数字生产线等。
但要说到整场 GTC 大会最亮眼的内容,还得是英伟达发布的新显卡——带有双 GPU NVLink 的 H100 NVL。
H100 NVL 是专门针对算力需求巨大的 ChatGPT 而设计的显卡,H100 NVL 拥有夸张的 188GB HBM3 内存(每张卡 94GB),这也是目前英伟达发布的内存最大的显卡。
像 GPT 这样的大语言模型非常占用内存资源,理论上参数达到上千亿的 GPT 模型可以迅速占满一张 H100 显卡。
与用于 GPT-3 处理的 HGX A100 相比,使用了四对 H100 和双 GPU NVLink 的标准服务器的速度快了 10 倍, 「核弹级」的 H100 NVL 是大规模部署像 ChatGPT 语言模型的理想选择。
英伟达整的另一个大活就是把「ChatGPT 同款」搬到了云上,向公众开放。
ChatGPT 的运行主要依靠由 A100 或 H100 组成的 DGX 超级计算机,微软为此花了数亿美金采购了上万张 A100 显卡组建 Azure 云计算平台。
为了降低用户部署大模型的成本,英伟达推出了 DXG Cloud 服务,每个月 36999 美元起,你就能获得一个由 8 张 H100 或 A100 显卡组成的云端超级计算机,轻松完成高负载的计算工作。
2016 年,老黄亲手向 OpenAI 交付了第一台 DGX 超级计算机电脑。7 年之后,顶尖的 AI 算力通过 DXG Cloud 有机会走进每家公司,完成在过去不可能完成的任务。
不难想象,像 ChatGPT 这样能够改善人类交流、提高工作效率的先进应用会持续涌现,为我们的生活带来更多的便利和惊喜。
点石成金,二代Runway让你一句话生成各式大片
B 站一直流行一句梗:视频不能 P,所以这是真的。但如今视频不仅可以 P,还可以从无到有直接用 AI 生成,不用画师、不用摄影、不用后期。只要你往 Runway 中输入一段文字,它便还你一段震撼人心的短片。
最早,Runway 是一款后期辅助工具,虽然借助了人工智能的神奇力量,但所能实现的,并不复杂:擦除物体、图像插帧、删除背景、运动追踪等,可以将它视作 Adobe Premiere 的傻瓜式插件。
而当 Runway 打开人工智能的新大门后,它拥有了点石成金的能力。在去年 9 月公布的 Gen 1 版本中,它有了文本转视频的能力。那时的人们,刚刚见识过文本转图像的魔力,而 Runway 直接能生成动态影像,简直是降维打击般的震撼。
时隔半年,Runway Gen 2 来了。
比起 Gen 1 模型,它实现了更高的时间一致性和保真度,说人话就是画面之间的联接得更顺畅了,画质还更高清了。
用上 Gen 2,距离随时随地生成自己想象的视频更近了。
输入一条不算长的提示词:无人机航拍的山脉。据此 Runway 生成出以下画面。
再来一个:午后阳光照进纽约市中一幢公寓的窗户。
来个进阶版,给 Runway 喂进图片和文字,进而生成一段短片。
文字为:一个男人走在街上,周围酒吧的霓虹灯照亮了他
原图
或者是让一幅静态图片动起来。
还可以将一张无纹理待渲染动图,直接渲染出动态影像。
Runway 的进步有目共睹,在对抗网络模型路上越走越远、越走越顺,如今的 Gen 2 版本已经算是「可看」的程度,虽称不上精致,但未来可期。
或许到了 Gen 3 版本,我们就能在它的帮助下,一键生成抖音爆款短片。到时候,这会是优质博主的噩梦吗?
聊天就能做图,Bing Chat 更进一步
Bing Chat 到底有多火,或许只有上线一个月就让 Bing 日活首次突破 1 亿的数据能说明了。从复杂问题到娱乐聊天,再到灵感创意的实现,Bing Chat 正在重塑我们网络搜索的体验。
现在起,你可以让 Bing Chat 画图了。
微软为新 Bing 和 Edge 浏览器的预览版更新了三个新功能:Bing Image Creator、人工智能驱动的 Stories 以及 Knowledge Cards 2.0。其中最重要的当属可以画画的 Bing Image Creator。
微软表示,人脑处理视觉信息的速度比文本快约 6 万倍,Bing 的搜索数据中,图像是搜索最多的类型之一,而由 DALL·E 模型的高级版本提供支持的 Bing Image Creator,可以让我们通用自己的语言在 Bing Chat 中描述图片信息、选择艺术风格,Image Creator 就会联系上下文,将你的想象「画在纸上」。
Bing Image Creator 的加入,让 Edge 浏览器变成了第一个集成人工智能图像生成器的浏览器。
由人工智能驱动的 Stories 和 Knowledge Cards 2.0,可以让你在搜索后获得图像、短视频以及由人工智能驱动的信息图表,可以一目了然的获取事实和关键信息。
未来使用 Bing 搜索时,你获得的就不是一个个冷冰冰的网页链接,而是更加丰富、有趣的图片、视频以及视觉故事。
如果你已经通过新 Bing 申请,现在就可以在 Bing Chat 中体验 Bing Image Creator 了,如果从以下网址进去的话,则可以直接试用。
https://www.bing.com/create
不过这一功能暂只支持英文,未来会持续更新。
Adobe Firefly:「友军中的最强辅助」
当科技公司卷到图片生成后,著名设计创意公司 Adobe 自然不甘人后。在这个疯狂的夜晚,Adobe 也推出了自己的创意生成式 AI 模型集:Adobe Firefly。
Adobe 用几个简单的例子展示了 Firefly 的能力。你可以用一句话,让正处于春天的风景,变成冬天的模样。
你也可以在草地上用笔刷随意刷一下,然后告诉 Firefly 这是一条河,它就会自动生成河流。
Firefly 能做的自然不只这些,框选狗狗的毛发,它可以将毛发变成画笔,现场帮狗狗改变发型;设计一个艺术字,它能帮你生成一个单词、一句话;设计好一款耳机,Firefly 还能把它放到场景中,变成产品展示图……
Adobe 认为,AI 正在提供一种打开世界的新方式,设计师可以用最顺手的方式来实现创意,「帮助创意人而不是取代创意人」。
同时,Adobe 还创立了「内容真实性倡议」CAI,建立了可信数字内容归属的全球标准,并对人工智能生成的内容进行标记,打造 Firefly 生态系统,「Adobe Firefly 是友军,更是友军里的最强辅助」。
进击的AIGC
这一夜里,我们见证了 AI 领域从服务层到应用层的几个大突破。
这些扎堆出现的更新从侧面证明了,AI 领域迈进了一个高速发展的阶段。上一个月 AI 可能还画不好手指,下一个月凭借算力提升和模型升级,AI 已经能取代掉服装模特的工作。
无数的科幻作品都预言过 AI 在未来会成为我们生活的一部份,但没有人告诉过我们,我们离这个未来只有咫尺之遥。
我们的生活正在被 AI 一点点地改写。在 GTC 大会上,黄仁勋提出了一个很有意思观点,他认为生成式 AI 就是一种新型的计算机,我们可以用人类语言进行编程,任何人都可以命令计算机来解决问题。
过去的几个月里,我们见证了 AI 是如何逐步掌握画画、写作、剪辑、制表、做 PPT 等技能,按照这个进化速度发展下去,还有什么是 AI 不能做的吗?
OpenAI 的 CEO Sam Altman 最近在 Twitter 上大胆预测了新版「摩尔定律」,他认为全球人工智能运算量每隔 18 个月就会翻一番。
也就是说,如果你对生成式 AI 还留有质疑,那么时间会给你最有力的答案。
微信扫码关注该文公众号作者