为什么我对 ChatGPT 是悲观的
这也让我想到了一些很有意思的话题。
“这一波 AI 创业浪潮的人才库将发生转变——将由(原来的)博士和科学家,转变为以产品、用户界面、销售和应用程序为中心的构建者。预计未来几年,将有大量以产品/应用程序/UI 为中心的创始人涌入该领域。”
“究竟,人工智能是会‘消除’我们的人性,还是会‘突显’我们的人性? 在 ChatGPT 案例中,它似乎是前者。因为创造无限规模看似独特且引人注目的声音的边际成本,现在是零。但是机器,不是在社会关系中具有真实身份的一个 ID。随着机器 ID 和机器信息的泛滥,我们真实人类的‘身份’也在消失,是谁说的话已经不重要,剩下的,只有信息本身。 而另一方面,类似我在前文中提到的这种人工智能软件却在告诉我们,我们的人性也许正在凸显。”
“我们可以从早期网络的发展轨迹中吸取一些教训。我教的课程叫‘数字未来的历史’,每一个学期我都会给学生看一个1990年代的电影 <Hyperland>。1990 年代的软件代理,听起来很像是今天定义我们数字体验的算法推荐引擎以及新闻提要。
不过,这里的关键区别是,这些‘软件代理管家’在现实中是为了谁服务。
早期的软件代理,是为了由我们每个人亲自去控制和定制。但今天的算法,是根据开发和部署这些算法的公司的需求以及利益进行优化的。Facebook、Instagram、YouTube 和 TikTok,都在算法上试图增加你在其网站上花的时间,目的是为平台利益服务,而不是为公众和消费者利益服务。
如果以史为鉴,像 ChatGPT 这样的工具,其影响大多会在现有行业内产生,而不是以直接竞争的方式来颠覆现有行业。长期趋势是,新技术往往会加剧不稳定,而大型的、有利可图的行业通常会抵制新进入者,直到他们将新兴技术纳入现有工作流程中。
技术专家常宣称医疗保健、医药和教育即将被破坏,这不是因为这些行业特别容易受到新技术的影响,而是因为,这些行业是经济中如此庞大的部门。
DALL-E 2 可能是一个针对自由平面设计师的破坏球,但那是因为这个行业太小,而且没有组织,无法自我保护。美国律师协会和医疗保健行业则在设置进入门槛方面要有效得多。ChatGPT 不会是大学的终结,但它可能是大学论文出租业务的终结。它不会是《纽约时报》的终结,但它可能是重建地方新闻的又一障碍。而由自由职业者串联起来的职业可能会发现自己陷入了严重的麻烦。一个简单的经验法则是:越是不稳定的行业,中断的风险就越大。
所谓山姆.奥特曼设想的问题是:即便计算机程序能提供准确的医疗建议,但它仍然无法开出药物、订购放射检查,或是提交说服保险公司支付费用的文件。美国的医疗费用不是由医生的工资直接驱动的。(同样,几十年来,高等教育的成本一直在飙升,但请相信我,这不是由教授加薪驱动的。)
作为一个指导性案例,我们可以来考虑一下生成式 AI 对公共关系行业可能意味着什么。让我们暂时假设,无论是现在还是很快,像 ChatGPT 这样的程序将能以现有成本的一小部分来提供平均广告副本。ChatGPT 的最大优势是,它产生陈词滥调的能力:只要稍加哄骗,就能找出经常被组合在一起的词语。大多数市场营销的材料都是完全可预测的,完全适合像 ChatGPT 这样的程序——只要试着要求它提供几句关于牙膏的美白特性。
这听起来像是一场全行业的大灾难。但是我怀疑,其影响将会是温和的,因为这里有一个采用的障碍。
请问,哪一位高管会选择向他们的董事会和股东传达一个伟大的成本节约措施,即:让一个神经网络来负责公司的广告工作?ChatGPT 将更可能发生的是被纳入到现有公司中。公关公司通过在生产过程中加入 GPT 类型的工具,这使他们能雇佣更少的人并收取相同费用。行业变化将是缓慢的,正是因为现有制度安排在设计上会引起摩擦。
然后,还有一些未解答的问题,即新旧法规将如何影响生成式 AI 的发展等等。
随时间推移,机构会适应新技术。新技术被纳入大型、复杂的社会系统。每一项革命性的新技术都会改变,并被现有社会系统所改变;它不是一种不可改变的自然力量。这些收入模式的形状在几年内都不会清晰,而我们集体拥有影响这些收入模型发展的机构。最终,这才是我们应该关注的地方。”
(四)
微信扫码关注该文公众号作者