最近,人工智能的聊天平台,ChatGPT 很火。有人预测,ChatGPT 对未来人类的影响,将类似于电的使用对人类的影响。我认为这种观点有点言过其实。与此同时,ChatGPT对未来人工智能领域的影响不容低估。我自己不做ChatGPT的 研究和开放,也没有去测试 ChatGPT的各种功能,但是我现在每天都在开发人工智能模型,了解人工智能的基本功能。这里我编译一篇关于 ChatGPT的相关文章,供大家参考和指正。ChatGPT 是开放人工智能(OpenAI)公司的产品。微软公司对开放人工智能公司投资超过100亿美元。ChatGPT 的名字包括两部分,Chat 和 GPT。谷歌把 ChatGPT 翻译成聊天 GPT。前面部分是翻译了,后面部分它不知道怎么翻译。GPT 是Generative Pre-trained Transformer 的缩写。字面翻译是生成式预先训练过的转换器。这样合在一起, ChatGPT 就是一个人工智能聊天平台。生成式预先训练过的转换器(Generative Pre-trained Transformer )基本描述了人工智能的基本步骤,就是用人工智能的工具训练一个模型,然后投入使用。一说人工智能,就显得高大上,其实其原理并不是那么复杂。这里我用简单一个例子解释一下基本原理。譬如一个人的体重,跟身高和腰围有关系。个头高的人一般比较重,同样,腰围大的人一般比较胖,也容易重。如果有100 个 5年级的学生,我们把他们的身高,腰围和体重都量了,然后用简单的线性回归,就可以算出他们 体重跟身高和腰围的关系。现在如果有一个新的5年级学生,你知道他的身高和腰围,你就可以根据线性回归的公式算出他的体重。这里我们看到,我们的模型,是用100 个学生的数据 预先训练出来的 (Pre-trained)。当我们知道一个新孩子的身高和腰围以后,我们就可以根据公式算出他的体重 (Transformer)。前面100 个孩子的数据是历史数据,后面新孩子的身高和腰围数据是新输入数据。这两者结合,可以给出我们需要的结果。当然,这个结果肯定不够准确。现在回到ChatGPT 的话题,它也是用历史数据训练出来的。它的历史数据,就是网上相关话题的各种公开数据,聊天记录和有关人士的观点。当我们对它提出问题时,我们提供了新的输入数据,然后ChatGPT 根据我们的问题,给出它认为正确的答案。再回到我们的例子。我们知道我的模型过于简单,结果肯定也不准。人的体重,除了身高和腰围以外,还受其它信息影响,譬如性别,同样的身高和腰围,男女体重可能不一样。还有种族,不同种族的人,他们的体重和身高、腰围的关系也不一样。其它信息还有年龄,营养情况,体育锻炼情况等等。更重要的是,体重跟身高和腰围,也不是线性关系。再进一步,我们建立模型的时候,要把数据归类,不是所有数据同等对待。譬如上面的例子,我们会根据年龄,种族,身高,腰围等做不同的分组。基本做到每个组的各个个体的体重基本都是一样的,这样我们的公式也省了,各种指标落在这个分组内,就是这个体重。这样就有一个矛盾的问题,如果分组太多,每个组的人太少,应用的时候不实际,结果不稳定;如果分组太少,每个组内的体重差异性就比较大。再回到ChatGPT, 它比我上面的例子复杂得多。我的例子是科学模型,表述很清楚,ChatGPT是文科模型,表述本身就不清楚,更不要说各种语言的表述精确度不同,同样内容不同的表达 ……科学模型的训练数据一般是通过验证的,是可靠的。而历史、哲学等文科的观点和结论很多时候是没有办法验证的,也没有标准正确的观点。同时,我们知道,互联网上的信息来源并不可靠,因此准确性是ChatGPT 和其他生成式 AI 工具的弱点。即便如此,ChatGPT 的人性化回答给用户一种确定和自信的错觉。开放式人工智能公司表示,它正在通过模型更新来不断提高 ChatGPT 的准确性,但问题依然存在。ChatGPT 的转换器是专门用于在数据序列中寻找广泛模式的算法。ChatGPT 的转换器 不仅学习预测句子中的下一个单词,还学习预测段落中的下一个句子和文章中的下一个段落。这就是让它在长篇文本中保持主题的原因。因为ChatGPT 的转换器需要大量数据,所以它分两个阶段进行训练:首先,它在通用数据上进行预训练,这些数据更容易大量收集,然后它针对用户的特定的输入问题进行微调, 给出它的回答。ChatGPT 在庞大的在线文本库上进行了预训练,学习语言的规则和结构;它对对话记录进行了微调,了解对话的特征。请记住,开放人工智能公司拥有ChatGPT, 它可以看到用户给 ChatGPT提供的问题和信息。作为ChatGPT 改进服务的一部分,ChatGPT员工可以阅读用户提供给ChatGPT的信息。所以ChatGPT用户要 避免提供私人数据或敏感的公司信息。AI 聊天机器人和其它生成性 AI 程序是它们输入的数据的镜像。ChatGPT 及相关聊天软件反刍和重新混合它们所接受的信息,它们既产生了惊人的效果,也产生了巨大的失败。基于 AI 转换器 的 AI 程序故障,特别难以预测和控制,因为这些程序依赖于非常大量的数据,以至于开发人员几乎不可能掌握这些输入数据包含的内容。如果ChatGPT 摄取高质量数据资源,经常与其人类培训师交谈并得到正确提示,那么它可以在相关的问题上给出正确的答案。但是,它会在包含大量错误信息的互联网话题上胡说八道,例如阴谋论,以及非英语语言,例如中文话题。我看到有人问ChatGPT , 林黛玉为什么嫁给西门庆,而不嫁给武松?结果ChatGPT就开始胡扯,因为这样的话题以前互联网上就没有,它没有被训练。一些艺术家还表示,AI 图像生成器剽窃了他们的作品并威胁到他们的生计,而软件工程师则表示, ChatGPT代码生成器窃取了他们的大量代码。出于同样的原因,ChatGPT 和其它文本生成器可以给出种族主义和性别歧视的回答。开放人工智能公司 表示,它期望通过跟人类聊天来不断改进聊天机器人的输出以减少产生错误信息。它还使用内容审核过滤器,来限制 ChatGPT 的回答,并避免政治上有争议或令人讨厌的话题。怎样开发消除人工智能聊天软件偏见的技术,多年来一直是一个反复出现的问题,当前仍然是一个未解决的问题和研究的热点领域。聊天机器人发布后不久,开放人工智能(OpenAI) 首席执行官 山姆-奥特曼(Sam Altman) 发推文说, “ChatGPT 的功能非常有限,在某些事情上, 它足以让人产生它很伟大的这种误导性印象”。他补充说“如果现在一个人任何重要的事情都依赖ChatGPT,那无疑是错误的选择 ”。与每一波自动化技术浪潮一样,最新的技术可能会对未来的就业和工作性质的产生重大影响。尽管蓝领工人总是首当其冲被冲击,但生成式人工智能可能会对白领职业产生更大的影响。 布鲁金斯学会 2019 年的一项研究发现,人工智能可能会对营销专业人士、财务顾问和计算机程序员等方面的工作的影响最大。这些影响将是混合的。研究自动化的经济学家发现,三种情况往往会发生:一些工人提高了生产率,一些工作被自动化取代,一些以前不存在的新工作机会被创造出来。譬如生产和维修自动化机器。人工智能自动化的最终结果还很难预测。在公司层面的自动化研究中,研究人员发现,一些采用自动化的公司可能会提高生产率,并随着时间的推移最终雇佣更多的员工。 但这些工人可能会经历工资停滞和职业发展机会减少。新创建的工作机会通常采用以下两种方式之一:与自动化以前的工作相比,它们要么需要更多技能,要么需要更少技能。例如,自动驾驶汽车对高技能工程师产生了新的需求,但是对坐在驾驶座上照看车辆的低技能安全驾驶员减少了技能要求。ChatGPT 可以写诗、故事和歌词。甚至有热心的用户要求聊天机器人通过专业考试, 或者创建跑赢市场的股票基金。但在每种情况下,细节都讲述了一个同样重要的故事:人工智能在准确性、创造力或独创性方面仍然无法与人类智能相媲美。开放人工智能的总裁明确表示,ChatGPT没有通用人工智能, 即AGI (artificial general intelligence)。就是说,机器不能通过自主学习和思考来提高自己。简单来说,如果网上的观点比较一致,那么ChatGPT 可以给出很好的总结;如果网上的观点充满对立和错误信息,ChatGPT 则无所适从。ChatGPT 没有原则,不能验证事实,不能给出独立思考的结论。从投资的角度,微软和谷歌是行业领跑者。英伟达(NVDA)和高级微设备公司(AMD)生产 高性能人工智能的芯片。Adobe 和 IBM 都参与 人工智能的研发。从个人就业的角度,人工智能行业值得考虑。我认为以后很多行业会使用人工智能技术。我们以前的统计模型变量,一般只有20-30 个。现在的人工智能模型变量,一般有 200-300 个。 现在不仅数据量变得很大,数据的种类也很多。以前数据一般指数字和字符串,现在的数据还包括图像,声音,视频等。未来几十年,这方面会有更多发展机会。美本早申数据大揭秘
欢迎扫码领取
报告完整版👇
本文作者:刘以栋,系美国资深金融分析师,笔耕不辍的他,业余爱好阅读,写作;他撰写的金融类点评,教育类资讯和感悟,常在国内外各类报刊媒体刊发,让多人收益。本文经作者授权发表,版权归属作者和本号联合所有。
喜欢本文?欢迎点赞/转发/关注/加入留学家长公益交流社群: