经常关注AI的小伙伴应该有所了解,目前AI聊天机器人产品中最火的就属于OpenAI旗下的ChatGPT,又随着ChatGPT所使用的大语言模型更新至GPT-4,整体的性能有着不小的提升。据官方介绍,GPT-4 是一个超大的多模态模型,也就是说,它的输入可以是文字,还可以是图像。GPT-4比以前的版本“更大”,这意味着它已经借助比之前版本的模型进行了更多数据的训练,并且在模型文件中有更多的权重,从而使得它的运行成本更高。就任务而言,GPT-4的表现比之前版本的模型更好,它可以遵循自然语言的复杂指令并生成技术或创意内容,而且它可以还更深入地做到这一点:它支持生成和处理多达32768个标记(约25000个文本单词),从而实现比前辈更长的内容创建或文本分析。OpenAI表示,GPT-4错误答案更少,而且也会减少偏离话题的可能,也尽可能不会再谈论禁忌话题,甚至在许多标准化测试中比人类表现得都要更好一些。据相关媒体消息,OpenAI宣布插件功能,赋予ChatGPT使用工具、联网、运行计算的能力。并且还开放了OpenAI自己的两个插件:网络浏览器和代码解释器。虽然性能方面有着不小的增强,但是仍然无法避免在接受输入信息后输出错误的消息,更有甚者出现了胡言乱语的问题,解决这个问题也就成为了现在AI发展的重要课题之一。据凤凰网科技报道称,ChatGPT开发商OpenAI发布了一份研究论文,阐述了如何解决人工智能“幻觉”的新方法。AI幻觉指的是聊天机器人用编造的信息进行回应。OpenAI 研究人员在报告中称:“即使是最先进的模型也容易生成谎言,它们在不确定的时刻会表现出捏造事实的倾向。这些幻觉在需要多步骤推理的领域尤其是个问题,因为一个逻辑错误就足以破坏一个更大的解决方案。”
为了对抗AI幻觉,OpenAI 找到了一种潜在新策略:训练AI模型在推理出答案的每个正确步骤上给予自我奖励,而不仅仅是等到推理出正确的最终结论时才给予奖励。研究人员表示,这种方法被称为“过程监督”,与之相反的是“结果监督”,这可能会训练出更好的可解释AI,因为这种策略鼓励模型按照更类似人类的“思考”方式进行推理。“检测和减轻一个模型的逻辑错误或幻觉,是构建一致性通用人工智能 (AI) 的关键步骤。”OpenAI 数学论文生成器 (mathgen) 研究员卡尔・科布在接受采访时表示。他指出,尽管OpenAI并非发明了过程监督方法,但该公司正在推动其发展。“这项研究的动机是解决幻觉问题,以使模型在解决具有挑战性的推理问题方面能力更强。”简单来说,就是OpenAI希望可以通过训练,让AI可以在“思考”的过程中对反馈的消息进行判断,而不是已经出了结果再进行判断,希望AI的思维方式可以更加像人类。目前AI正在快速的发展并不断解决各种问题中,感兴趣的小伙伴可以保持关注。
以上,想要了解更多AI 行业资讯以及ChatGPT实战案例,欢迎加入我们的「互联网AI早读课」知识星球
1.ChatGPT和Midjourney基础+进阶全攻略2.ChatGPT和Midjourney最直接变现案例3.与200+行业先行者链接,积累你的专属人脉资源现在加入,立享99元早鸟价优惠,星球用户每涨100人,价格上调100元,直到恢复499元原价!来源|科技美学官方 (ID:kjmxcn)
内容仅代表作者独立观点,不代表早读课立场