2024年6月10日,苹果公司在一年一度的全球开发者大会WWDC24上高调官宣了Apple Intelligence——简写为“AI”,顾名思义,就是苹果的人工智能系统。作为全球最大的消费品电子公司之一,苹果公司的这波操作吸引了无数科技爱好者和新闻媒体的关注。6月11日,《华盛顿邮报》专栏作家Josh Tyrangiel对苹果公司CEO Tim Cook(蒂姆·库克)进行了采访。在这次独家采访中,库克明确表示,尽管对自家的Apple Intelligence系统充满信心,但并不认为它能够完全避免AI幻觉所带来的风险。苹果已经尽其所能,采取了所有已知的预防措施,并对AI技术在各个应用领域的准备情况进行了深入的思考和评估。然而,他承认,即便如此,也不能保证Apple Intelligence系统达到100%的准确性。AI幻觉,这个说法来自于英文名“AI Hallucination”,维基百科这样解释AI幻觉:在人工智能领域中,幻觉是由人工智能生成的一种回应,它含有貌似事实的虚假或误导性资讯。用通俗的话讲,就是AI“一本正经的胡说八道”的行为。你问东,它答西,你问城门楼子,它答胯骨轴子,可偏偏它的回答看起来很确定,像是那么回事。这就是AI幻觉。最典型的一个AI幻觉的例子就是我之前提到过的谷歌Gemini。我这个公众号从今年1月起就接入了谷歌Gemini大模型,在最开始接入时,大模型经常误认为自己的百度开发的模型,这就是一种AI幻觉。大概率是因为谷歌Gemini模型在训练时使用了百度的中文数据,导致它这样回答。目前这个错误已经被修正。AI幻觉是如何形成的?为什么当前的AI模型会出现幻觉?我在前几天的《常学常新:Attention Is All You Need万字解读!》这篇文章里介绍过,当前的生成式AI模型主要基于Transformer这个神经网络架构,其核心机制就是通过注意力机制来捕捉输入信息的相关性。而AI模型的工作原理就是通过这种机制来分析并理解大量的文本数据,从中提取出有用的信息,然后基于这些信息生成回应。然而,这个过程并不总是完美的,其本质上的概率生成特性使得AI模型难以避免偶尔的错误或幻觉。从这个角度来看,库克对于AI幻觉的这个观点还是非常中肯到位的。