10张图总结2023年人工智能状况
点击蓝字 关注我们
SUBSCRIBE to US
ISTOCK
斯坦福大学以人为本人工智能研究所(Human-Centered AI Institute,HAI)收集了一年的人工智能数据(https://hai.stanford.edu/),提供了当今人工智能世界的全面情况。该报告自2017年起,由斯坦福大学开始主导研究。AI指数报告作为一项独立计划,每年发布AI指数年度报告,全面追踪人工智能的最新发展状态和趋势。今年的综合报告共有302页,这比2022年的报告增长了近60%。这在很大程度上要归功于2022年需求关注的生成性人工智能的蓬勃发展,以及收集人工智能和道德数据的努力越来越大。
对于那些像我(作者,以下简称我)一样渴望阅读整个《2023年人工智能指数报告》(https://aiindex.stanford.edu/report/)的人,你可以首先在这里进行了解。下面是10张图表,捕捉了当今人工智能的基本趋势。
虽然像ChatGPT这样的大型语言模型的能力急剧增加,但训练此类模型的价格也急剧增加。在所有的机器学习系统中,语言模型占用了最多的计算资源。
虽然预估人工智能系统的碳排放量并不容易,但考虑到模型中的参数数量、数据中心的能源效率以及用于输送电力的发电类型,人工智能指数团队给了它最好的机会。它得出的结论是,即使是所考虑的四种模型中效率最高的BLOOM的训练运行,一年内排放的碳也超过了美国居民的平均使用量。
十年来,私人AI投资首次下降,从2021年下降约三分之一至1896亿美元。其中原因尚不清楚。AI指数指导委员会联合主任Ray Perrault表示:“我们确实知道,2022年对初创公司的私人投资总体下降;我们没有回答人工智能初创公司的投资是比其他公司缩水更多还是更少的问题。”
报告显示,人工智能研究的好消息是,政府支出有所增加,至少在美国是这样。AI指数报告显示,美国非国防政府机构在2022年为AI研发拨款17亿美元,比2021年增长13.1%。美国国防部要求在2023财年为非分类人工智能特定研究提供11亿美元,比2022年的资金增长26.4%。Perrault说,这些数字很难得到。AI指数团队采用了几种不同的测量方法,得出了大致相似的数字,但无法从世界各地收集可比数据。
Perrault表示,这种增长有几个潜在的来源。他说:“有一个国家安全委员会在2021年发布了一份针对人工智能的报告,建议增加大约10亿美元的人工智能资金,再增加10亿美元用于高性能计算。看起来这有一些效果。过去,人工智能是由少数机构资助的,如美国国防高级研究计划局、美国国家科学基金会和一些国防部团体,但现在我怀疑,鉴于人工智能被视为与生物学等更广泛利益相关的问题,其资助领域也在扩展。”
根据AI指数报告,2021年(这是可用的最新数据),所有AI博士中有65.4%进入了工业界,而在学术界工作的比例为28.2%。(此处未显示的其他人是自营职业者、失业者或报告“其他人”。)自2011年以来,这一比例一直在稳步增长,而在最初这一比例几乎相等。
随着拥有博士学位人员数量的增加,工业界在生产新的机器学习模型方面领先于学术界也就不足为奇了。
直到2014年,大多数新的机器学习模型都来自学术界,但工业界很快就取得了领先。根据HAI收集的数据,2022年,有32个行业生产的机器学习模型,而学术界生产的只有三个。AI指数报告指出,该行业在获取大量数据、计算机能力和资金方面也具有优势,这些都是构建最先进的人工智能系统所必需的。Perrault说,鉴于这一趋势,“一个大问题是,大学将在多大程度上获得资源来建立自己的大型模型,而不是修补从外部获取的模型。”
AI指数指导委员会选择了2022年人工智能最重要的技术发展,按时间顺序排列。Perrault说,这种“月度模型”对团队来说是新的,他们正在增加内部数据收集,而不是仅仅依赖其他人发表的研究。他继续说道:“我们对其他应该解决的问题有很多想法,但做原创工作的灵活性受到资金的限制。”
AI指数使用了来自人工智能、算法和自动化事件和争议(AIAAIC)库的数据。这是一个公开的数据库,报告称,与滥用人工智能有关的事件数量正在激增。这些数据落后了大约一年,但允许对报告进行审查。
HAI报告称,127个国家通过的与人工智能相关的法律数量激增,2016年仅通过了一项,而2022年为37项。其中包括对拉脱维亚《国家安全法》的修正,以限制对国家安全至关重要的组织,包括开发人工智能的商业公司,以及西班牙的一项法案,要求公共行政中使用的人工智能算法考虑到偏见最小化标准。
根据全球研究公司IPSOS进行的一项调查显示,78%的中国受访者同意使用人工智能的产品和服务利大于弊。在美国,只有35%的人认为人工智能带来了净收益,法国以31%的比例垫底。IPSOS报道称,总体而言,男性对人工智能的态度比女性更积极。
据HAI报道,一组美国研究人员调查了自然语言处理研究人员,如出版物所示,以了解人工智能专家对人工智能研究的看法。尽管近90%的人表示人工智能过去和未来的净影响是好的,但他们并没有忽视它的力量或风险。绝大多数人——73%的人预计人工智能很快会带来革命性的社会变革,而也有占比不小的一部分人——36%的人认为人工智能可能会造成核级别的灾难。
Perrault说:“这是一个非常有趣的调查结果,因为这些人大多知道自己在讨论些什么。这些数字大约有一年的历史了;考虑到大型语言模型正在发生的事情,这些数据很有趣。”
微信号|IEEE电气电子工程师
新浪微博|IEEE中国
· IEEE电气电子工程师学会 ·
往
期
推
荐
麻省理工Python增强编译器Codon 让Python像C\C++一样高效
Neuralink的人体试验申请已因安全问题被美国FDA拒绝
微信扫码关注该文公众号作者