未来淘汰你的是 AI 还是懂 AI 的同事?InfoQ研究中心发布 2024 年中国技术发展十大趋势
2023 年,大模型与生成式 AI 的崛起无疑成为了技术领域的焦点。在这一年里,大模型和生成式 AI 的讨论持续“破圈”,各类商用大模型和开源大模型的发布和更新将技术创新推向了新的高峰,相关产品不断发布。
然而,AI 领域的巨大变革外,其他数字技术也在助力实体经济的道路上稳步迈进。5G、数据资产、云计算、数字孪生等技术正融入工业互联网的各个环节,产品设计、资源勘探、生产制造、设备管理、安全生产各个环节之间也日益融合。5G 工厂、双跨平台等工业互联网建设成果不断累积和爆发。
在此背景下,InfoQ 研究中心发布的《中国软件技术发展洞察和趋势预测报告 2024》,以人工智能新纪元和以数强实稳根基两大篇章,从数据定量和公开资料、专家访谈定性的角度,深入回顾 2023 年技术市场的重大进展和演进,并以此为基础,探究 2024 年技术发展的未来方向。欢迎大家点击「阅读原文」,进行完整报告下载。
本篇文章就将带大家了解,报告中 InfoQ 研究中心对 2024 年技术市场发展方向的十大预测。
2023 年,InfoQ 研究中心首次推出中国技术成熟度评估曲线,并定期产出人工智能和云原生等细分领域的成熟度模型,期望能为技术选型和决策提供持续更新的工具。迈入 2024 年,InfoQ 研究中心通过收集并整理 160+ 细分技术领域的技术专利数量、技术诞生时间、技术舆论指数、技术融资事件作为基础资料,结合专家访谈和公开资料,全面更新了 2024 年中国技术成熟度评估曲线。
在技术成熟度评估曲线的生成过程中,InfoQ 研究中心和多位技术专家、数字化专家、企业技术负责人的访谈交流后,InfoQ 发布 2024 年十大技术发展趋势展望,希望为 2024 年的技术领域提供一些灵感与想象。
大模型对算力的需求愈发强烈。 算力是支撑模型训练的核心底层资源。目前已公布训练细节的大模型,例如拥有 1750 亿参数的 GPT-3,在训练过程中,使用了 1 万张 V100,并训练了 14.8 天;在 GLM-130B 的训练中,使用了 768 张 A100 芯片仍然耗费了约 57 天。在推理阶段,虽然单次 / 单个任务的算力需求较小,但伴随处理任务数的上升,总计算量也相当可观。
发展大模型,需要优先解决算力问题,已经在 AI 开发者中形成共识。 根据 InfoQ 2023 年 11-12 月进行的 AI 应用开发者问卷调研,36% 的 AI 应用开发者认为,算力问题在未来需要得到解决。
InfoQ 研究中心预计在 2024 年,专用于 AI 训练的智能算力规模将持续扩大,国家发展建设智算中心决心明确。2023 年 10 月 8 日,工业和信息化部、中央网信办等 6 部门联合印发《算力基础设施高质量发展行动计划》,提出到 2025 年算力规模超过 300 EFLOPS,智能算力占比达到 35%。
此外,使用异构算力训练成为部分大模型市场的弹性选择方案。算力市场供应紧张的局面时日已久,大模型训练逐渐探索异构算力模式。异构算力,是指大模型在训练过程中,不使用单一型号的 AI 芯片(例如 NVIDIA 的 A100),转而使用同一厂商不同型号、代际的 AI 芯片,或者使用不同厂商的 AI 芯片所构建的异构算力池。2023 年 11 月,智源团队宣布,其已率先实现了在英伟达异构集群(A100 集群 +A800 集群)和天数智芯异构集群(BI-V100 集群 +BI-V150 集群)的混合训练,验证了异构并行训练方案在 70B 大模型训练上、在多种不同资源混合场景下的有效性。
数据库,这一重要基础设施,也将伴随着新一轮人工智能的浪潮发生升级转变。
第一点是云上数据库的 Serverless 交付和可观测能力重要性提升。 这背后是新一代人工智能中,大规模数据交互的广泛使用成为驱动数据库升级的重要动力。大模型数据存储向边缘和端侧转变、训练和推理过程中数据冷热交替特征更为明显,这些转变都要对数据库提出更高的要求:更大的数据库规模弹性和更多元的负载处理能力。
二是伴随着多模态能力成为大模型标配,向量数据处理能力成为未来数据库能力的标配。2024 年,无论是专用的向量数据库,还是在原有数据库中引入向量检索,都将代表着向量数据处理能力对数据库的升级要求。
三是 RAG 将随着大模型应用生态的拓展被广泛应用。RAG 集成了信息检索和机器学习生成模型的优势,可以在理解用户意图的同时生成大量符合用户意图文本。同时 RAG 提高了知识更新的速度,同时对于模型的可解释性也有明显的提升。目前,我们对 RAG 的探索仍在早期 。在问答系统外,RAG 会如何影响推荐、总结等更多任务领域;RAG 未来将如何将应用范围拓展至多模态数据等等都是 RAG 未来发展需要考虑的问题。
2023 年,是各家大模型持续发布和更新换代的一年,同时也是在应用场景摸索的一年,在协同办公、客服、代码生成等场景形成的相对标准化的产品。在调研中,24% 的受访开发者希望,缺乏好的应用场景的问题未来能够得到解决。
进入 2024 年,应用场景的竞争会更加激烈,InfoQ 研究中心也期望提出以下两个问题,供大家讨论。
一、多模态大模型的应用探索会如何发展?
多模态生成场景中,目前文生图片的进展较为迅速,模型不断发布,并且已经能提供较好的生成效果,海外的 Stable Diffusion、Midjourney、国内的文心一格、万兴爱画等相关产品也在持续更新。
2024 年,重点会来到视频、音乐等更多模态和形式的生成。视频生成中的时间一致性、生成长度问题能否在 2024 年寻找到明显的解决方案?多模态生成能否更好地融入工作流程,而不是像现在生成和编辑 / 剪辑产品来回切换? 这些都是多模态大模型的应用中需要思考的问题。
二、ToC 和 ToB 的产品形态会如何发展?
To C 场景中,除了对话机器人(ChatBot)外,还会产生什么样的 「杀手级应用」?To B 场景中,企业探索信息化升级和数字化转型已有多年,大模型如何同现在企业内部的各种信息系统融合? 同时,目前大模型出于内容生成的可控性,应用仍主要在内部场景,以知识库的形式进行探索。在应用场景方面,大模型如何从以协同办公、客服、营销为代表的⾮非核心业务场景,向以生产制造、风控、交易、销售为代表的核⼼业务场景深⼊?
2024 年将是端侧 AI 探索的元年,并存在两条路径,一是在原有终端上,改造升级 AI 功能,提升原有终端的智能化、个性化水平 。 这当中,华为、小米、三星、VIVO、魅族等手机厂商、联想等电脑厂商纷纷推出搭载端侧模型能力的产品。下一步,家居 IOT 设备、汽车等终端设备也将继续跟进。
第二条路径是创造新终端,即创造 AI 原生的新终端,实现更深度的 AI 集成、更创新的交互方式和产品形态 。这条路径中,海外已发布了 Humane 旗下的 AI pin、Rabbit R1 和 Rewind Pendant ,预计在 2024 年还会有更多直接基于 AI 能力设计制造的终端产品诞生。
在端侧 AI 中,人型机器人是多模态大脑和硬件躯体融合的优秀承载体。
多模态大脑的进化将赋予人型机器人优秀的知识泛化和迁移能力,以及指令拆解和决策能力。 这一方面改变了过往机器人在单一场景下需要大量数据训练,但无法跨场景应用的情况,也提升了人型机器人将自然语言下的指令拆解为实际物理动作的能力,造就人型机器人与实际动态环境的正确交互。
硬件躯体的进化将赋予人型机器人优秀的躯体控制能力。 这当中,以减速器为代表的运动控制、以视觉、力矩传感器为代表的环境感知、以芯片为代表的决策系统,都将能够在多模态大模型大脑的交互控制下,完成高质量的任务决策。
2024 年,云 for AI 将进入新阶段。云原生 for AI,是在 AI 模型训练和应用生成的过程中,充分利用云的资源弹性,对异构算力的便捷管理能力等技术手段,提供工程高效率、成本可观测、弹性可预测、结果可复制的 AI 模型生成流水线。
边缘计算 for AI:伴随着 AI 在边缘设备上的部署,边缘计算成本效益优势、数据安全保障、实时数据处理等优势逐渐凸显。to C 端仍将继续探索手机、电脑等边缘端侧 AI 作为个人手机助理的应用。to B 端伴随着大模型行业应用探索突破协同办公领域,搭载了 AI 的产业传感器和终端边缘网络,有望深度助力产业数字化转型。
除了 AI 之外,云计算仍然面临着客户对于云成本优化更加急迫的需求。
Serverless 满足企业对成本的关注 : 企业对云服务成本的关注仍将保持高涨,而 Serverless 通过其按需缩放和自动扩展的特性,为企业提供了灵活性和成本效益,满足了对成本管控的需求。但 Serverless 的灵活性使得预测成本变得复杂,因为其计费受到多重因素影响,包括计算、存储、IO 请求量、容灾等因素呈现的随机性和非平稳性。这些都会导致 Serverless 成本估算更加复杂。因此,企业在使用时,需要特别关注这一方面。各大云厂商针对这一难题,也在不断推陈出新,如基于 FinOps 的用户成本中心,I/O Optimized,One Zone Service 等方案层出不穷。总体来讲,云成本可观测将会成为通用 Serverless 领域重要发展分支。
可观测性构建满足企业对稳定性的关注 :云原生时代,东西向流量逐渐成为企业数据通路的主要载体。大量业务流量在容器、虚拟机内部进行直接交互。通过链路追踪和运行时监控等,企业能够实时分析并准确定位故障发生的位置。但对于 Nginx、DNS、MySQL、Redis、MQ 等基础软件监控盲点往往无能为力。通过原生 eBPF 的应用零侵扰采集能力,则可以弥补传统虚拟网络监控的可观测盲区,为端到端的应用全景分析,调用链路追踪与回溯提供新思路。尤其对于异常敏感的网络丢包,抖动与长尾时延优化带来新的可能。
2024 年,AI 开发者应用层、大模型层、软硬件底层倒三角版图将逐渐形成。
应用层人才占比最大,核心是场景理解力 : 随着 AI 的成熟,以及 AI 应用在各个行业领域的探索与普及,应用层人才的需求逐渐旺盛。对于应用层人才,核心是能否理解使用场景,并依托使用场景生成能够实际解决问题的 AI 应用。
大模型层核心人才吸引力强,开发者聚集化倾向明显 : 大模型层本身开发的门槛高,需要的资金和人才资源高,因此最终能从「百模大战」中生存下来的公司就是少数。最终,拥有核心人才的团队,会吸引大量人才,并形成人才聚集。
软硬件层壁垒仍处高位,人才培养难度大 : 虽然底层软硬件对于大模型和应用层至关重要,但其专业性壁垒高,人才培养难度大,短期内人才仍不会存在大量爆发。
大模型时代,开发者的角色正在经历一场深刻的转变,这标志着从专业开发者到应用开发者,再到全民开发者的泛化趋势。这一转变体现了编程和应用开发的门槛不断降低,以及开发能力的边界不断扩展。具体来说:
专业开发者将使用 AI 提升编程效率和创造力。对于原本就编写代码的专业开发者,在此次 AI 浪潮中,可以充分利用 AI 工具提升编码生成和开发效率,例如 AI 自动化代码生成 、代码优化智能分析 、自动化测试用例生成 、自动化代码审查。这要求开发者不仅具备编码技能,还需要能够与 AI 工具协同工作,以实现更高效的开发流程。
应用开发者将使用 AI 生成应用工具提升数据分析效率 。 对于工作中涉及数据分析与决策的应用开发者,借助大模型提供的自动化数据分析等功能,应用开发者能够更深入地洞察数据,作出更精准的决策,从而在业务应用开发中发挥更大的作用。
全民开发者将使用自然语言 / 图片进行程序开发。 对于原本受限于编程能力而无法自主开发应用的人群,对于那些没有编程背景但希望参与应用开发的人群,新一代人工智能提供了新的途径。通过自然语言和照片生成程序开发,全民开发者可以更容易和便捷地创建程序,鼓励了更广泛的创新和参与。
对于企业数字化而言,2024 年的核心主题是转型成果向中小企业普及。这当中既包括双跨平台及工业互联网试点园区,将会有针对性地为中小企业开发轻量化的应用,扩大工业互联网应用供给,为中小企业打造一批“工具箱”。同时也包括中小企业在研发设计、设备管理、生产管理、用户服务、经营管理和供应链管理的云化基础进一步夯实。
在大背景下,为了更好地让中小企业获取数字化转型成果,产业服务体系和数据要素市场服务体系搭建将进一步完善。 以泛制造企业和技术服务商打造的双跨平台作为载体,在支撑重点行业和中小企业的技术与场景融合探索、产业链金融与需求匹配、诊断咨询、人才培训等产业服务体系上进一步完整。数据要素进入报表中的定价方式、确权、登记、流通交易、融资等市场服务体系逐渐出现大量试点。下半年有望从政策端总结典型应用,推动试点服务体系搭建。
在中国软件技术的发展道路上,算力竞赛、数据库升级、大模型在应用场景和端侧 AI 的持续探索、云原生 AI 与云成本优化、开发者概念泛化以及数字化转型等十大趋势共同构成了一幅丰富多彩的画卷。
我们期望,在这个 VUCA 时代,这份报告能够帮助各位开发者、科技领导者以及对各类技术领域感兴趣的读者朋友,把握未来技术发展的脉络。InfoQ 研究中心也将继续以专业、客观和持续的报告产出,同大家一起见证技术发展的每一个重要时刻。
鹅厂年终开奖冲上热搜;PayPal裁员赔偿N+6;梁汝波不满字节2023年才讨论GPT;“Linux中国”停止运营 | Q资讯
刚上线就崩了?字节版 GPTs 征战国内市场:无需编码,快速创建 AI 聊天机器人
Taylor Swift 身陷不雅照风波:AI 越强、Deepfakes 越猖狂,微软和推特们无法推责
Linus 开喷谷歌内核贡献者:你的代码是垃圾!网友:我们熟悉的 Linus 回来了
AICon 全球人工智能与大模型开发与应用大会暨通用人工智能开发与应用生态展·2024,正式起航!点击扫描下方二维码查看详情。
本届大会特邀四位行业领袖担任联席主席:北京智源人工智能研究院副院长兼总工程师林咏华、Lepton AI 联合创始人 & CEO 贾扬清、百川智能联合创始人谢剑以及蚂蚁集团蚂蚁超级计算部负责人余锋(褚霸)。为整个会议的内容方向提供专业的指导和见解,确保我们为参与者带来更加深入、创新且实用的讨论和洞见。
目前会议 8 折优惠购票,火热进行中,购票或咨询其他问题请联系票务同学:13269078023,或扫描上方二维码添加大会福利官,可领取福利资料包。
微信扫码关注该文公众号作者