跟着我一步两步三步,用开源方式将AI带入企业公众号新闻2024-06-24 03:06“AI有开源派与闭源派,你挺哪一派?”这是红帽公司针对媒体所做的一次小调查。结果显示,坚定的开源派占50%,挺闭源的仅有5.56%。如果是你,又会怎样选择?如何才能让AI在企业中快速平稳落地,并且开花、结果呢?“以开源的方法,将AI带入企业。”红帽全球副总裁兼大中华区总裁曹衡康如是说。红帽全球副总裁兼大中华区总裁 曹衡康开源 开放混合 开放式创新众所周知,ChatGPT最初也是开源的,甚至曾经采用过红帽的Container。但是后来,它慢慢地走向了闭源。其实选择开源还是闭源,没有绝对的对与错,而是看它能否真正满足应用所需。站在红帽的角度来说,开源当然是不二之选。从成立的第一天起,红帽就一直秉持开源的精神,践行100%开源的策略。进入AI新时代,红帽的思路是以开源的方法让AI在企业中落地。“AI在闭源的环境中,可能会存在一些安全隐忧,比如无法确信是否有人在很好地监督闭源环境。而开源的一个优势,是整个社区会共同检查安全问题所在,并且快速解决问题。另外,随着模型的参数越来越大,构建和应用越来越复杂,需要大量的云中算力作为支撑。从某种角度来说,这多少有些浪费。”曹衡康表示,“在推动AI应用方面,红帽的想法是,让模型的应用更加轻量化,进而降低AI在企业中的应用门槛。”轻量化、简单易用,红帽的AI策略与Linux、OpenShift的推广理念其实是一脉相承的。当前,我们已经进入了“混合多云”时代,AI的落地应用也不能脱离这个现实。模型既可以在云上开发,也可以在本地数据中心部署和应用。红帽要做的就是通过不断优化,在一个比较简单的环境中,将模型建立起来,为业务赋能。“考虑到资源利用最大化、效率以及安全性等问题,AI应用非常适宜在混合云中完成。”曹衡康表示,“通过红帽的技术,在笔记本电脑上就可以完成数据采集、建模、训练,而不一定用到云。”从红帽的定位和整体战略来看,不做硬件,也不碰应用,而是在硬件和应用之间搭建一个基础架构、一个平台、一个工具,与更多的生态伙伴合作,以开放的心态推动开放的创新实践。具体来看,从上至下,在AI应用层,红帽提供跨开放混合云的AI赋能的企业应用;在AI模型层,红帽为AI模型提供多样化选择,以提高AI创新的ROI;在AI平台层,红帽提供领先的AI平台,帮助企业安全高效地部署和管理AI模型和AI应用;在AI基础设施层,红帽为企业的AI模型和AI应用提供安全的、可扩展的基础设施以及自动化能力。曹衡康特别提到,红帽能够为企业提供咨询、实施、赋能三位一体的开放创新实验室服务,以加速企业的AI创新实践。开放混合云、开源思想、开放的创新实践,这就是红帽通过开源的方式将AI带入企业所秉承的基本原则与信条。由小及大三步完成AI生产级部署应用在今年5月举行的2024红帽全球峰会上,红帽一口气公布了20多项创新,涉及产品、开源社区、工具和工具链等,其中与AI相关的创新最受瞩目,创新覆盖AI的基础架构层、平台层、模型层和应用层。“AI创新,从来就不是一件简单的事情,也不是只要选择一个模型,就万事大吉了。”红帽大中华区解决方案架构部高级总监王慧慧表示,“红帽致力于提供端到端的AI平台和路径,从本地工作平台开始,帮助企业用户轻松地创建并使用AI的代码和环境,并将其无缝地扩展到企业级的生产环境中。”以开源的方式将AI带入企业,大致可以分成“三步走”。第一步,在资源受限的桌面环境中,采用小数据集,进行实验性训练。所有的开发人员(包括应用开发人员、模型开发人员)都可以自己的笔记本电脑上,以容器化的方式开发自己的AI应用,或者采用红帽提供的InstructLab工具去建立和调优模型。InstructLab是一个围绕LAB方法和IBM开源Granite模型构建的开源社区。InstructLab项目的目标是使开发者通过简化大语言模型的创建、构建和贡献过程,能够像参与任何其他开源项目一样,将大语言模型开发的权力交到开发者手中。据悉,IBM Granite 7B英语模型已整合到InstructLab社区中。“AI模型的训练以前不可能在一台PC上完成,因为原来我们并不认为AI是混合的,而是认为模型训练必须在一个配备了GPU卡的大型数据中心里完成。”王慧慧表示,“未来,我们会将InstructLab集成到Podman Desktop中,让开发者在本地,利用一台PC就能完成初步的AI模型训练。”第二步,通过完整的合成数据生成技术,采用“教师”模型和“学生”模型的训练方法,进行生产级的模型训练,并提供基本操作脚本化的工具支持。当构建的模型在本地的PC上通过了验证,开发人员就可以将它推送到一台比较大的服务器上。这时就会用到像红帽Enterprise Linux AI(RHEL AI),在此平台上,通过一套完整的数据生成技术以及相对复杂的“教师模型、学生模型”训练方法,可以针对已经做好的基础模型,接着进行生产化的模型训练。最新推出的RHEL AI是一个基础模型平台,能够使用户更加便捷地开发、测试和部署生成式人工智能模型。它整合了IBM研究院的开源授权Granite大型语言模型系列、基于大规模对话机器人对齐(LAB)方法的InstructLab模型对齐工具,以及通过InstructLab项目实施的社区驱动模型开发方法。该方案被封装成一个优化的RHEL镜像,用于在混合云环境中部署单个服务器,并已集成到OpenShift AI中。经过上述一系列操作后,当模型具备了一定的可读性、可使用性,就可以推送到第三步的环境中。第三步,在更庞大的分布式集群环境中,继续生产级的模型训练,这时就会用到像红帽OpenShift AI,充分利用Kubernetes的扩展、自动化能力,实现MLOps的全部功能。未来,随着更多企业在RHEL AI环境中试验和调整AI模型,红帽OpenShift AI将成为继续扩展这些工作流的一个更强大的平台。OpenShift AI是一个混合的平台,既可以部署在本地的数据中心,也可以部署在公有云、私有云中。OpenShift AI为企业用户提供了一个AI应用的DevOps平台,用户可以在OpenShift AI平台上做AI应用的开发、测试、调整、上线、运行。OpenShift AI是一个集大成者,让企业可以完成包括模型、应用和资源控制等在内的所有内容。“企业应用AI,可以从一个小应用、小模型开始,进行小规模的尝试。在这个阶段,Podman与InstructLab是非常趁手的工具。当企业感觉对AI模型的训练已经比较熟练,并想在更大规模的企业级环境中部署和应用时,就可以将在PC上验证过的模型推送到数据中心,乃至更大规模的分布式集群环境中。这种循序渐进的方式,上手更容易,也可以避免一些不必要的风险或弯路,充分满足企业用户在AI不同应用阶段的需求。”王慧慧如是说。 打开AI模型“黑箱”支持混合应用我们一谈到AI的应用,不可避免地要涉及以下四个方面的问题:第一,基础架构,主要解决算力的问题;第二,算法和模型的问题,相对来说技术门槛比较高;第三,数据,关键是要合规、安全地使用数据;第四,AI的应用场景问题,越来越多的企业在进行深入地摸索和探讨。当前,生成式AI的需求集中爆发,算力问题被推到了风口浪尖。人们都相信“大力出奇迹”。但随着这股热潮渐渐褪去,从用户的角度,还是更关心如何用AI赋能业务,比如能否用更小的模型、更少的算力,更有效地解决生产中的实际问题。基于开源的方法论和技术,红帽与合作伙伴共创平台、工具、社区,为的就是帮助企业打开AI模型这个“黑箱”,在实际应用中充分发挥企业自身的主动性、创造性和独特的竞争优势。一个AI项目或者AI应用,可以在本地数据中心建模,在云中进行训练,在产线的任何一台工控设备上完成推理,并且始终保持是同样的一套AI。这就是所谓AI的部署、应用和消费都是混合的。红帽的目标是打造这样一个支持AI的混合环境,并保证其高效、安全、可靠、简单易用。红帽希望有更多的客户、合作伙伴在其平台上开发AI应用。往/期/回/顾从科技赋能到价值引领,东莞证券可进化的信创云建设启示录“智算”雄起 | 智算操作系统要“顶天立地”从虚拟化走向云原生,红帽OpenShift“一手托两家”生成式AI如何落地?红帽打了个样儿一场开放混合云的大戏,多亏了红帽“戏精团”的精彩演绎微信扫码关注该文公众号作者戳这里提交新闻线索和高质量文章给我们。来源: qq点击查看作者最近其他文章