构建开放的软件生态以推动AI落地应用

2024-09-18 06:14:38 Nancy,EETOP

随着人工智能技术的快速发展,AI堆栈正逐渐成为开发和部署AI应用程序的核心技术。在AI时代,要想实现价值最大化,就需要把整个基础架构和AI应用很好的适配在一起。所谓AI堆栈,其实就是包括算法、模型和数据处理工具等一系列用于构建和运行AI系统的技术、框架和工具的集合。在整个AI解决方案堆栈中有很多不同的工作负载,它同时也适合不同的解决方案。

事实上,从算力基础到操作系统、数据库、大数据,再到应用,整个堆栈非常复杂要保证每一层在不同XPU的效率最高就需要解决灵活部署的问题。在英特尔近日举办的“企业AI开放软件生态媒体分享会”上,英特尔中国软件技术合作事业部唐炯表示:第一件事情就是要解构。现在没有一家公司能够提供一个非常完整的AI解决方案,还需要应用厂商、数据库厂商,才能把AI解决方案搭建起来。

微信图片_20240918062338.png

唐炯,英特尔中国软件技术合作事业部

“解构”其实就是指在AI解决方案中,哪些模块可以被解构出来并且能够在任何设备上灵活部署,能够在不同的XPU上分配工作负载时尽量减少手动编码的需求,并能够做数据保护。AI的理念几十年前就有随着算力的发展从机器学习到深度学习到生成式AI它也随之日新月异的被赋予了更多的可能

唐炯分享说:随着大模型的推进现在讨论的更多的则是落地企业AI即如何借助AI真正帮助企业发展认为,推进AI无处不在需要考虑三件事:

第一,加速创新,激励更多开发者进行AI开发与创新。

第二,价值最大化。让AI的发展对个人、对企业产生价值,并使得AI的价值最大化。

第三,灵活部署。让不同的软件模块灵活部署,从而能够真正为企业提供一个完整的解决方案的堆栈。

在加速创新方面,关键是“开放”,也就是说能够给围绕软件、应用,以及面向个人、面向企业的开发者提供一个更加开放的资源平台。兼容性变得非常重要。因为从原来的机器学习、深度学习、生成式AI到今天,AI的基础架构是非常多样化的,不是每一个开发者都会在不同的平台上去开发不同版本,所以需要更好的兼容性来适应异构的底层平台。同时,怎样通过不同的软件模块提升整个解决方案的可靠性和推理准确度,也是在整个加速创新中需要去考虑的事情。

唐炯表示:软件极大程度上地加速并优化了芯片的设计从大的生态层面来看,不同方案、功能提供商之间的兼容是加速创新的重要部分

微信图片_20240918062433.png

查礼,东方国信副总裁兼CTO

东方国信副总裁兼CTO查礼表示:到了人工智能大模型,AI PC的时代,实际上我们更多转向了生态协同,原来是软硬协同,现在是生态协同。

近两年来,AI技术迎来新一轮的高速发展,同时也为业界带来很多变革和机遇查礼分享了以下四方面的变革:

第一,硬件环境的变革。从原来主要集中在通算密集型应用的硬件环境,切换到了XPU密集型计算,也就是包含GPUASIC等的密集型计算。

第二,交互体验的变革从原来的图形界面,点按钮、点菜单,变成了自然语言NLP交互,包括语音、文字等,这是交互体验的变革。

第三,开发模式的变革原来开发的方式是程序员编写代码,现在开发方式已经充分地利用了大模型的技术。开发人员可以写提示词,让大模型帮忙生成代码

第四,应用构建的变革原来的技术体系是LAMPLinuxApacheMySQLPHP)和Web服务加微服务,现在需要经过微调的行业模型、知识库,并且还得有RAGAgent这样的工具链能力。

查礼表示:构建一个由AI驱动并赋能的、重塑的企业IT系统,这是我们作为一个软件开发商所看到的机遇。

查礼客服为例,介绍了东方国信如何利用AI技术与现有系统相适应。AI系统本质上是一个流程化的系统,因此在开发AI时,必须将其与流程化紧密结合。在传统客服领域,服务通常是规则化的,采取的是一问一答的形式,缺乏上下文记忆功能,这是传统客服模式的局限。客服工作本身有着明确的流程化要求,例如,客户提出一个问题后,系统需要知道接下来应如何处理。那么AI大模型的框架下,需要将其与原有的客服流程相对应。东方国信并不是完全独立地开发一套新的应用,而是要重新构建并优化现有的客服系统旨在为传统的大型IT系统提供赋能,通过AI技术提升其性能和效率。

微信图片_20240918062406.png

孟凡军,海鑫智圣的算法研究专家

海鑫智圣的算法研究专家孟凡军分享说:大模型确实给大数据带来改变。不过其实IT界是信息行业,即一直在和信息交互。尽管现在提高了效率,但并不具备真正的智能,仅仅是将流程规范化并自动化执行。未来,如果能够实现与系统的对等沟通而无需长时间阐述需求,那将标志着我们真正进入了智能时代。因此,大模型作为智能时代的先驱,其主要作用是提升人类处理非标准化数据的能力。因此,当其它云厂商采用各种各样高大上的GPU去解决问题的时候,海鑫智圣则是在英特尔新推出的CPU基础上,用英特尔OpenVINOoneAPI软件提高CPU适用的宽度,并提高了AI推理性能。

孟凡军表示:我们认为在新时代到来的时候,只有20%的典型场景是需要一些新的设备和加速的方式去解决,而传统的80%的场景是通过新的软件技术和CPU推出一些新的特性来横向扩展,在原来的基础把根本问题就解决掉。

英特尔一直致力于构建开放的AI生态,与生态伙伴一起实现资源协同,并从客户的实际需求出发,基于丰富的软件堆栈来打造多样化的解决方案,推动企业业务升级。据介绍,今年上半年,英特尔投入并联合生态伙伴推出OPEAOpen Platform for Enterprise AI开源项目OPEA实际是一个跟AI相关的开源社区,需要企业AI落地相关的不同厂商都能够参与,共享各方的代码和模块,最后成为一个完整的企业级AI应用据介绍,该项目旨在提升整个企业AI方案各个模块间的兼容性,从而让特定的AI提供商,比如模型、算法等厂商可以方便开放其能力,也能让解决方案提供商可以快速选择适合的模块构建出解决方案,加速创新。

唐炯英特尔至强为例,介绍了英特尔OPEA的项目理念。去年12英特尔推出的第五代至强处理器与上一代产品的软件和平台完全兼容,使企业客户能够升级并大幅增加基础设施的使用寿命而最新推出的至强6能效核处理器Sierra Forest)和即将发布的至强6性能核处理器Granite Rapids)也具有共通性,两者支持相同的软件堆栈,并且是平台兼容的,可以为每个客户按需提供正确的产品组合。

微信图片_20240918062129.png

据介绍,全球范围内一些头部ISV已经加入OPEA,也有一些国内厂商加入。唐炯表示,未来一定会有更多的异构计算、创新应用和数据管理与治理方案,通过一个开放、透明的平台,通过开源社区的贡献,使得大家能够更便利地了解到自身所处的位置能够在整个解决方案当中所做的贡献以及可优化之处,不至于因为某一个大模型选择错误而将整个应用推倒重来、重新编码,所以这也带来一个更加灵活的配置方式。

关键词: 构建 开放 软件

  • EETOP 官方微信

  • 创芯大讲堂 在线教育

  • 创芯老字号 半导体快讯

全部评论