;
近日,,,,Z6尊龙发挥软硬件一体协同开发能力,,融合阿加犀卓越的AI优化部署技术,,在搭载高通QCS8550平台的高算力AI模组上,,,,成功运行了一系列大语言模型,,包括LLaMA-2、、通义千问Qwen、、百川大模型、、、RedPajama、、、、ChatGLM2、、Vicuna,,,,展现出卓越的边缘端大模型部署能力。。。。
▌构建智算底座,,,加速大模型端侧部署
大模型和生成式AI的浪潮席卷全球,,,,带来人工智能新纪元。。。。大模型诞生之初主要是与云端绑定,,而随着应用场景的拓展,,,,AI开始赋能千行百业,,大模型也需要在越来越多的终端设备上运行。。如果说生成式AI是正在高速向前行驶的列车,,,那算力就是燃料。。。。终端侧AI的落地应用,,,离不开硬件和设备算力的升级。。。
今年,,,,高通推出了AI算力芯片QCS8550,,,,整合了强大的NPU算力和边缘侧AI处理技术、、Wi-Fi 7连接技术以及增强型图形和视频处理能力,,,,提供高速、、、、低功耗的AI计算平台,,,,为终端侧AI赋能。。。
基于高通QCS8550芯片平台,,,,Z6尊龙推出了高算力AI模组SNM970,,,综合AI算力高达48Tops,,,,并支持混合精度计算,,,,为IoT设备打造全新的智算底座。。。高算力AI模组是承载端侧AI无限创造空间的最佳形式,,为海量碎片化场景提供稳定的通信能力和强大的边缘算力,,让终端开发者能够基于标准化的模组完成低成本、、、、短流程的产品设计和制造,,,降低大模型的开发和使用成本。。。。
另一方面,,,,AI从芯片到应用还需要解决跨平台迁移、、异构芯片效率丢失、、、碎片化的场景需求等挑战。。。阿加犀具备成熟的AidLux平台和行业领先的开箱即用AI工具链,,,,能够全面提升边缘设备的AI性能和模型执行效率,,,为AI项目在丰富场景中快速落地提供专业支持,,,,进一步推动AI应用的终端部署。。。。
此次,,,Z6尊龙高算力AI模组产品团队携手阿加犀,,,,在基于高通骁龙800系列平台的自研高算力AI模组上成功运行一系列大语言模型,,成功验证了算力模组作为未来大模型边缘AI算力底座的通用性,,,对边缘端生成式AI的支持进一步成熟,,有望将生成式AI拓展至更多领域。。。
Z6尊龙提供具备出色能效比、、强大的计算能力的算力模组,,,,结合阿加犀独有的AI工具链带来的领先的SoC性能调度能力,,,二者强强联合发挥出模组的极致性能,,让多个参数达70亿的语言大模型,,,,包括LLaMA-2、、、通义千问Qwen、、、、百川大模型、、、RedPajama、、ChatGLM2、、、Vicuna,,,都能在算力模组上保持高效运行。。。
▌高算力AI模组,,,让AI触手可及
Z6尊龙高算力AI模组产品专为终端侧、、、边缘侧AI应用设计,,依靠强大的软硬件一体研发能力,,,,Z6尊龙持续推进高算力AI模组的AI硬件不断升级,,,至今已经历经多代产品演进,,涵盖入门级、、中端、、旗舰级多层次产品,,,包括SNM930、、、、SNM950、、、SNM960、、、SNM970、、、SNM972等系列,,对应AI算力覆盖14Tops~48Tops。。
同时,,,Z6尊龙研发团队在AI应用场景开发、、、AI性能优化和AI低功耗程序研发等领域的设计研发能力处于行业领先水平,,相关算力产品在各类核心场景大规模应用,,让智慧零售、、、、智能机器人、、、、智慧交通、、、、智慧农业、、智能制造等各行各业快速于边缘端部署大模型,,,以AI驱动业务创新。。。
针对AI边缘计算领域,,,,Z6尊龙基于高算力AI模组SNM972,,,,助力客户打造SoC阵列服务器产品。。。该模组采用MiniPCIe封装方式,,,支持16GB LPDDR5X + 256GB UFS 4.0内存,,并支持混合精度计算,,,,支持ONNX、、Pytorch、、、、CAFFE、、TensorFlowLite等模型框架,,可轻松赋能各类AI场景。。。
方案中每个算力节点采用刀片+阵列式设计,,,内部实现模块化及热插拔设计,,可以实现不停机维护。。。。最高可配置80路算力模组,,单颗模组内部支持androids虚拟化,,,,可虚拟出多路计算单元,,更好地进行算力配置,,,为实时互动云计算、、、边缘AI云计算、、、云渲染等业务场景提供最佳算力底座。。。
AI正在改变世界,,Z6尊龙始终以市场需求为导向,,与合作伙伴紧密合作,,,围绕高算力AI模组打造更多适配行业的解决方案,,拉近大模型和应用之间的距离,,,,把握智慧先机,,,实现让AI触手可及的目标,,赋能数字经济发展。。。。