I黑科技UCM9月正式开源EVO视讯真人华为发布A
记者了解到▪○=▪□,华为UCM已率先在中国银联▽▽=★“客户之声△◁○▼”★■□△◇★“营销策划==★”▪▪●“办公助手●•★==”三大业务场景中☆○,开展智慧金融AI推理加速应用试点•△,并已取得一定成果△▪☆。
使长序列场景下TPS(每秒处理Token数)提升2—22倍□■●,实现存算深度协同-◁◆•▷…I黑科技UCM9月正式开,降低每Token推理成本■★▼◁▲。同时融合多种稀疏注意力算法△▲▪•☆▽,另外…□,UCM可根据记忆热度在HBM•■•▷★-、DRAM-☆▷•△•EVO视讯智能监控摄像头,、SSD等存储介质中自动分级缓存○★▷●,
=▼•“AI时代后△○▼☆◆,Token经济时代到来△▷☆◆★,目前推理过程仍存不少挑战☆•,如何改进推理系统的体验和效率是一个重要的话题=▽-★…○。与中国银联合作落地UCM□-△,对于AI推理的效率来说是一个有效的突破○☆■☆☆■。-△”华为副总裁▽=、数据存储总裁周跃峰表示○★…△。
AI时代下▽△▪●▽★,推理技术关系用户与AI交互的体验▼▷◆,包括回答问题的时延▪•▽、答案的准确度以及复杂上下文的推理能力等▼◇▷,在此背景下★■-,华为最新推出AI推理黑科技UCM(推理记忆数据管理器)★◁◁•,可大幅降低推理时延与成本EVO视讯真人□○▽▼,并大幅提升推理效率•□☆▷△。
◆▪▪“为什么要开源★▲▼…▼,是希望行业内更多人(企业)一起推动推理框架•☆、标准的形成▪•★•□,这是一个大家共创标准▷☆、共同推动推理领域加速发展的过程-△•…。▽●◁”华为相关负责人表示■◆▼◇•□。
华为相关负责人表示◁◇▲○,当前…▷=,中国互联网企业在AI领域的投资规模仅为美国的十分之一••■●。与此同时●◁◆=▼-,国内大模型的推理体验与海外相比仍存在差距——而推理体验的不足会直接导致用户流失▲□,进而减缓企业的投资节奏▼☆◆★;投资收缩又会使企业难以承担高昂的推理成本…○★◁▪•,反过来进一步限制推理体验的提升◇▲◆□=◆,形成恶性循环▪★▪。UCM能够在算力基础设施投入保持不变的前提下○○……,显著优化推理体验◁▲☆●•,推动AI推理进入□•▼★“体验提升—用户增长—投资加大—技术迭代★◇”的商业正循环▼●-。
▪▲…“高延迟▼▷▽◆、高成本是当下AI推理领域发展的主要挑战▷▪▼◇■。…★◇=★”华为数字金融军团CEO曹冲在会上表示▽△。
在具体技术实现路径方面▷▼•…◇△,华为相关负责人表示▷☆•▷,UCM通过层级化自适应的全局前缀缓存技术●=▽◆-…,可实现任意物理位置◆▪★□、任意输入组合上的KV前缀缓存重用◇★◇,在多轮对话★▪▼、RAG知识检索等场景中直接调用KV缓存数据▲□●▷,避免重复计算▽◁▷,使首Token时延最大降低90%…☆=■源EVO视讯真人华为发布A。
随着AI应用向各类实际场景深度渗透◇-★-○▷,用户规模和请求量急剧攀升◆☆●△,模型分析和生成的Token数更呈现指数级增长态势•☆…◆◇,最大化单Token智能承载力■●•●=•、优化其成本成为厂商核心目标▷▪,Token经济时代来临-★□○◁▷,训练★○□●▲、推理效率与体验量纲都以Token为表征△○●。以火山引擎为例•=,2025年5月日均Token调用达16□▼○=…=.4万亿=◇☆▼,较2024年同期激增137倍=☆◇。巨大的Token处理量意味着高昂运营成本——服务器维护□■◆、电力消耗持续攀升■-◆■;而保障流畅推理体验又需加大算力投入•-▽◆。如何在两者间找到平衡■■,成为全行业亟待破解的难题▪◇=▲•。
据了解△▪◁★■□,目前•○,国外主流模型的单用户输出速度已进入200 Tokens/s区间(时延5ms)▷▷□,而我国普遍小于60 Tokens/s(时延50-100ms)=△◁▪■★,如何解决推理效率与用户体验的难题迫在眉睫☆=。
此外…◇○,UCM通过动态KV逐层卸载☆△==•、位置编码扩展▷▪、Prefill稀疏等组合技术▼◁◆★,将超长序列Cache分层卸载至外置专业存储•☆◁,利用算法突破模型和资源限制▪•▼▷▼,实现10倍级推理上下文窗口扩展=◁▷=■。
在此背景下▪•,华为计划于2025年9月正式开源UCM▲●◁=,届时将在魔擎社区首发▷▷●◆=,后续逐步贡献给业界主流推理引擎社区EVO视讯真人=★▽●,并共享给业内所有Share Everything(共享架构)存储厂商和生态伙伴EVO视讯真人△★▪-。
华为方面介绍☆•◆,作为一款以KV Cache为中心的推理加速套件△★■•△▼,UCM融合了多类型缓存加速算法工具■◁-…☆▷,分级管理推理过程中产生的KV Cache记忆数据●•,可扩大推理上下文窗口★…▷▪△▼,以实现高吞吐◆◇○○▽◆、低时延的推理体验☆▪,降低每Token推理成本◇△◆□。




