央广网北京1月31日消息(记者 殷雨婷)随着大模型应用从“能不能用”迈入“如何长期、稳定、规模化运行”的新阶段,模型API服务的真实表现、稳定性与调用效率正成为产业关注的核心议题。
1月29日,清程极智主办的清程AI Ping产品发布活动在北京举行。本次发布会汇聚来自政府部门、科研机构、云服务平台、大模型服务商及应用企业的多方代表,围绕大模型 API 服务的评测体系、工程化使用与生态协同展开交流。
作为海淀区科技创新体系的重要组成部分,中关村科学城管委会始终高度关注人工智能技术的产业化发展进程。中关村科学城管理委员会产业促进一处处长李楠在发布会上表示,海淀区作为北京国际科技创新中心核心区、人工智能第一城的策源地,始终瞄准实现高水平科技自立自强,当前正在加快构建符合首都功能定位、彰显海淀特色的“1+X+1”现代化产业体系,其中第一个“1”就是建设人工智能产业高地。
李楠强调,中关村科学城管委会始终支持企业围绕产业共性需求开展协同探索,通过更加开放的合作模式,让核心技术在更大范围内实现复用与验证,推动模型应用更好的实现价值释放,海淀区将一如既往为各类创新主体快速发展保驾护航。
清华大学教授郑纬民在发布会上指出,当前人工智能基础设施的核心任务正在发生变化。过去,AI Infra主要服务于大模型的训练与推理,解决“如何生产智能”的问题;随着模型生态不断丰富和智能体广泛应用,行业正在进入以“智能流通”为核心的新阶段,更加关注模型能力如何在真实业务中高效、稳定地被使用。
他表示,实现智能流通的关键在于智能路由能力建设,其中既包括在多模型环境下为不同任务选择最合适模型的“模型路由”,也包括在同一模型的多种API服务提供者之间进行性能与成本优化调度的“服务路由”。两类路由能力协同发展,将形成完整的AI任务分发网络,决定人工智能系统的最终效率和使用成本。
清程极智CEO汤雄超完整地介绍了清程极智的企业定位和产品布局,他表示,从大模型训练与微调,到推理部署的高性价比实现,再到应用阶段对服务稳定性和使用效率的更高要求,AI Infra的关注重点正在不断演进。他介绍,清程极智长期围绕大模型训练、推理和应用三类核心场景开展技术实践,先后推出八卦炉训练系统和赤兔推理引擎,支撑模型在多种算力环境下的高效训练与部署。随着AI应用和智能体快速发展,模型能力如何在真实业务中高效流通成为新的关键问题。基于这一背景,清程极智推出AI Ping,一站式AI评测与API服务智能路由平台,完善大模型应用阶段的基础设施能力。
在随后的产品发布环节,清程极智联合创始人,AI Ping产品负责人师天麾对AI Ping平台进行了系统地介绍。AI Ping聚焦大模型服务使用环节,围绕模型服务评测、统一接入与智能路由等核心能力,构建起覆盖“评测—接入—路由—优化”的完整链路。平台以真实业务场景为导向,对不同厂商、不同模型API的延迟、稳定性、吞吐与性价比等关键指标进行长期、持续观测。
据介绍,目前AI Ping已覆盖30余家中国大模型API服务商 ,在统一标准与方法论下对模型服务能力进行对比分析,为企业在复杂的模型与服务选择中提供更加理性的决策参考。
现场,清程极智联合了20余家大模型API服务商,共同启动《智能、可持续大模型API服务生态计划》。该计划未来将围绕模型服务能力评估、评测方法论建设、行业交流与成果发布等方向持续推进,推动模型API服务从“可用”向“好用、易用、高性价比”演进。
随着大模型API服务在政务、金融、工业与消费等多元场景中加速落地,行业内已涌现出一批具有代表性的实践案例。为推广行业优秀经验、进一步提升模型API服务能力,在中国计算机行业协会人工智能产业工作委员会的指导下,清程极智作为智算集群工作组副组长单位,联合工作组成员,基于 AI Ping 的评测能力,持续推进大模型API服务实践案例的梳理与总结。
活动现场,人工智能工委会智算集群工作组同步带来《2025 大模型API服务能力》实践案例分享,并由工作组组长、燧原科技首席公共事务官蒋燕现场发布相关成果,中国电子信息产业发展研究院软件与集成电路评测中心副主任翟艳芬、中国计算机行业协会人工智能产业工作委员会秘书长高宏玲进行授牌,该实践案例围绕模型能力演进、推理性能、交互体验、接口性价比等关键维度,集中呈现了大模型 API 服务在真实业务场景中的实践成果。
当天,清程极智还与华清普智AI孵化器(T-ONE Innovation Lab)联合发布了《2025 大模型API服务行业分析报告》。该报告基于AI Ping平台2025年第四季度的真实调用数据与持续性能监测结果,从模型、服务商与应用场景三个维度,对当前大模型API服务的供给结构与使用特征进行了系统分析。
随着AI Ping平台的正式发布及生态计划的启动,模型API服务这一长期处于“幕后”的关键环节正逐步走向台前。汤雄超表示,未来将通过持续的评测实践与开放协作,推动大模型服务向更加稳定、透明和可持续的方向发展,为人工智能在真实业务场景中的规模化落地提供支撑。