《2025大模型服务性能排行榜》发布,蓝耘元生代多项指标领航业界

来源:东方网    2025-09-16 10:56
来源: 东方网
2025-09-16 10:56 
分享
分享到
分享到微信

在2025年9月13日举办的 GOSIM 2025大会现场,清华大学与中国软件评测中心(CSTC)联合发布的《2025大模型服务性能排行榜》由清华大学计算机系高性能所翟季冬教授正式揭晓。据介绍,本次评测涵盖了20余家大模型服务商提供的数百个模型服务,围绕延迟、吞吐、可靠性等关键指标,对主流大模型服务提供商的性能表现展开全面评估。从这份权威评测报告来看,蓝耘元生代MaaS平台在多个维度展现出强劲实力,多个模型在延迟、吞吐等关键指标上位居行业前列,技术实力与服务性能得到充分验证。

在关乎用户体验的延迟指标上,蓝耘元生代表现亮眼:在DeepSeek-R1-0528、DeepSeek-V3.1、Kimi-K2-Instruct三款模型的延迟测试里,均跻身前三。其中,“DeepSeek-V3.1”模型首字延迟仅0.79秒,位列第一,超越七牛云、阿里云百炼、火山方舟等多家服务提供商,响应效率优势显著;更值得关注的是,其搭载的Qwen3-235B-A22B 模型以0.58秒的首字响应,斩获本次评测最佳延迟表现,领先于移动云、华为云,进一步印证其在大模型推理优化领域的领先水平。

与此同时,在模型吞吐性能维度,蓝耘元生代MaaS平台同样表现出色。在DeepSeek-R1-0528(44.20 Tokens/s)、DeepSeek-V3.1(63.54 Tokens/s)、Qwen3-235B-A22B(61.29 Tokens/s)模型的吞吐量测试中,均稳居前三,显示出其在高并发场景下优异的处理效能。

据了解,蓝耘元生代MaaS平台面向企业开发者、创业者及非技术用户提供开箱即用的热门AI模型服务,支持零代码便捷体验、API快速集成、私有化部署等多种使用方式,可满足不同用户在数据安全、特定应用场景方面的个性化需求。

随着大模型应用迈向深水区,“模型即服务”(MaaS)已成为众多开发者调用AI能力的首选途径,它不仅降低了模型使用门槛,更加速了AI技术的普惠化进程。在此背景下,蓝耘从底层算力支撑到 AI 模型应用,为企业开发者、创业者与科研机构提供高性能、低延迟、高可用的智算基础设施服务,其构建的开放兼容的元生代MaaS服务底座,正为大模型在复杂场景下的高效推理应用源源不断地提供着坚实有力的支撑。

免责声明:该文章系我网转载,旨在为读者提供更多新闻资讯。所涉内容不构成投资、消费建议,仅供读者参考。
【责任编辑:钟经文】
中国日报网版权说明:凡注明来源为“中国日报网:XXX(署名)”,除与中国日报网签署内容授权协议的网站外,其他任何网站或单位未经允许禁止转载、使用,违者必究。如需使用,请与010-84883777联系;凡本网注明“来源:XXX(非中国日报网)”的作品,均转载自其它媒体,目的在于传播更多信息,其他媒体如需转载,请与稿件来源方联系,如产生任何问题与本网无关。
版权保护:本网登载的内容(包括文字、图片、多媒体资讯等)版权属中国日报网(中报国际文化传媒(北京)有限公司)独家所有使用。 未经中国日报网事先协议授权,禁止转载使用。给中国日报网提意见:rx@chinadaily.com.cn