超集信息重磅亮相2025 青科会!硬核算力+案例实践,赋能图象图形学持续创新_新闻中心_苏州超集信息科技有限公司

400-860-6560

新闻中心 超集信息重磅亮相2025 青科会!硬核算力+案例实践,赋能图象图形学持续创新
超集信息重磅亮相2025 青科会!硬核算力+案例实践,赋能图象图形学持续创新
2025.09.24
2025年9月19日,由中国图象图形学学会主办,中国海洋大学、山东大学、中国图象图形学学会青年工作委员会联合承办的第二十一届中国图象图形学学会青年科学家会议于山东青岛盛大开幕。会议聚焦图象图形领域前沿和热点,涵盖重要的研究领域和研究方向,各类高水平报告将超过200场,是一场精彩纷呈的学术盛宴。
作为全球领先的算力解决方案提供商,超集信息(AMAX)受邀出席此次大会,带来从桌面研发到数据中心级训练的前沿算力解决方案展示与分享,得到大会主席董军辉、委员会主席郭宗辉的高度认可,为图象图形学研究与应用注入新动能。


算力设施建设

超集信息基于海量项目实践经验,探索出CV领域通用需求,并以液冷工作站系列解决方案针对性破局——算力稳定、高效静音、便捷部署。同时,平台x86与国产"芯"双轮驱动,全面拥抱国产化

超集信息重磅亮相2025 青科会!硬核算力+案例实践,赋能图象图形学持续创新(图1)

· 30℃环温12H压测,CPU低于80℃,GPU低于77℃,较风冷降温20%


· 3000W功耗下,待机噪音约45dB,满载噪音约55dB,较风冷降噪15%


· 水箱、水泵、冷排等组件一体式集成,开箱即用

· 全面兼容m-ATX/ATX/E-ATX/15" x 13"等主流尺寸主板,为用户提供更多样化选型

· 无缝适配X86ARM两大主流架构平台,深度优化飞腾、海光、昇腾等国产高性能计算平台支持

· 高效兼容GPU、NPUDPU多种类型加速卡,显著提升特定负载处理效能


算力平台建设


除了基础算力设施建设,在AI的实际研发中,大量用户饱受"部署难、对接难、利用率低"的三大顽疾困扰。基于此,超集信息推出了PlatforMax智算融合平台,能够实现异构资源的高效管理、调度和监控,提供人工智能模型开发、模型训练到部署的完整功能,降低开发和应用成本,提高AI领域的研发和生产效率。


✅ 智能环境配置引擎


▷ 预置ollama、vllm、ktransformers等推理引擎矩阵,满足不同环境(验证环境、生产环境)和资源配置(单卡、单机多卡、多机多卡)下的部署需求。


▷ 硬件兼容性自检系统,实现从驱动层到应用层的全栈验证。


✅ 生态级应用对接中枢


▷ 原生兼容RagFlow、Dify、FastGPT等开发平台,构建模型微调→知识库构建→应用开发闭环。


▷ 即将上线GUI多机部署向导,快速部署多机并行Deepseek、千问等大模型。


✅ 资源使用深度优化


▷ 算力池化技术实现资源的集中管理、分配,用户根据实际需求快捷申请资源配额。


▷ 以作业方式实现计算资源的动态分配及回收,整体算力利用率实现30%以上提升。

超集信息重磅亮相2025 青科会!硬核算力+案例实践,赋能图象图形学持续创新(图2)

实践落地案例

超集信息拥有46年IT整体解决方案经验,300+大型项目实施经验和150,000+(小时)技术支持时长,已服务于全球 1000 余家客户,覆盖100多个国家地区,横跨科研、金融、智驾、医疗、智能制造等众多领域。大会现场,超集信息与高校、科研机构在图象图形领域的合作案例成为焦点。

清华大学

多模态分析

客户痛点

1、CLIP+LLM 联合训练,单卡80 GB显存仍报OOM——因为4亿图文对embedding需同时驻留。

2、文本最大长度4k tokens,batch=8时峰值显存>94 GB,GPU崩溃成家常便饭。

3、多机并行采用NCCL AllReduce,万兆以太网延迟200 μs,梯度同步慢,GPU利用率掉到45%。

根源问题

"大模型+大数据"对显存容量与跨机带宽同时提出线性以上需求,传统PCIe互联&以太网成为瓶颈。

超集方案

· 内存统一:通过采用更大的一致性内存,embedding表自动溢出到CPU侧,GPU逻辑显存进一步扩展,OOM彻底解决。

· 计算-通信重叠:NVLink Switch支撑下,AllReduce延迟<5 μs,梯度传输与反向计算overlap,GPU利用率回升到92%。

· 编译优化:使用NVIDIA Transformer Engine,FP8精度训练,显存占用再降 50%,吞吐量提升2.4 倍,3天完成原先10天的CLIP大模型预训练。


浙江大学

病理精准检测

客户痛点

1、千兆像素病理切片单文件>3 GB,传统单机无法全片加载,只能分块(patch)推理,细胞级小目标跨patch被切割,漏检率15%。

2、分块后I/O风暴:4×GPU同时读取,NAS带宽打满40 Gbps,patch排队加载,GPU空转60%时间。

3、H&E染色差异大,需在线Stain Normalization,计算密集,单卡处理一张WSI 需3小时。

根源问题

"超大图像+小目标+染色差异"三重挑战,显存容量、I/O 带宽、计算并发缺一不可。

超集方案

· 大显存+统一内存:48GB GPU×4,NVLink 112 GB/s,整张WSI一次载入显存,取消patch切分,漏检率降至0.8%。

· GPU-Direct Storage:绕过CPU,3 GB切片6秒直达显存,I/O 等待缩短80%,GPU利用率提升至94%。

· Stain Norm CUDA Kernel 硬化:在线染色归一化<30 ms/视野,配合FP16推理,单 WSI 全流程30分钟完成,1 小时内拿到 AI 初筛结果,复核工作量减半。

三天会期、二百余场高水平报告、千余名青年学者与产业精英的密集碰撞,让"智能、绿色、开放"成为图象图形领域新的关键词。思想的火花已点燃创新的引擎,未来,超集信息将继续与学会、高校及科研机构并肩前行,以可持续算力助推中国图象图形学科攀登下一座高峰。

生态合作
生态合作
全面服务伙伴
电话咨询
电话咨询
7*24 小时热线服务
提交项目需求
提交项目需求
8 小时内方案呈现
服务与保修
服务与保修
4 小时内技术响应