产品咨询及市场合作 400-860-6560
快速筛选产品
智能制造官网
  • 解决方案 +
    • AI 解决方案
    • HPC解决方案
    • 超融合一体机
    • 存储解决方案
    • 液冷解决方案
    • 服务器定制解决方案
  • 产品中心 +
    • 服务器-智慧计算
    • 集群管理软件
    • 深度学习平台
    • 智能制造业务
  • 技术支持 +
    • GPU 深度学习性能
    • 远程测试申请
    • 服务与保修
    • 技术文档
    • FAQs
  • 关于超集 +
    • 公司介绍
    • 新闻中心
    • 资质荣誉
    • 生态合作
    • 联系我们
首页 技术支持 FAQs
  • 液冷相比风冷,有什么本质的区别?

    液冷与风冷皆是服务器/工作站等设备采用的散热模式,依靠液体和空气各自的导热能力,结合热对流,热传导等原理将热量及时排出设备,让设备工作在安全温度范围内。 风冷散热是利用持续的低温空气,通过风扇将低温空气吸进机箱内,吹过发热器件,变成高温空气后,再由风扇将高温空气排出机箱,整体是以空气为介质进行散热。 液冷散热以冷却液为介质进行散热,经过泵的驱动,使中温冷却液流经发热器件并形成循环,实现热交换,从而保证设备处于稳定的工作温度。 液冷散热相较风冷散热具备更佳的能耗比、稳定性,亦可实现设备噪音值的大幅降低。

  • 超集信息的液冷工作站有什么优势?

    超集信息液冷工作站秉持独立自主研发的理念,产品构思、结构设计、仿真模拟、产品生产等均为超集信息独立完成。 超集信息的液冷工作站的优势可以总结为:“简”、“静”、“稳”。 “简”:流量监控系统、温度监控系统、液冷部件快速插拔不漏液、快速补液口、售后简便,维护简便; “静”:可搭载1-7张GPU,满负载整机噪音低于55dB,具备非常良好的使用体验; “稳”:液冷关键部件采用工业级材料,冷板更是基于自主专利技术的金属焊接工艺,兼具良好的散热效果与液冷系统的高稳定性。

  • 超集信息液冷产品及其产品特色有哪些?

    超集信息的液冷产品在形态上分为三类,液冷工作站、液冷服务器、液冷工控设备,可满足从边缘到云端的用户需求。 液冷工作站 支持Intel Xeon或AMD EPYC ,支持1-7片GPU,配置灵活,按需选择。整机采用喷砂+阳极氧化,高耐受性;工业级材质、金属焊接工艺,杜绝漏液风险;铝制快接头,快速插拔不漏液,方便运维;流量监控系统、温度监控系统、水位监测、漏液监测等,保障液冷系统稳定运行。 液冷服务器 支持Intel Xeon或AMD EPYC,支持1-8片GPU,配置灵活,按需选择。整机采用工业级材质,金属焊接密封冷板,提升散热性能的同时,轻薄可靠,高效节能;软管连接,保证流速及散热效果,避免硬质水管应力断裂风险;环温25 ℃条件下,CPU核温低于69 ℃,GPU核温低于73℃,稳定可靠;使用模式上,可选分体式搭配CDU使用,也可选择封闭式,无需借助外部散热设备,直接上架使用。 液冷工控设备 外观小巧精致,支持双路第三代Intel Xeon处理器、1TB内存、2片GPU、2片PCIe扩展卡。整机采用工业级材质,宽温工业级内存、SSD,40℃下仍可保持稳定运行;关键部件特殊加固,顽强应对复杂严苛外部环境;满负荷整机噪声低于50dB,高效静音,可应用于新能源车、基站等场景。

  • 液冷产品的选型,需要注意哪些内容?

    液冷产品选型主要包含以下四个方面: 使用环境 液冷工作站:低于55dB的噪音,单双路CPU+1-7片GPU+若干HDD/SSD的配置,单机具备较高的算力与存储能力,适用办公室、实验室等环境,大力辅助科研教学任务; 液冷服务器:可以实现单机、单柜、多柜等模式,单机配置支持单双路CPU+1-8片GPU,适合数据中心环境使用,构建液冷数据中心; 液冷工控设备:具备小巧的体积,噪音低于50dB,适合空间狭小的场所,例如新能源车和基站等,工控设备具备耐高温、抗振动特性,具备较高的耐受性,可满足环境相对恶劣的场景。 产品配置 液冷产品的配置范围要求相较风冷产品更加严格,包括CPU、GPU等部件的选型有一定限制,如有特殊的配置要求,可能涉及定制。 使用要求 要实现理想的运行效果,液冷产品的运行环境也有着一定的限制,比如液冷工作站需要放置于30℃以内的环境,且尽量规避搬动和振动,同时液冷工作站也需要定期观察水位情况并及时补液;液冷服务器分单机、单柜、整柜的使用模式,不同的使用模式不仅需要额外的设备,更可能会涉及到机房改造等;液冷工控设备其耐受度高,但是环温需要低于40℃,同时保证空气相对清洁并且做好减震和固定。 预算 液冷产品的价格相比风冷略高,充足的预算可以保证液冷产品配置以及产品功能的完备。

  • 我们是设计院单位,主要应用的软件有Navisworks Manage 2020三维看图软件,泰克拉-钢结构三维建模、PS-图形处理、SU-建筑效果图三维建模、lumion-效果图渲染。因为数据资产管理需求,所有的设计资料统一管理。请问有什么方案,可以帮我们解决这个问题。

    你的问题可以部署我们的 AI Max vGPU平台,可以完全解决这类问题的困扰。 1,泰克拉是一款专门为钢结构专业运用的BIM软件,它是通过先创建三维模型以后自动生成钢结构详图和各种报表来达到方便视图的功能。虚拟机: 配置建议 CPU 8核心以上,内存32GB以上。独立显存 6GB 以上,480GB SSD 固态硬盘。 2,Lumion 是一款功能强大的 3D 渲染程序,可为您的设计创建细节丰富且逼真的视觉效果。虚拟机: 配置建议 CPU 8核心以上,内存32GB以上。独立显存 8GB 以上,480GB SSD 固态硬盘。 3,PS-图形处理、SU-建筑效果图三维建模软件,用于土木工程、建筑设计、工程管理、市政工程等建筑类。虚拟机: 配置建议 CPU 4核心以上,内存16GB以上。独立显存 4GB 以上,480GB SSD 固态硬盘。 4,Navisworks Manage 是设计和施工管理专业人员使用的一款全面审阅解决方案,审阅详细的三维设计模型。虚拟机:配置建议CPU 4核心以上,内存8GB以上。独立显存 4GB 以上,480GB SSD 固态硬盘。 AI Max vGPU平台支持应用和功能包括:防止数据泄密和失窃丢失与损坏。提升桌面系统安全,控制用户的访问能力。提升桌面系统安全降低硬件风险。

  • 我们实验室目前在做科研工作中,发现GPU 设备资源管理困难。经常出现多进程、多人员、多任务复用同一GPU资源的情况。GPU资源快速申请、回收困难。有出现用户高峰使用时算力资源不足和低谷时,设备资源空闲的情况,请问有什么方法可以解决这个问题?

    通过部署我们的 AI Max 管理软件平台,可以完全解决这类问题的困扰。 1,AI Max 平台管理软件支持按任务需求分配和自动释放资源,也支持按照CPU、Memory、GPU使用情况动态调度资源,保证任务最优分布,最大化提高资源使用效率。计算任务提交后,按照需求动态分配资源,限制任务无法超额使用资源,保证资源分配的公平性;支持任务排队机制,任务运行完毕后自动释放资源,队列中任务自动运行。 2,按用户需求定义不同的优先级,系统按照从高到低顺序进行任务调度,同时支持对队列中任务的优先级调整和插队,满足紧急任务的使用需求。根据GPU卡的算力,支持对GPU卡进行细粒度的切分;多个任务共享同一张GPU卡,充分提高GPU卡使用效率,提高任务密度和吞吐量

  • 目前我们使用的是第一性原理的VASP,软件版本是VASP5.4.4,主要是CPU计算,今年想换成GPU计算,提高算力,你们有没有好的GPU服务器推荐?

    VASP5.4.4可以支持GPU,采用GPU计算需要重新编译makefile文件,编译成功后即可编译 VASP 的 GPU 端口。服务器如果放在办公室,我们推荐ServMAX®TL40-X3,采用全液冷设计,适合办公室使用。硬件方面CPU推荐采用2颗Gold 6346 处理器(16核心/3.1G主频),内存512G DDR4,硬盘推荐960G 固态硬盘及1块8T 机械硬盘,GPU为4张NVIDIA A800,如果安放在机房环境中,我们推荐G404-X3,硬件方面CPU推荐采用2颗Gold 6346 处理器(16核心/3.1G主频),内存512G DDR4,硬盘推荐960G 固态硬盘及1块8T 机械硬盘,GPU为4张NVIDIA A800

  • 我们软件用的是Gaussian 16R A.03 WIN 64, VERSION 1.1 单用户版,目前用的是win10 64位版,你们有没有好的GPU方案推荐?

    目前我司最新的GPU是NVIDIA A800, 如果需要支持你需要先将高斯更新至Revision C.02,如果不升级只能使用老版本的GPU,性能与性价比都将降低,我们不推荐。 针对于最新版本的GPU服务器,我们推荐ServMAX® TL40-X3,采用全液冷设计,适合办公室使用,硬件方面CPU推荐采用2颗8358 处理器(32核心/2.6G主频),内存256G DDR4,硬盘推荐960G 固态硬盘及1块4T 机械硬盘,GPU为4张NVIDIA A800。

  • 同样是深度学习图像训练,在人脸识别和地理图像识别训练以及推理中,超集提供的方案有何不同?

    若都需要做数据预处理,需要搭配高主频的预处理服务器;在涉及到多用户使用时需要更大的CPU内核;在具体训练过程中,人脸图像在清晰度以及图像文件大小等多方面要求都不及地理图像;相对的在针对地理图像的用户时,需要提供更大的计算内存,更高显存计算卡,甚至需要用到GPU的仿真计算性能。所以,同样是图像训练不同的应用类型对于计算卡以及内存和CPU的要求也不可一概而论。

  • 我们在做模型训练过程中,经常出现GPU利用率不高的情况,针对这样的情况有什么提升计算效率的推荐?

    模型训练是一个整体的计算过程,不仅仅只是GPU计算的过程,其中涉及到数据集读取,数据处理,模型训练以及训练数据存储等过程。涉及到的硬件包含了GPU服务器的整体。建议查看例如CPU,内存,硬盘等使用情况,查看是否存在大量预处理任务或者数据读取过慢的情况。还可以查看batch size ,DataLoader等数值,优化GPU处理的数据量。

  • 1
  • 2
  • »
  • 400-860-6560
  • QQ咨询
  • 在线留言
  • 主要方案▼
    AI解决方案 HPC解决方案 存储解决方案服务器定制解决方案
  • 主推产品▼
    服务器-智慧计算 产品中心 集群管理软件 深度学习平台
  • 技术支持▼
    远程测试申请 技术文档 合作伙伴服务与保修
  • 关于AMAX ▼
    公司介绍 联系我们 资质荣誉 新闻中心
AMAX全球网址
400-860-6560
  • AMAX 官方淘宝
Copyright© 2000 - 2023 版权所有 苏州超集信息科技有限公司 苏 ICP 备 11056665 号-2 隐私条款 使用条款