******医院建设项目,现向社会征集方案。方案报名时间:2025年7月24日至2025年7月31日截止。
序号 |
名称 |
参数 |
单位 |
数量 |
1 |
AI服务器 |
▲1.配置不低于4颗国产通用计算处理器,单颗CPU主频 ≥ 2.6GHz,核数≥48核; |
台 |
1 |
2.智能卡数量:8个智能模组 |
||||
3.内存:≥32*32G DDR4内存条,槽位数≥32个槽位 |
||||
4.硬盘:≥2块2.5寸480GB SSD硬盘,≥2块2.5寸1.92TB SSD硬盘,硬盘槽位数≥8个2.5寸槽位 |
||||
5.网络接口:≥4个千兆自适应网口,≥4*25G光接口, ≥8*200GE RoCE v2高速接口(带光模块) |
||||
6.USB接口:前面板提供≥2个USB 3.0端口;后面板提供≥2个USB 3.0端口 |
||||
7.VGA接口:前面板提供≥1个VGA端口;后面板提供≥1个VGA端口 |
||||
8.其他接口:≥1个RJ45管理网口,≥1个RJ45调试串口 |
||||
9.供电方式:100-240VAC,50/60Hz,10-5.5A |
||||
10.电源冗余:≥4个热插拔2.6 kW电源模块,支持2+2冗余 |
||||
11.标准19英寸机架式安装,带安装导轨 |
||||
▲12.采用国产AI服务器,单台AI服务器占用不超过4U机柜空间并单台提供不低于4.4 POPS INT8、2.2 PFLOPS FP16、0.6 PFLOPS FP32 算力。 |
||||
▲13.单颗AI处理器FP16算力 ≥ 280TFLOPS,FP32算力 ≥ 75TFLOPS |
||||
▲14.单颗AI处理器提供不低于64GB HBM,速度不低于1600GB/S |
||||
15.支持AI处理器直出200G 网口 |
||||
▲16.AI处理器间支持fullmesh全互联 |
||||
▲17.AI处理器间互联带宽最大不低于392GB/s |
||||
★18.CPU、AI处理器使用同厂家国产自研芯片,提供自研厂商原厂授权函,并加盖厂商公章。 |
||||
2 |
管理服务器 |
★处理器:配置2颗国产化ARM架构处理器,单颗核心数48Core,主频2.6GHz; |
台 |
1 |
内存:容量512GB,采用ECC DDR4 RDIMM内存,单根内存条容量32GB,内存条数量≥16根; |
||||
2U机架式服务器,8*2.5英寸硬盘机箱,含导轨; |
||||
网络:配置≥1张4端口25GE光口网卡(满配10GE光模块),配置≥4个千兆电口; |
||||
硬盘:系统盘2*480GB SATA SSD硬盘,数据盘2*3840GB SATA SSD硬盘; |
||||
配置磁盘阵列卡,支持RAID0/1/10/6/5/50/60,配置超级电容; |
||||
★AI加速卡:配置2张国产全高全长PCIe算力卡,单卡AI算力提供280TOPS INT8,140TFLOPS FP16,支持16core*1.9GHz CPU计算能力; |
||||
电源:配置2块2000W电源模块,电源模块支持热插拔,1+1冗余备份; |
||||
CPU、AI处理器使用同厂家国产自研芯片,提供自研厂商原厂授权函,并加盖厂商公章或投标专用章。 |
||||
3 |
算力调度管理平台 |
▲支持覆盖多个主流开源模型;模型类型至少覆盖LLM、Embedding、Rerank等;支持模糊与精确搜索,支持按模型类型、上下文长度、语言、支持芯片、模型供应商等多维筛选;支持查看并切换不同权重参数版本 |
套 |
1 |
▲支持用户在部署模型时按需选择推理引擎(如MindIE、vLLM、Transformers等)、模型版本、部署卡资源(如GPU/NPU序号)、模型权重地址等参数;支持灵活切换与重部署 |
||||
▲支持用户根据实际情况输入模型名称、描述、上下文长度、语言、属性(如LLM/Embedding/Rerank)、Family、格式(如Pytorch、GGML、GGUF等)、路径、参数量等字段,完成模型注册与平台接入 |
||||
支持对已部署模型服务实例进行多副本的弹性扩缩容操作,保障推理服务的性能稳定和资源负载均衡;多副本对外统一暴露同一API地址;具备高可用和灾备能力 |
||||
支持用户便捷获取已部署模型实例的调用信息,包括 base_url、model_id、api_key 等字段;信息可用于外部应用系统集成 |
||||
支持在训练设备上对大模型执行多种类型的微调训练操作,至少支持全量微调(Full)、参数冻结微调(Freeze)、低秩适配微调(LoRA)等方式 |
||||
支持用户在平台上对多个已部署模型进行同时体验与结果对比;支持统一输入、多模型输出并列展示 |
||||
支持实时展示运行中模型实例的GPU数量、实时处理tokens数、GPU使用率、输入输出tokens数及其趋势图;支持图形化界面展示与资源使用情况 |
||||
支持实时记录并存储平台各用户操作日志,包括登录登出、模型部署、列表查看等,,便于审计和问题追踪 |
||||
支持基于功能模块的细粒度权限配置,允许灵活创建不同角色,支持勾选或取消各模块权限,确保用户访问安全与操作合规 |
||||
支持为不同用户分配独立的GPU资源配额,保障资源按需分配与隔离,避免资源争用与干扰 |
||||
平台支持运行在ARM和x86架构CPU上,兼容多种异构算力混合部署,支持昇腾、天数、沐曦、NVIDIA等主流AI芯片及加速卡 |
||||
支持从源服务器到目标服务器快速无缝同步,确保模型服务的配置、接口、参数与源服务器完全一致,无差异 |
||||
4 |
集中式存储 |
▲所投存储产品使用成熟稳定的国产品牌自主研发CPU(如鲲鹏、飞腾、申威),并且CPU通过国家保密科技测评中心最新的安全可靠测评,提供投标产品使用CPU型号、主频等证明材料以及中国信息安全测评中心官网安全可靠测评结果截图并加盖公章。 |
1 |
台 |
▲存储系统采用对称AA架构,LUN无控制器归属,在多控配置下,能够负载到所有控制器,CPU利用率差异小于5%。 |
||||
采用2U盘控一体架构,节省空间,2U控制框可以支持 ≥36个盘 |
||||
SAN和NAS一体化,配置NAS协议(包括NFS、CIFS以及NDMP),支持SAN和NAS共资源池,无需独立分配。 |
||||
▲存储系统支持 SAN 和 NAS 免网关一体化Active-Active 双活,实现两套核心存储数据双活(对单个 LUN 和单个文件系统的访问可通过两个站点负载均衡到两套存储设备上),任何一套设备宕机均不影响上层业务系统运行。双活架构需要具备独立的第三方仲裁设备。仲裁设备故障时,不影响业运行;支持双仲裁模式,单台仲裁设备故障,不影响正常双活业务。一个站点发生故障后,另一个站点可自动快速拉起业务(秒级);一个站点故障恢复后,业务可自动回切,并自动负载均衡。支持双活文件系统在线扩容和缩容,容量修改在单端完成,自动同步到对端,对双活状态无任何影响。支持双活 LUN 在线扩容,容量修改在单端完成,自动同步到对端,对双活状态无任何影响。 |
||||
支持控制器扩展,最大支持≥8控;可以跨控制器实现资源访问,LUN可以跨引擎, 自动负载均衡。 |
||||
前端采用基于FC或者RDMA的NVMe协议,后端支持基于RDMA或者PCIE的NVMe协议,支持端到端NVMe架构。 |
||||
▲存储系统支持无中断系统软件在线升级和回退。在版本升级和回退的过程中无需重启控制器,主机与存储之间的链路无中断,客户端无感知,升级时长小于 10 分钟。 |
||||
▲配置2个控制器,控制器采用多核处理器,且双控制器处理器总核心数≥64核,CPU主频为 2.6GHz。 |
||||
▲系统内总一级缓存容量配置≥1TB,且任意控制器一级缓存容量≥512GB。 |
||||
支持配置16/32/64G FC,10/25/40/100 GE,2张2端口 40Gb ETH 网卡(含单模光模块)。 |
||||
配置后端磁盘通道带宽≥192Gbps。 |
||||
支持企业级NVMe 双端口 TLC SSD、SAS TLC SSD,SAS,NL-SAS等硬盘。 |
||||
配置≥20个3.84TB企业级双端口NVMe TLC SSD硬盘,配置24个14TB NL-SAS硬盘. |
||||
最大支持磁盘插槽个数≥1500 |
||||
▲支持RAID-TP,非双活存储系统支持RAID(非镜像冗余RAID)三盘同时故障。任意三块成员盘同时故障,不影响SAN和NAS业务的连续性和数据一致性。 |
||||
▲存储系统配置快照功能 |
||||
支持硬盘、电源模块、接口不停机热插拔。 |
||||
▲三年原厂存储运维保障服务,提供原厂售后服务承诺函盖鲜章原件和授权书盖鲜章原件;设备生产商需在国内设有400技术服务热线。 |
||||
5 |
AI交换机 |
▲1.CPU和转发芯片均为国产化芯片 |
台 |
1 |
▲2.交换容量≥25.6Tbps |
||||
▲3.包转发率≥8000Mpps |
||||
▲4.支持400GE QSFP-DD光接口≥32个(兼容200GE/100GE/40GE),10GE光接口≥2个 |
||||
5.高度≤1U,固定接口交换机 |
||||
6.电源模块槽位≥2个,电源1+1备份 |
||||
7.风扇模块槽位≥6个 |
||||
8.支持M-LAG或vPC或DRNI等跨机箱链路捆绑技术 |
||||
9.支持网络级负载均衡(NSLB)功能 |
||||
10.支持RDMA,RoCEv2,DCB |
||||
11.支持数据面故障快速自愈DPFR |
||||
▲12.支持MacSec国密算法 |
||||
13.支持AI ECN |
||||
14.支持Netstream满足10GE 1:1采样 |
||||
15.支持ERSPAN增强 |
||||
16.实配双电源,8个400GE QSFP-DD多模光模块 |
||||
6 |
AI计算规划设计与实施服务(推理) |
1.机房机柜Layout设计:机柜平面位置布局,以及服务器在机柜的位置布局 |
项 |
1 |
2.软件技术栈:解决方案版本配套表,需要部署的软件名称及版本、软件包下载路径、安装指南的获取途径,包含自研和开源,商用软件的license申请方法,软件部署方案设计,服务器基础配置设计 |
||||
▲3.组网设计:组网逻辑拓扑,服务器网络端口面板布局图及设备连线表,接入和汇聚交换机端口面板布局图及设备连线表,网络IP地址规划 |
||||
▲4.根据HLD、LLD设计进行软件部署,确保服务器的正确部署,包含如下内容: |
||||
1)参照整体项目交付计划,调整、细化实施计划,并进行人员分派、和工作进度安排等。 |
||||
2)OS安装、网卡驱动安装、环境依赖安装、PU驱动、固件安装等 |
||||
3)安装后系统检查,服务验证,性能检查,系统健康检查等 |
||||
7 |
AI计算使能服务(推理场景) |
★1.依托于全栈AI软硬件平台,为客户提供相关的使用支持服务, AI计算使能服务提供了开发环境构建支持和模型开发调测支持服务内容。旨在提升开发效率、降低开发门槛,处理客户在开发中遇到的技术问题。一年内提供不超过30人/天的现场服务支持。 |
项 |
1 |
2.根据客户的具体模型需求,结合产品形态,输出模型运行环境的安装部署方案,制作与推送容器镜像;支持客户使用IDE连接算力资源,搭建代码开发、调试环境。单次服务支持的算力节点数量不超过32台。 |
||||
3.提供工程师现场/远程支持解答客户在开发使用过程中的技术问题。具体包含以下内容: |
||||
l)AI计算框架使能 |
||||
提供AI计算框架如MindSpore的API使用指导,处理客户在使用框架过程中的技术问题。 |
||||
支持客户使用AI计算框架如PyTorch,提供客户在使用框架过程中的问题定位支持。 |
||||
2)异构计算架构使能 |
||||
提供异构计算架构如CANN的API使用指导,处理客户在使用异构计算架构过程中的技术问题。 |
||||
3)异构大模型加速库使能 |
||||
提供加速库如MindFormers、MindSpeed的调用指导,处理客户在调用加速库过程中的技术问题。 |
||||
支持客户基于平台使用加速库如DeepSpeed、Transformers、Accelerate,提供客户在使用过程中的问题定位支持。 |
||||
4)工具链使用支持 |
||||
提供工具链的使用指导,基于用户具体场景化需求,提供工具链使用过程中的技术支持服务。 |
||||
服务输出:《AI计算使能服务-技术支持周报及重点问题跟踪表》。 |
三、资料清单:
需提交材料:项目方案及报价、公司资质材料、同类型合同、联系人、联系方式(均需加盖公章、邮件命名为项目名称+公司名称)。
报名联系方式:
联系人:李彦霄 邮箱地址:******
******医院
2025年7月24日
【1】凡本网注明来源:"今日招标网"的所有文字、图片和音视频稿件,版权均属于今日招标网,转载请必须注明机今日招标网,违反者本网将追究相关法律责任。
【2】本网转载并注明自其它来源的作品,是本着为读者传递更多信息之目的,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品来源,并自负版权等法律责任。
【3】如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系。