在UEFI方式下,使用网卡对高密度服务器上的OS进行升级时,设备设置里突然找不到网卡了怎么办?本文依托戴尔易安信PowerEdge C6420,以Linux操作系统为例,实际演示了遇到此种状况该如何解决,供相关人员参考。
一背景:
某客户在去年购买了戴尔易安信的高密度服务器PowerEdge C6420,此双路服务器在一个超高密度的2U机箱中提供多达4台独立热插拔,具备充足的计算、内存、存储、连接和机箱选项,配置灵活,在I/O方面支持OCP标准的25G网卡,可以满足客户高带宽、低延迟的需求。
春节过后,客户要升级OS,启用UEFI方式安装。在启用UEFI的过程中,遇到了一个问题:
Device Settings中看不到Mellanox 25G网卡▼
这下真是巧夫难为无米之炊了,要利用网卡进行服务器OS升级,结果却找不到对网卡操作的选项,很多人面对这种情形就进行不下去了。不过别着急,都是有解决办法滴,请查收下面这套有图有字的详细攻略。
二解决方法(以Linux操作系统为例)
① 从Mellanox官网下载MFT工具:
http://www.mellanox.com/page/management_tools
② 选择Linux版本的RPM包▼:
③ 完成下载后,将其拷贝到Linux中,并进行解压:
tar zxvf mft-4.11.0-103-x86_64-rpm.tgz
④ 然后开始安装MFT工具▼
⑤ 安装完成后,启用MFT工具▼
mst start
⑥ 获取device ID▼
mst status
设备名固定为【mt4117_pciconf0】
⑦ 依次执行如下命令▼
mlxconfig -d /dev/mst/mt4117_pciconf0 set UEFI_HII_EN=1
mlxconfig -d /dev/mst/mt4117_pciconf0.1 set UEFI_HII_EN=1
mlxconfig -d /dev/mst/mt4117_pciconf0 set EXP_ROM_UEFI_x86_ENABLE=1mlxconfig -d /dev/mst/mt4117_pciconf0.1 set EXP_ROM_UEFI_x86_ENABLE =1---->执行:mlxconfig -d /dev/mst/mt4117_pciconf0 set UEFI_HII_EN=1
执行: mlxconfig -d /dev/mst/mt4117_pciconf0.1 set UEFI_HII_EN=1
执行:mlxconfig -d /dev/mst/mt4117_pciconf0 set EXP_ROM_UEFI_x86_ENABLE=1
执行:mlxconfig -d /dev/mst/mt4117_pciconf0.1 set EXP_ROM_UEFI_x86_ENABLE =1
⑧ 完成以上操作后,重启服务器,进入BIOS界面▼
此时,在“Device Settings”界面里,就可以看到Mellanox网卡啦。
⑨ 看到UEFI网卡后,就可以进行网口的PXE设置了▼
三适用条件:
① 适用的物料:
Mellanox Connect X4 LX-EN 双端口 25G SFP+,PCIe3.0x8,OCP 夹层适配器 - DSS RESTRICTED(9R8DF)
② 适用机型:
PowerEdge C6420、PowerEdge R540、PowerEdge R740xd2、PowerEdge R7415、PowerEdge R6415
至此,问题已经圆满解决了。如果你也遇到此类问题,不妨试试这里介绍的方法吧!
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
IDEA研究院等机构联合开发了ToG-3智能推理系统,通过多智能体协作和双重进化机制,让AI能像人类专家团队一样动态思考和学习。该系统在复杂推理任务上表现优异,能用较小模型达到卓越性能,为AI技术的普及应用开辟了新路径,在教育、医疗、商业决策等领域具有广阔应用前景。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室提出SPARK框架,创新性地让AI模型在学习推理的同时学会自我评判,通过回收训练数据建立策略与奖励的协同进化机制。实验显示,该方法在数学推理、奖励评判和通用能力上分别提升9.7%、12.1%和1.5%,且训练成本仅为传统方法的一半,展现出强大的泛化能力和自我反思能力。