所属行业 物联网、人工智能
业务范围 物联网综合解决方案提供商、云梯系统
公司规模 100-1000人
IoT解决方案
华为云EI、大数据MRS服务等
数据备份、高负载、弹性计算
浙江新再灵科技股份有限公司成立于2007年,是一家物联网综合解决方案提供商,主要涉及公共安全、环境监测和智能家居三大领域,专注于物联网技术及人工智能技术的研发与应用。目前公司的核心业务为云梯-电梯智能安全管理系统。
1、电梯云端数据量大,维度广,上报频率高,必须具备高吞吐量和高可靠的数据通道
IoT梯联网场景作为物联网的子场景,其特征是上云终端数量大。新再灵在初期就计划接入20000余部现网电梯数据,每部电梯上又接入了大量传感器,所以上云通道必须是具备高吞吐量及高可靠性的数据消息通道,保证业务的正常运行。
2、海量数据精准查询和多维分析,要求毫秒级响应
大数据分析挖掘方面,梯联网IoT数据非传统结构化数据,但数据量又不比传统结构化批量数据小,需要在大规模半结构化数据集上实现高性能的点查和批量抽取能力,以同时满足精确检索和多维分析的需求。 需要达到200T+/年数据存储分析和毫秒级点查结果响应。
3、实时电梯监控,需要高速流式数据处理性能和可靠的平台
IoT梯联网场景下的一个重要应用是实时监控大量电梯设备的上报数据,并且在需要时实时触发告警,这需要极高的流式处理性能和可靠性作为平台支撑。
4、要能与现有系统完全兼容,保证低成本迁移上云
新再灵公司在线下已有一些平台数据,也已具备一定线下Hadoop集群设施。在云计算的趋势下将业务迁移上云,需要寻求最低的迁移成本。这对云上的大数据平台提出更高的兼容性和易用性需求:完全兼容业界主流开源组件的接口及使用方式成为必须的要求;同时要能提供超过开源社区的集群管理能力和运维保障能力也是重要需求之一。
华为云EI.大数据MRS服务,是云上企业级大数据服务,兼容开源接口,提供安全、高可靠的全栈大数据组件能力,帮助用户快速构建云上大数据能力,提供海量数据上云、实时分析、精准查询的一站式解决方案。
华为MRS服务提供每秒数万条实时数据的上云队列暂存,解决新再灵云梯系统对于电梯监控数据上云的高吞吐量及高可靠得数据通道诉求。
通过MRS服务的流数据分析能力,对监控数据实时查询和处理,并将处理后的数据导入电梯实时监控系统,对故障电梯及时上报告警。
通过定期从kafka抽取数据,将海量数据入库MRS Hbase。借助MRS HBase极速点查及批量scan能力,配合ElasticSearch向业务层提供电梯数据极速检索查询服务。
使用MRS Spark组件,轻松构建批量计算应用,定时从HBase获取数据进行多维数据分析,生成云梯运行报表供上层业务部门使用;同时实现定时冷数据备份功能,全量数据备份至低成本的OBS存储服务。
使用MRS Manager, 轻松对集群进行高效管理配置,租户资源分配,快速日志查询。
通过华为云EI大数据MRS服务,让新再灵云梯(梯联网)更高效,更安全。
让数以万计的电梯的安全管理得以加强,从后台就可以对所有电梯的状态一目了然,减少了运维人员的现场采集数据的工作量;
实现了连续的,快速的获得电梯的运行状态,能第一时间发现问题,更合理的调配运维人员对可能出现问题的电梯进行提前的维护,把安全隐患消除于未然;
构建了新再灵云梯事前预警、事中安抚与处置、事后追溯的一体化管理体系。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。