AI只能下棋
打《星际争霸》?
不AI正在各行各业全面开花!
之前的一篇文章中
小编提到了Gartner总结的
2019五大前沿技术创新趋势
这五大趋势分布在各个不同领域
但他们都有一个共同点
就是AI渗透到了所有其他领域中
AI不仅能和你下棋、打游戏
还能参与到你的
出行、医疗、教育
等生活的各个方面
曾经我们说
学好数理化,走遍天下都不怕
而在今天,无论对个人还是企业
掌握AI,就是拿到了未来世界的通行证
所以,下面这个大会
小编强力推荐~
12月16日-19日,GTC CHINA 2019将于苏州金鸡湖国际会议中心举办,戴尔易安信作为本届GTC大会的钻石赞助商,受邀参加NVIDIA GTC CHINA,除了将亮相最新GPU产品,还将带来精彩的主题演讲!
在AI方面,作为全球领先的两家科技公司,戴尔易安信和NVIDIA长久以来保持着紧密的合作伙伴关系。在数据中心、边缘服务器、数据科学工作站等多个领域密切合作,基于NVIDIA GPU计算平台,为用户提供性能强大的计算体验,为AI发展助力。
2017年
NVIDIA宣布推出全球最先进的数据中心GPU——基于NVIDIA Volta架构的NVIDIA Tesla V100 GPU, 戴尔易安信作为全球领先的主流计算机制造商与NVIDIA合作,为用户提供基于Volta的产品,以帮助其实现人工智能与高性能计算。
2018年
两者继续合作,借助基于NVIDIA Turing架构的NVIDIA Tesla T4 GPU,持续推进数据中心现代化和加速进程,以实现边缘推理。同年,戴尔易安信加入NVIDIA NGC-Ready 计划,让采用基于NVIDIA GPU系统的客户能够在更广的范围内放心地部署GPU加速软件。
2019年
在NVIDIA推出EGX平台之际,戴尔易安信率先与NVIDIA展开合作,为用户提供经NVIDIA认证的成品服务器,致力于合作推进边缘到云的AI计算能力,让全球企业都能受益其中。
附上指南,亮点抢先看!
主题
大规模深度学习加速自动驾驶落地
主讲人
Dell EMC汽车行业首席解决方案架构师
Hu Frances
时间
12月19日15:00-15:45
地点
苏州金鸡湖会议中心,分会场五
演讲内容
自动驾驶ECU的开发需要通过深度学习构建的复杂神经网络来训练大量数据集。本次演讲将探讨和讨论大规模深度学习基础架构在自动驾驶中的重要性,如何利用大规模的深度学习基础架构加速整个自动驾驶的研发和落地。
1.为什么研发自动驾驶需要考量大规模的深度学习平台?
2.加速自动驾驶落地的大规模深度学习研发平台的生命周期和最佳实践,包括:
大量的数据采集车载传感器数据摄取和数据如何转换成合适的深度学习模式;
如何建立合适的自动驾驶数据管理平台;
如何搭建大规模的深度学习平台最大化利用GPU/CPU 并且缩短研发周期;
如何进行海量数据分析缩短研发周期;
性能和针对中国市场自动驾驶数据合规性的最佳实践。
除了自动驾驶相关内容外,这次GTC大会议题横向覆盖了AI 框架、开发工具、加速数据科学、云计算、实时渲染、光线追踪、5G等方方面面,纵向也包含了智能机器、医疗与金融、设计与工程制造等当下最热门的领域。
参会者可以聆听NVIDIA创始人兼首席执行官黄仁勋先生带来的主题演讲,在百余场顶尖大咖的技术演讲中穿梭,与来自NVIDIA及众多业界领先机构的技术专家近距离沟通,更有深度学习学院全天培训及迷你培训,在实战中掌握技能,并获取正式的培训证书,作为职业发展的权威证明。
GTC报名已开启
欢迎扫描下图中的二维码
注册并报名参会
体验设计师和工程师们梦寐以求的神器吧!
好文章,需要你的鼓励
B&H近期对多款M5 Pro MacBook Pro机型推出300美元优惠。14英寸M5 Pro版本(48GB内存+1TB固态硬盘)现售价2299美元,较原价2599美元节省300美元,且该配置在亚马逊无法购买,折扣机会更为难得。此外,16英寸M5 Pro版本(64GB内存+1TB固态硬盘)同样享有300美元折扣。B&H在多款高配MacBook机型上的定价已低于亚马逊,是近期可找到的最优价格。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
Insta360推出GO 3S复古套装,将现代4K运动相机与胶片时代美学结合。套装核心仍是仅重39克的GO 3S,新增复古取景器、胶片风格滤镜、NFC定制外壳及可延长录制时长至76分钟的电池组。复古取景器模仿老式腰平相机设计,鼓励用户放慢节奏、专注构图。相机内置11种色彩预设及负片、正片等滤镜,同时保留FlowState防抖、4K拍摄及10米防水能力,面向热衷复古影像风格的年轻创作者。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。