世界智能大会经过6年的积淀,已经取得了一系列丰硕成果,成为智能领域的标杆性盛会,六届大会累计举办了150余场有思想高度、有产业含金量、有行业影响力的论坛活动,受到了业界的广泛关注和高度赞誉。
第七届世界智能大会拟于2023年5月在国家会展中心(天津)隆重举行,大会将延续“会展赛+智能体验”四位一体国际化办会模式,策划100场精彩活动!目前,已收到来自国家部委单位、国家级行业机构组织、科研院所、高校和智能科技领域领军企业等提报的数十个论坛方案,盛况空前,这充分说明了世界智能大会已成为引领前沿发展、传递权威声音的高端学术交流平台。
为进一步推进落实大会平行论坛筹备工作,组委会秘书处于2月3日组织第一批论坛提报单位召开平行论坛筹备工作会。市工业和信息化局副局长周胜昔出席会议,组委会秘书处执行秘书长主持会议并介绍第七届大会的整体情况及平行论坛筹备要求。会上,各论坛举办单位分别汇报了论坛主题和议题、特色亮点、嘉宾邀请等筹备工作进展情况,专家按照“国际化、高端化、专业化”办会理念和“六个一”的办会要求对论坛方案进行现场“把脉”。
根据国家和天津市相关产业布局,第七届大会平行论坛将关注数字经济、平台经济与实体经济深度融合,推进数字产业化和产业数字化,在“数字经济、智能制造、智慧生活”三大领域发力,高端化打造精品会议,实现“质”与“量”双升!组委会秘书处将充分发挥统筹协调作用,与各论坛举办单位强化沟通对接,抓紧打磨细节,优化论坛方案,将第七届世界智能大会平行论坛办成领域更加聚焦、议题更加专业、成效更加突出的精品论坛!
好文章,需要你的鼓励
这项研究由新加坡国立大学团队开发的DualParal技术,通过创新的双重并行架构解决了AI视频生成的长度限制问题。该方法同时在时间帧和模型层两个维度实现并行处理,配合分块降噪机制、特征缓存和协调噪声初始化策略,使生成分钟级长视频成为可能。实验表明,在生成1,025帧视频时,DualParal比现有技术减少了高达6.54倍的延迟和1.48倍的内存成本,同时保持了高质量的视频输出,为内容创作者提供了生成更长、更复杂视频叙事的新工具。
SoloSpeech是约翰霍普金斯大学研究团队开发的创新语音处理技术,针对"鸡尾酒会效应"问题提出了全新解决方案。该系统通过级联生成式管道整合压缩、提取、重建和校正过程,实现了高质量目标语音提取。与传统判别式模型相比,SoloSpeech采用无需说话者嵌入的设计,直接利用提示音频的潜在空间信息与混合音频对齐,有效避免特征不匹配问题。在Libri2Mix及多个真实世界数据集上的评测显示,SoloSpeech在清晰度、质量和泛化能力上均达到了领先水平,为语音分离技术开辟了新方向。
这项由北京大学深圳研究生院、伟湾大学、腾讯ARC实验室和兔小贝智能联合研究的Sci-Fi框架,通过创新的对称约束机制,解决了视频帧间插值中的关键问题。研究团队设计了轻量级EF-Net模块,增强结束帧约束力,使其与起始帧形成平衡影响,从而生成更自然流畅的中间过渡帧。实验证明,该方法在各种场景下都优于现有技术,特别适用于电影制作、动画创作和视频编辑领域,显著降低了人力成本。
这项来自西北大学和谷歌的研究突破了传统马尔可夫强化学习的局限,通过贝叶斯自适应RL框架解释了大语言模型中涌现的反思性推理行为。研究团队提出的BARL算法通过维护多个解题策略的后验分布,指导模型何时何地进行反思性探索,在数学推理任务上展现出显著优势,比基线方法减少高达50%的标记使用量,同时提高了准确率。这一研究不仅解释了"为什么反思有用",还提供了实用的指导原则,为AI系统的自适应推理能力开辟了新方向。