大数据流处理软件提供商 Confluent Inc. 今日发布了强劲的财务业绩和下季度展望,同时宣布与 Databricks Inc. 达成重要合作伙伴关系,使其股价在盘后交易中上涨超过 14%。
公司第四季度调整后每股收益为 0.09 美元,超过华尔街预期的 0.06 美元。季度营收同比增长 23% 至 2.612 亿美元,高于分析师预期的 2.568 亿美元。
总体而言,Confluent 净亏损为 1.058 亿美元,较去年同期的 8,470 万美元有所扩大。
在生成式 AI 需求推动下,该公司被视为快速增长的大数据行业明星企业之一。Confluent 开发了广受欢迎的开源数据流平台 Apache Kafka,该平台被企业用于实时追踪销售、订单、交易和客户反馈等数据点。这些信息通过实时数据流传递,可使用 Confluent 的工具进行分析获取洞察。
由于超过 80% 的财富 500 强企业都在使用 Apache Kafka,且其快速分析新生成数据的能力使其increasingly 成为 AI 系统的关键组件,这一能力变得尤为重要。其最著名的客户之一是开启生成式 AI 热潮的 OpenAI。
Confluent 发展迅速,增长主要来自其云服务产品 Confluent Cloud。这是一个企业级 Apache Kafka 版本,客户可以在 Amazon Web Services、Google Cloud 和 Microsoft Azure 上运行,且比开源 Kafka 更易部署和管理。
公司约两年半前推出 Confluent Cloud,现已成为主要收入来源。本季度 Confluent Cloud 销售额同比增长 38% 至 1.38 亿美元。
联合创始人兼首席执行官 Jay Krebs 称赞公司本季度超越所有预期指标。他强调:"我们的发展势头反映了完整数据流平台对支持关键任务和实时 AI 应用的重要性日益提升。过去一年我们建立的重要合作伙伴关系和产品创新,使我们在 2025 年处于继续引领行业的有利位置。"
Confluent 在客户基础增长方面也表现强劲,年收入至少 10 万美元的客户数量同比增长 12% 至 1,381 个。
展望第一季度,Confluent 预计每股收益在 0.06-0.07 美元之间,中值略高于市场预期的 0.06 美元。2025 财年目标每股收益为 0.35 美元,符合预期。
Confluent 与 Databricks 的新合作旨在帮助客户克服数据生成的操作系统与数据分析系统之间的鸿沟。这些系统通常存在于独立的孤岛中,两者之间应用不同的流程,使实时数据难以与许多分析工具对接,这正是 Confluent 与 Databricks 共同应对的挑战。
双方宣布在 Confluent 的 Tableflow 与 Databricks 的 Delta Lake 和 Unity Catalog 之间建立双向集成,实现两个系统间的实时数据流通,为 AI 驱动的决策铺平道路。
Kreps 表示:"实时数据是 AI 的燃料。我们与 Databricks 合作,确保企业能够利用实时数据的力量,为最关键的用例构建复杂的 AI 驱动应用。"
今日盘后涨幅意味着 Confluent 股价今年迄今上涨超过 7%,但过去 12 个月仍下跌约 5%。
好文章,需要你的鼓励
新加坡国立大学研究人员开发出名为AiSee的可穿戴辅助设备,利用Meta的Llama模型帮助视障人士"看见"周围世界。该设备采用耳机形态,配备摄像头作为AI伴侣处理视觉信息。通过集成大语言模型,设备从简单物体识别升级为对话助手,用户可进行追问。设备运行代理AI框架,使用量化技术将Llama模型压缩至10-30亿参数在安卓设备上高效运行,支持离线处理敏感文档,保护用户隐私。
阿里达摩院联合浙江大学推出VideoRefer套件,这是首个能够精确理解视频中特定物体的AI系统。该系统不仅能识别整体场景,更能针对用户指定的任何物体进行详细分析和跨时间追踪。研究团队构建了包含70万样本的高质量数据集VideoRefer-700K,并设计了全面的评估体系VideoRefer-Bench。实验显示该技术在专业视频理解任务中显著超越现有方法,在安防监控、自动驾驶、视频编辑等领域具有广阔应用前景。
OpenAI推出新AI模型GPT-5-Codex,能够在无用户协助下完成数小时的编程任务。该模型是GPT-5的改进版本,使用额外编码数据训练。测试显示,GPT-5-Codex可独立工作超过7小时,能自动发现并修复编码错误。在重构基准测试中得分51.3%,比GPT高出17%以上。模型可根据任务难度调整处理时间,简单请求处理速度显著提升。目前已在ChatGPT付费计划中提供。
Sa2VA是由UC默塞德等高校联合开发的突破性AI系统,首次实现图像视频的统一理解与精确分割。通过巧妙融合SAM-2视频分割技术和LLaVA多模态对话能力,Sa2VA能够同时进行自然对话和像素级物体标注。研究团队还构建了包含7万多个复杂视频表达式的Ref-SAV数据集,显著提升了AI在长文本描述和复杂场景下的表现。实验显示,Sa2VA在多个基准测试中达到业界领先水平,为视频编辑、医疗诊断、智能监控等领域带来新的应用可能性。