对于云原生开发,更重要的不是运行应用程序的位置,而是开发的方式。随着应用程序现代化和云原生开发越来越受到重视,现在对于企业开发者来说是个很有意思的时刻。针对混合云环境的关键成功因素(包括安全性、可靠性和可管理性),职责开始转移到应用程序。我发现,要解决这些“有意思”的挑战,最好是动用能够理解整个软件开发生命周期的协作式、跨学科 DevSecOps 团队。
在这种新的环境中,您作为开发者的角色更加严苛,我们都需要更好的工具。您的职责更加重大,需要就治理和相关管理政策,理解安全性工程师并直接与他们合作。您需要优先考虑服务的可靠性,最佳实践是在应用程序生命周期中及早地处理潜在问题。您还需要前瞻性地检测并解决生产环境的潜在问题,以免带来负面的业务影响。
DevSecOps 团队需要集成工具来自动执行耗时、易出错的管理任务,并提供资源、配置和应用程序的合并视图。团队必须就事实达成一致,并使用单一事实来源,前瞻性地管理混合云环境,以及时、非中断性的方式处理事件。
了解 IBM 和 Red Hat 在多云 DevSecOps 空间中一起实现的工作成果,这绝不会让您感到失望。我们理解您的具体工具需要以及您对于开放性和灵活性的全盘需求。IBM Cloud Pak for Multicloud Management V2 提供了一组开放式、可插拔的工具,支持组织安全地管理应用程序,无需考虑应用程序的架构方式和部署位置。利用这一最新解决方案,您现在可以与安全性和运营领域的团队成员一起协作来完成以下工作:
下面是我发现的 V2 中一些很有用的新功能,它们应该对于您和整个 DevSecOps 团队也很有用:
了解更多与IBM相关请访问:http://www.zhiding.cn/special/IBM_Hybrid_Cloud_Solutions
好文章,需要你的鼓励
新加坡国立大学研究人员开发出名为AiSee的可穿戴辅助设备,利用Meta的Llama模型帮助视障人士"看见"周围世界。该设备采用耳机形态,配备摄像头作为AI伴侣处理视觉信息。通过集成大语言模型,设备从简单物体识别升级为对话助手,用户可进行追问。设备运行代理AI框架,使用量化技术将Llama模型压缩至10-30亿参数在安卓设备上高效运行,支持离线处理敏感文档,保护用户隐私。
阿里达摩院联合浙江大学推出VideoRefer套件,这是首个能够精确理解视频中特定物体的AI系统。该系统不仅能识别整体场景,更能针对用户指定的任何物体进行详细分析和跨时间追踪。研究团队构建了包含70万样本的高质量数据集VideoRefer-700K,并设计了全面的评估体系VideoRefer-Bench。实验显示该技术在专业视频理解任务中显著超越现有方法,在安防监控、自动驾驶、视频编辑等领域具有广阔应用前景。
OpenAI推出新AI模型GPT-5-Codex,能够在无用户协助下完成数小时的编程任务。该模型是GPT-5的改进版本,使用额外编码数据训练。测试显示,GPT-5-Codex可独立工作超过7小时,能自动发现并修复编码错误。在重构基准测试中得分51.3%,比GPT高出17%以上。模型可根据任务难度调整处理时间,简单请求处理速度显著提升。目前已在ChatGPT付费计划中提供。
Sa2VA是由UC默塞德等高校联合开发的突破性AI系统,首次实现图像视频的统一理解与精确分割。通过巧妙融合SAM-2视频分割技术和LLaVA多模态对话能力,Sa2VA能够同时进行自然对话和像素级物体标注。研究团队还构建了包含7万多个复杂视频表达式的Ref-SAV数据集,显著提升了AI在长文本描述和复杂场景下的表现。实验显示,Sa2VA在多个基准测试中达到业界领先水平,为视频编辑、医疗诊断、智能监控等领域带来新的应用可能性。