腾讯云架构师赵鹏:AI大模型与物联网融合,驱动产业新机遇
2025年12月19日,由高科技行业门户OFweek维科网主办、OFweek物联网承办的第十届物联网产业大会在深圳顺利召开。本届大会以“万物智联,赋能数字中国”为主题,吸引了来自全球的知名物联网企业高管、行业专家和高校教授,围绕5G部署与6G技术趋势、通信协议优化、车联网通信演进、低功耗网络能效提升以及物联网终端安全防护等关键议题进行了深入交流。
腾讯云资深架构师赵鹏在会上发表了主题为《AI大模型+物联网,共促行业新的发展机遇》的演讲。
腾讯云在AI与物联网融合领域的布局与实践
赵鹏指出,当前AI大模型作为核心技术之一,正与物联网深度融合,推动“万物智联”进入全新阶段。然而,在具体业务场景中,智能应用落地仍面临挑战。首先是复杂业务环境下,实现智能应用的“最后一公里”接入存在技术难度和成本压力;其次是行业尚未形成高效的工具链和科学的评估体系,导致试错成本居高不下。
为应对这些挑战,腾讯推出了以混元大模型和智能体开发平台为核心的解决方案,系统性地构建了涵盖感知、交互与生成能力的AI能力体系,并发布了一系列关键产品,致力于为行业提供端到端的智能化赋能路径。
感知与交互能力的深度优化
在基础能力层面,腾讯混元大模型持续扩展其在感知与交互领域的边界,为物联网终端注入更强的智能。以语音交互为例,腾讯推出了业界首个基于大语言模型的流式ASR模型——混元ASR。该模型在专有名词识别准确率方面提升了6.4%,粤语等方言的识别准确率优化超过9.6%,显著增强了智能设备在复杂环境下的听觉识别能力。同时,端到端语音通话模型混元Voice将延迟压缩至1.6秒,整体响应速度提升30%,并在拟人化表达和情绪识别方面取得突破,为陪伴型机器人的人机交互体验提供了坚实支撑。
在视觉理解方面,腾讯推出了混元TurboS Vision与混元T1 Vision两款核心产品。前者专注于多模态视觉感知与理解,具备拍照解题等实用功能;后者通过原生长思维链技术提升视觉推理能力,响应速度提升达50%。这两款产品共同构成了智能硬件的“视觉大脑”,实现对环境的实时感知与决策支持。
在生成式AI领域,腾讯也构建了从二维图像到三维动态内容的生成能力矩阵。其中,混元Image V2.0作为首个毫秒级商用文生图模型,实现了接近实时的图像生成;混元3D V2.5则在三维建模空间方面实现重大突破,建模体积从5600万扩展至10亿,生成质感显著提升。结合开源的文生视频基座模型混元Video,这一系列工具为数字孪生、虚拟仿真等应用提供了高精度、高效率的内容生成能力。
腾讯AI大模型的产业落地路径
赵鹏强调,大模型能否实现产业价值,关键在于能否打通“最后一公里”。腾讯正致力于将混元大模型的能力封装为低门槛、易集成的解决方案,通过平台化工具和场景化方案双轮驱动,将AI技术转化为企业实际生产力。
在具体产业实践中,腾讯主要聚焦三个方向:一是将前沿技术转化为标准化解决方案。例如,面向AI陪伴玩具、儿童手表和智能眼镜等可穿戴设备,推出具备情绪识别和音色定制能力的TWeTalk语音智能体;在安防场景中,TWeSee方案提供长视频语义理解能力,使智能硬件能快速接入AI功能。
二是构建提升产业效率的智能化工具链。以腾讯代码助手为例,该工具通过工程理解与自适应补全等功能,在腾讯内部已帮助85%的开发者平均减少40%以上的编码时间,显著提升软件研发效率。
三是打造企业快速创新与知识管理的基础平台。腾讯智能体开发平台集成了增强式检索、工作流引擎及多智能体协同等功能,助力企业高效构建、部署和管理专属智能应用,降低从技术到产品的创新门槛。
通过从解决方案到开发工具再到平台基座的系统性布局,腾讯正将AI大模型的技术潜力转化为切实的产业价值,推动更多合作伙伴共享智能时代的机遇。
赵鹏指出,腾讯在AI大模型与物联网融合方面的实践表明,这一技术已从理论走向落地,并正逐步成为产业变革的重要引擎。他相信,随着技术生态的不断完善和合作机制的深化,腾讯将携手更多行业伙伴,推动智能化向更广泛的细分场景延伸,共创更具韧性与普惠性的产业新格局。