腾讯云架构师赵鹏:AI大模型与物联网融合,释放行业新增量
2025年12月19日,由高科技行业门户OFweek维科网主办、OFweek物联网承办的第十届物联网产业大会在深圳顺利举行。
本次会议以“万物智联,赋能数字中国”为主题,吸引了来自全球的物联网领域龙头企业代表、行业权威专家及高校学者,围绕5G部署与6G前瞻、通信协议优化、车联网通信演进、低功耗网络能效提升及终端安全防护等关键技术的创新路径进行了深入交流。
腾讯云资深架构师赵鹏发表主题演讲
腾讯云资深架构师赵鹏在大会上发表了题为《AI大模型+物联网,共促行业新的发展机遇》的演讲,聚焦AI与物联网融合所带来的产业变革。
AI大模型与物联网融合中的落地挑战
赵鹏指出,当前AI大模型正与物联网技术深度融合,推动“万物智联”迈向更高层次。然而,在实际应用落地过程中,仍面临两大关键问题:一是复杂业务场景中智能应用的部署存在高成本与高难度,二是行业缺乏高效的开发工具链与系统化的评估体系,导致创新试错成本居高不下。
为应对这些挑战,腾讯通过“混元大模型+智能体开发平台”的组合策略,系统性构建了涵盖感知、交互与生成能力的AI技术体系,并推出多项关键产品,助力行业实现端到端的智能化升级。
构建感知与交互能力,夯实智能终端基础
在感知与交互层面,腾讯混元大模型持续拓展其深度与广度,为物联网设备注入更强的智能。
- 在语音交互领域,腾讯推出了业界首个基于LLM的流式语音识别模型——混元ASR,专有名词识别精度提升6.4%,对粤语等方言的识别准确率优化超9.6%,显著增强智能设备在复杂环境下的语音理解能力。
- 同时,腾讯端到端语音通话模型混元Voice将延迟压缩至1.6秒,整体响应速度提升30%,在拟人化表达与情绪感知方面取得突破,为陪伴机器人等智能终端提供更自然的人机交互体验。
视觉理解与生成能力同步提升,拓展智能应用场景
在视觉感知方面,腾讯推出了混元TurboS Vision与混元T1 Vision两款视觉模型。TurboS Vision聚焦多模态图像解析,实现拍照解题等高级功能;T1 Vision则基于原生长思维链技术,视觉推理效率提升达50%。两款产品共同构成智能硬件的“视觉大脑”,实现高效识别与实时决策。
在生成式AI领域,腾讯也实现了多项技术突破:
- 混元ImageV2.0是首款毫秒级商用文生图模型,支持接近实时的图像生成;
- 混元3D V2.5将三维建模空间体积从5600万提升至10亿,建模精度和质感显著增强;
- 开源的文生视频模型混元Video为数字孪生、虚拟仿真等应用提供了高效的内容生成解决方案。
平台化+场景化双轮驱动,加速产业智能化进程
赵鹏强调,要实现AI技术在产业中的深度应用,必须打通“最后一公里”。腾讯通过“平台化工具”与“场景化方案”协同推进,将核心能力封装为低门槛、易部署的解决方案,助力企业快速实现智能化转型。
其实践路径主要包括三方面:
- 将前沿AI能力封装为标准化解决方案,如TWeTalk语音智能体为可穿戴设备提供情绪识别和音色定制功能,TWeSee方案为安防场景提供长视频语义理解能力;
- 打造智能化工具链,如腾讯代码助手通过工程理解和自适应补全,帮助开发者大幅提升编码效率,内部已实现85%的开发者效率提升;
- 构建平台化开发基座,腾讯智能体开发平台集成增强式检索、多智能体协同等工作流引擎,助力企业快速构建与部署智能应用。
通过从解决方案、开发工具到平台基座的全面布局,腾讯正推动大模型能力转化为实际生产力,与合作伙伴共享智能时代的发展红利。
赵鹏认为,AI大模型已从概念走向实践,成为产业变革的重要引擎。随着技术栈不断完善与生态合作持续深化,腾讯将继续携手行业伙伴,将智能化应用延伸至更多细分领域,共同塑造更具韧性与普惠性的产业新生态。