腾讯云架构师赵鹏:AI大模型与物联网融合推动产业智能化升级
2025年12月19日,由高科技行业门户OFweek维科网主办、OFweek物联网承办的第十届物联网产业大会在深圳顺利举行。本次会议以“万物智联,赋能数字中国”为主题,吸引了来自物联网行业的国际知名企业高管、权威专家及知名高校教授,围绕5G部署与6G前瞻、通信协议优化、车联网通信演进、低功耗网络能效提升及物联网终端安全等核心议题展开深入交流。
大会上,腾讯云资深架构师赵鹏发表了主题为《AI大模型+物联网,共促行业新的发展机遇》的演讲,深入探讨了当前AI与物联网融合的发展路径与挑战。
腾讯AI大模型与物联网布局现状
赵鹏指出,当前AI大模型与物联网的融合已成为推动“万物智联”迈向新阶段的重要力量。然而,在实际业务场景中,智能应用的“最后一公里”仍面临高成本与高复杂度的接入问题。同时,缺乏高效的开发工具与评估体系,也显著增加了行业的创新试错成本。
为应对这些挑战,腾讯推出了以混元大模型和智能体开发平台为核心的解决方案,构建了覆盖感知、交互与生成的完整AI能力体系,并发布了一系列关键产品,旨在为行业提供端到端的智能赋能。
基础能力层:语音与视觉智能的突破
在语音交互方面,腾讯推出了业界首个基于LLM的流式ASR模型——混元ASR,其专有名词识别准确率提升了6.4%,并针对粤语等方言优化了识别效果,提升幅度超过9.6%。这一进展大幅增强了智能终端在复杂场景下的语音可靠性。
此外,端到端语音通话模型混元Voice实现了1.6秒的超低延迟,整体响应速度提升了30%,并在拟人化表达和情绪识别方面取得突破,为陪伴型机器人提供更自然的对话体验。
在视觉智能方面,腾讯发布了混元TurboS Vision和混元T1 Vision两款视觉模型。前者具备多模态拍照解题功能,后者则通过原生长思维链技术提升了视觉推理能力,据官方测试,其响应速度提高了50%。这两大模型共同构成了智能硬件的“视觉大脑”,实现对环境的实时分析与决策。
在生成式AI领域,腾讯推出了多项关键模型,涵盖从二维图像到三维动态内容的完整生成能力矩阵。其中,混元Image V2.0作为首个毫秒级商用文生图模型,实现了近实时的图像生成;混元3D V2.5则在三维建模方面实现重大跃迁,建模空间体积从5600万扩展至10亿级,细节质感显著增强。配合开源的文生视频模型混元Video,这些能力为数字孪生、虚拟仿真等应用提供了高精度、高效率的解决方案。
产业实践:从技术到场景的全面落地
赵鹏强调,释放大模型的技术潜力,关键在于打通产业落地的“最后一公里”。为此,腾讯正将混元大模型能力封装为可即插即用、低门槛的解决方案,通过“平台化工具”与“场景化方案”双轮驱动,将技术能力系统性地转化为产业生产力。
具体来看,腾讯的产业实践主要围绕三大路径展开:一是开发开箱即用的标准化智能解决方案。例如,为AI陪伴玩具、儿童手表或智能眼镜等穿戴设备提供具备情绪识别和音色定制能力的TWeTalk语音智能体,以及面向安防监控场景的长视频语义理解方案TWeSee,使智能硬件迅速具备AI能力。
二是打造提升产业效率的智能化开发工具链。以腾讯代码助手为例,其通过工程理解、自适应补全等功能,在内部已帮助85%的开发者将平均编码时间缩短超过40%,有效提升软件开发效率。
三是构建支持快速创新与知识管理的平台化基座。腾讯智能体开发平台集成增强式检索、工作流引擎与多智能体协同能力,帮助企业轻松构建、部署和管理定制化智能应用,大幅降低从技术到应用的创新门槛。
未来展望:携手推进智能化升级
赵鹏表示,腾讯的实践已充分证明,AI大模型不再只是前沿概念,而是具备实际产业价值的技术引擎。随着技术栈的不断完善与生态合作的深入,腾讯将继续携手合作伙伴,将智能化能力渗透至更多细分场景,推动构建更具韧性与普惠性的产业新生态。