腾讯云架构师赵鹏探讨AI大模型与物联网融合带来的新机遇
2025年12月19日,由高科技行业门户OFweek维科网主办、OFweek物联网承办的第十届物联网产业大会在深圳市顺利举行。
本届大会以“万物智联,赋能数字中国”为主题,吸引了来自全球的知名物联网企业高管、资深行业专家以及高校教授,围绕5G与6G技术布局、通信协议优化、车联网通信技术发展、低功耗网络能效提升、物联网终端安全防护等多个核心技术议题展开深入交流。
在大会现场,腾讯云资深架构师赵鹏发表了题为《AI大模型+物联网,共促行业新的发展机遇》的主旨演讲。
赵鹏聚焦于AI大模型与物联网的深度融合,指出当前AI大模型作为推动行业变革的重要引擎,正在与物联网技术形成协同效应,加速实现“万物智联”的新阶段。然而在具体落地过程中,行业仍面临两大主要挑战:一方面,智能应用在复杂业务场景下的接入难度大,部署成本高;另一方面,缺乏高效工具链与科学评估体系,导致企业在创新试错过程中面临较高的风险。
为应对上述挑战,腾讯推出了基于混元大模型与智能体开发平台的系统性解决方案,致力于构建涵盖感知、交互与内容生成的全面AI能力体系,并推出一系列核心产品,为企业提供端到端的智能化赋能。
在基础能力层面,腾讯混元大模型持续拓展其在深度与广度上的应用能力,为物联网终端注入更智能的交互体验。例如,在语音交互方面,腾讯推出了业界首款基于大语言模型的流式ASR模型——混元ASR,该模型在专有名词识别上准确率提升了6.4%,对粤语等方言的识别效果优化超过9.6%,大幅提升了智能硬件在复杂环境下的语音处理可靠性。此外,端到端语音通话模型混元Voice将延迟缩短至1.6秒,整体响应速度提升30%,并在拟人化表达和情绪识别方面实现突破,为陪伴型机器人等设备提供更强的对话能力。
在视觉感知与理解领域,腾讯推出混元TurboS Vision与混元T1 Vision两款模型。前者专注于多模态图像分析,支持拍照解题等场景;后者则通过原生长思维链技术提升视觉推理能力,据官方数据,其响应效率提升了50%。这两款产品共同构成了智能硬件的“视觉大脑”,使其具备更强的实时感知与决策能力。同时,腾讯在生成式AI方面也取得重要进展,构建了从2D图像到3D动态内容的完整生成能力矩阵。其中,混元Image V2.0实现了毫秒级的图像生成速度,而混元3D V2.5则将建模空间体积从5600万扩展至10亿,显著提升了视觉真实感。开源的文生视频模型混元Video则为数字孪生、虚拟仿真等场景提供了高效的生成解决方案。
赵鹏进一步指出,大模型技术的潜力只有在解决产业落地的“最后一公里”问题后才能真正释放。为此,腾讯正通过“平台化工具”与“场景化方案”双轮驱动,将大模型能力封装为低门槛、易集成的解决方案,推动其在各行业的广泛应用。
在具体实践中,腾讯AI与大模型的应用聚焦于三大方向:首先,将前沿技术转化为标准化、开箱即用的解决方案。例如,为AI陪伴玩具、儿童手表、智能眼镜等可穿戴设备提供具备情绪识别与音色定制能力的TWeTalk语音智能体;为安防监控场景提供具备长视频语义分析能力的TWeSee方案,使各类智能硬件能够快速获得AI能力。
其次,构建提升产业效率的智能化工具链。以腾讯代码助手为例,该工具在工程理解与自适应代码补全方面表现出色,已在腾讯内部帮助85%的开发者将平均编码时间缩短超过40%,显著提升了软件开发效率。
最后,腾讯致力于打造支持企业快速创新与知识管理的平台化基座。其智能体开发平台集成了增强式检索、工作流引擎和多智能体协同等功能,使企业能够更便捷地构建、部署和管理专属智能应用,有效降低从技术到应用的创新门槛。
通过从解决方案、开发工具到平台基础的系统化实践,腾讯正将大模型的技术势能转化为产业生产力,助力各行业伙伴共同把握智能时代的机遇。
赵鹏表示,腾讯的实践表明,AI大模型已不再是停留在实验室的概念,而是正在成为推动产业变革的重要力量。他强调,随着技术体系的不断完善与生态合作的深化,腾讯将持续携手合作伙伴,将智能化浪潮带到更多细分场景,共同描绘更具韧性与普惠性的产业未来。