美国初创公司推出随身行李大小的AI数据中心
2026年国际消费电子展(CES)前夕,美国加州初创公司ODINN推出了一款尺寸如同登机箱的人工智能超级计算机。该设备无需传统本地数据中心的高成本和长周期建设,即可提供强大的AI算力。
近年来,AI技术迅速发展,广泛应用于金融、媒体、航空航天、制药等多个领域。企业普遍希望通过AI优化产品、改进流程,并深入挖掘数据价值。
然而,通用的大模型难以满足所有行业的个性化需求。因此,越来越多企业选择构建自己的AI模型,以在竞争中占据优势。但使用云数据中心往往意味着将数据传输到远程甚至跨国服务器,带来一定的数据安全风险。
这种模式对部分行业尚可接受,但在国防、政府等对数据敏感的领域则完全不适用。同样,金融交易和医疗健康数据也必须严格保密,不宜通过公共网络传输。
此前,这类机构的唯一选择是建设自有的本地数据中心。而ODINN的OMNIA超级计算机,改变了这一局面。
紧凑设计不牺牲性能
据IT之家报道,ODNIN推出的OMNIA虽然体积小巧,但性能不打折扣。它集成了与大型数据中心相当的CPU、GPU和存储系统,是高度集成的一体化方案。部署时间仅需几分钟,相比传统方案的数月周期,大幅提升了部署效率。
成立于2023年的ODINN,初衷并非仅仅提升计算性能,而是帮助用户摆脱对传统数据中心的依赖。为实现“数分钟内部署”的目标,团队重新设计了计算能力、散热机制和系统稳定性,并将三者整合于一个系统中。
高效散热与灵活部署
OMNIA采用自主研发的闭环冷却系统,即使在处理TB级内存和PB级存储任务,以及运行高复杂度AI负载时,也能保持低噪音运行。
这套系统可以直接接入标准电力和网络设施,无需独立机房,即可部署于办公室、医院实验室或各类保密场所。
模块化架构支持算力扩展
尽管OMNIA体积小巧,但在数据处理能力方面仍存在一定的局限。为应对这一挑战,ODINN开发了“无限立方”(Infinity Cube)AI集群系统,将多台OMNIA设备整合于玻璃机柜中,实现算力的扩展。
“无限立方”是一种模块化数据中心架构,由多个OMNIA单元组合成长方体结构。每个单元都具备独立的计算与冷却能力,无需额外冷却设备或高架地板。通过这种方式,机构可以在短时间内搭建起完全自主可控的AI算力集群。
智能化软件提升系统管理效率
传统云AI数据中心的优势在于让企业专注于模型开发,而非基础设施管理。但本地化部署又可能增加系统运维的复杂性。对此,ODINN推出了自研软件平台“神经边缘”(NeuroEdge)。
- 该软件深度兼容NVIDIA人工智能生态及其他主流框架。
- 通过智能调度算力资源与任务部署,最大化集群性能。
- 帮助企业将重点放在AI应用落地,而非系统调优。
ODINN重新定义AI基础设施
在2026年CES展会上,ODINN并未以数据中心或服务商身份亮相,而是一家专注于AI基础设施的公司。其目标是为那些对数据安全和隐私有严格要求的机构,提供低延迟、高性能的算力解决方案。