OpenAI首席执行官山姆·奥特曼(Sam Altman)近日在华盛顿举行的黑石基础设施峰会上提及一个可能发展方向,他提出人工智能技术有潜力成为类似于电力或水力那样的基础公共服务,并可按使用次数或规模向用户收费,这意味着技术企业正在向按需提供AI能力的未来前进。

奥特曼在会议上进一步解释了他的设想,认为未来AI商业模式可能类似于"tokens"的销售体系,这一单位正是AI系统进行数据处理与定价的核心指标。
伴随着全球范围不断攀升的AI需求,各大科技巨头正加大在计算基础设施方面的投入力度。预计今年相关设备建设的总投资额将触及数千亿美元数量级。AMD总裁苏姿丰(Lisa Su)在今年早些时候的CES论坛上曾指出,在今后的五年内,全球人工智能技术实现规模化可能需要超过10 yottaflops的计算性能,这相当于2022年全球AI计算容量的10,000倍,也从侧面突显出资源建设急需提速的局面。
但发展过程中所面临的各项瓶颈仍然存在。为AI专设的数据中心,其耗电量可以与中型城市相比,美国现有电网承载力、变压设备短缺以及输电项目获批速度缓慢等一系列现实障碍,均在一定程度上制约着产业进一步扩张。
特斯拉首席执行官伊隆·马斯克(Elon Musk)在年初参加的一段播客里也曾表示,能源供应对当前AI规模化部署的制约非常显著;他甚至推测,考虑到中国能源建设的推进速度更为领先,中国或许会在这一赛道实现对美国的超越。
当前在企业内部,计算资源也被视作一项稀缺且极为宝贵的战略资产,团队工程师间也需要通过竞争来争取GPU运算资源的优先使用权。据悉,部分求职者在应聘时已会将公司拥有多少AI相关的运算资源视作评估因素。
为了进一步扩展其运营能力,OpenAI联合总裁葛雷格·布罗克曼(Greg Brockman)早前已公开承诺,该公司已为今后八年的数据中心相关项目筹备大约1.4兆美元的投资目标,希望通过投入从根本上缓解基础设施容量不足这一挑战。
随着OpenAI基础设施规模的持续扩大,将AI打造成按用量计费的标准化公共服务,正由构想逐步转向落地与实用化。





























浙公网安备 33010502007447号