
@源深路炒家:FT报道,Anthropic已经和SpaceX达成合作,将租用后者Colossus 1数据中心超过300MW算力资源,用于运行Claude模型。这个数据中心部署了数十万颗英伟达GPU,本来主要是给xAI和Grok使用。
这里面其实有几个很重要的信息。
第一,AI行业现在已经不是“缺模型”,而是“缺算力”。
Anthropic今年已经先后和:
亚马逊
谷歌
微软
英伟达
现在又加上SpaceX
签了大量算力协议。
甚至包括:
与Amazon签5GW级别合作
与Google/Broadcom类似规模合作
微软Azure提供300亿美元级别算力支持
本质上,现在最核心竞争力已经变成:
“谁能持续拿到足够多GPU和电力”。
第二,马斯克其实也在逐渐接受:
“卖算力比自己训练模型更挣钱”。
文章里很关键的一句是:
Grok使用量明显落后Claude和ChatGPT,所以SpaceX开始把“多余算力”租给竞争对手。
这其实很像云计算早期逻辑。
亚马逊最开始也是自己内部IT能力太强,最后发现:
“把基础设施租出去”反而成为AWS。
现在AI行业也在出现类似趋势:
未来真正赚钱的,未必只有模型公司,还可能包括:
GPU资源提供方
数据中心
电力
光通信
网络基础设施
第三,现在AI产业已经越来越像“超级资本密集型行业”。
以前互联网创业:
几十个人、几台服务器就能做产品。
现在顶级AI公司:
几百MW
数十万GPU
数百亿美元CapEx
已经开始接近传统能源、铁路、运营商行业。
文章里甚至提到:
SpaceX未来还计划建设“轨道AI算力”,也就是把数据中心放到太空。
听起来很科幻,但背后核心问题其实很现实:
地球上的电力、土地、散热,已经越来越难满足AI扩张速度。
第四,这也说明市场之前低估了Claude的真实需求。
最近很多人都在吐槽Claude限流严重、体验下降,但本质上不是产品没人用,而是需求增长太快,算力不够。
FT评论区甚至有人说:
以前一次能上传5个文件,现在只能上传1个。
这其实反而侧面说明:
高质量模型的需求量正在爆炸式增长。
所以现在整个AI产业越来越像:
“谁能拿到更多GPU、电力和数据中心,谁才能继续扩张。”
微信扫一扫打赏
支付宝扫一扫打赏:format(webp):quality(80)/https://assets.bohaishibei.com/2026/05/07/11_a4g9z.webp)
:format(webp):quality(80)/https://assets.bohaishibei.com/2026/05/06/5_hrz6j.webp)
:format(webp):quality(80)/https://assets.bohaishibei.com/2026/05/07/111_ah3qg.webp)
:format(webp):quality(80)/https://assets.bohaishibei.com/2026/05/07/112_4c535.webp)
:format(webp):quality(80)/https://assets.bohaishibei.com/2026/05/05/2026-05-05-16-45-43_gmqqm.webp)
:format(webp):quality(80)/https://assets.bohaishibei.com/2026/05/06/11_hme9k.webp)
