博海拾贝 文摘 AI行业现在已经不是“缺模型”,而是“缺算力”

AI行业现在已经不是“缺模型”,而是“缺算力”

4.webp

@源深路炒家:FT报道,Anthropic已经和SpaceX达成合作,将租用后者Colossus 1数据中心超过300MW算力资源,用于运行Claude模型。这个数据中心部署了数十万颗英伟达GPU,本来主要是给xAI和Grok使用。

这里面其实有几个很重要的信息。

第一,AI行业现在已经不是“缺模型”,而是“缺算力”。

Anthropic今年已经先后和:

亚马逊
谷歌
微软
英伟达
现在又加上SpaceX

签了大量算力协议。

甚至包括:

与Amazon签5GW级别合作
与Google/Broadcom类似规模合作
微软Azure提供300亿美元级别算力支持

本质上,现在最核心竞争力已经变成:
“谁能持续拿到足够多GPU和电力”。

第二,马斯克其实也在逐渐接受:
“卖算力比自己训练模型更挣钱”。

文章里很关键的一句是:

Grok使用量明显落后Claude和ChatGPT,所以SpaceX开始把“多余算力”租给竞争对手。

这其实很像云计算早期逻辑。

亚马逊最开始也是自己内部IT能力太强,最后发现:
“把基础设施租出去”反而成为AWS。

现在AI行业也在出现类似趋势:

未来真正赚钱的,未必只有模型公司,还可能包括:

GPU资源提供方
数据中心
电力
光通信
网络基础设施

第三,现在AI产业已经越来越像“超级资本密集型行业”。

以前互联网创业:
几十个人、几台服务器就能做产品。

现在顶级AI公司:

几百MW
数十万GPU
数百亿美元CapEx
已经开始接近传统能源、铁路、运营商行业。

文章里甚至提到:

SpaceX未来还计划建设“轨道AI算力”,也就是把数据中心放到太空。

听起来很科幻,但背后核心问题其实很现实:

地球上的电力、土地、散热,已经越来越难满足AI扩张速度。

第四,这也说明市场之前低估了Claude的真实需求。

最近很多人都在吐槽Claude限流严重、体验下降,但本质上不是产品没人用,而是需求增长太快,算力不够。

FT评论区甚至有人说:
以前一次能上传5个文件,现在只能上传1个。

这其实反而侧面说明:
高质量模型的需求量正在爆炸式增长。

所以现在整个AI产业越来越像:
“谁能拿到更多GPU、电力和数据中心,谁才能继续扩张。”

本文来自网络,不代表博海拾贝立场,转载请注明出处:https://www.bohaishibei.com/post/109176/
关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
Telegram
返回顶部