说实话,刚看到“ChatGPT烧光了40亿”这个新闻的时候,我第一反应是:这帮搞AI的疯了吧?四十亿美金啊,那是多少?我这种在行业里摸爬滚打八年的老狗,虽然不算大富大贵,但也见过不少钱。但这数字砸下来,还是让人心里咯噔一下。
很多人以为大模型就是写写代码、聊聊天,成本能有多高?天真。太天真了。
咱们今天不整那些虚头巴脑的财报分析,就聊聊这四十亿美金到底是怎么没的。我最近跟几个做算力的朋友喝酒,他们吐的苦水比我还多。
首先,你得知道训练一个像样的大模型,不是你在家里笔记本上跑个Python脚本那么简单。那是真金白银的GPU集群在轰鸣。英伟达的H100,一张卡多少钱?十几万美金。OpenAI为了训练GPT-4,那是成百上千张卡同时跑,日夜不休。
电费,是个无底洞。
你想想,那些数据中心,24小时恒温,风扇呼呼转,电力消耗堪比一个小城市。这还不算完,硬件折旧也是个大头。芯片更新换代太快了,今天还是最先进的,明天可能就落伍了。这种贬值速度,传统行业根本没法比。
再说说数据清洗。你以为直接喂给模型就行?错。大错特错。
原始数据里全是垃圾、偏见、错误信息。你得花大量人力去清洗、标注、去重。这个过程枯燥、繁琐,还特别烧钱。有时候为了提升模型一点点智商,得投入几个月的人力成本。这钱,看不见摸不着,但确实烧了。
还有研发人员工资。顶级AI科学家,年薪百万美金起步,这还是保守估计。为了留住这些天才,OpenAI得砸钱。毕竟,谁不想让自家模型更聪明、更听话、更少幻觉呢?
所以,ChatGPT烧光了40亿 美元,真不是夸张。这是硬成本,是技术迭代必须交的学费。
有人问,那用户免费用,OpenAI图啥?
图未来。
现在的免费,是为了培养用户习惯。等大家都离不开AI助手了,再慢慢变现。订阅制、API调用、企业定制,这些都是后话。但在那之前,你得先让模型足够强大,强到让人离不开。
我有个客户,之前不信AI,觉得就是噱头。现在呢?天天催着我要接入他们的业务系统。为什么?因为效率提升了。客服响应快了,代码生成准了,数据分析快了。这些实实在在的效率提升,才是AI的价值所在。
当然,我也得说句公道话。这四十亿烧得值不值?短期看,亏得底掉。长期看,如果OpenAI能垄断市场,或者建立起足够的技术壁垒,那这钱就算投资了。
但风险也大。万一技术路线错了呢?万一有更好的模型出现呢?万一监管突然收紧呢?这些都是不确定性。
所以,别光盯着那四十亿美金哭。要看到背后的技术突破。大语言模型的能力边界在拓展,人机交互的方式在改变。这才是关键。
咱们普通人,不用纠结OpenAI亏不亏。我们要关注的是,怎么用这个工具提升自己的效率。别等别人都用上了,你还在用老办法干活。
最后说句实在话,AI这行,水很深。别被那些“颠覆世界”的口号忽悠了。脚踏实地,用好工具,才是正道。
ChatGPT烧光了40亿 美元,这只是开始。后面的故事,才更精彩。
咱们走着瞧。