昨晚两点,我盯着手里那台重得像砖头的AR眼镜,心里只有一个念头:这玩意儿到底是给人用的,还是给人练臂力的?

做了六年大模型,我见过太多PPT造车,也见过太多把LLM(大语言模型)硬塞进AR眼镜里的“缝合怪”。现在的AR大模型行业现状,说好听点是“黎明前的黑暗”,说难听点,就是“在沙滩上盖摩天大楼”——地基都没打稳,楼盖得再高也是晃。

咱们先说个真事儿。上个月我去一家头部AR硬件厂做咨询,老板拉着我去体验他们最新的原型机。那眼镜确实轻了,大概200克左右,但运行本地小模型时,电池半小时就没影了。为什么?因为算力全耗在推理上了。这时候如果加上云端大模型的实时交互,延迟直接飙到两秒以上。两秒什么概念?你说话,对方两秒后回你,这对话还怎么聊?尴尬得能抠出三室一厅。

很多人觉得,有了大模型,AR就能无所不能。错。现在的AR大模型行业现状,最大的痛点不是模型不够聪明,而是“场景太窄”。

你看现在的案例,大多还是停留在“识别个杯子”、“翻译个路牌”这种初级阶段。稍微复杂点,比如“帮我规划一条避开拥堵且风景好的骑行路线”,眼镜里的3D渲染就要卡成PPT。我见过一个创业团队,试图用多模态大模型做AR导航,结果因为地图数据更新不及时,模型硬是把一条死胡同渲染成了“未来风格的艺术长廊”。用户戴着它走进去,差点撞墙上。这哪是智能?这是智障。

而且,现在的开发者也很痛苦。你想在大模型里做AR空间计算?难。Unity和Unreal引擎还在跟大模型的接口打架,Prompt工程在3D空间里根本不好使。你让AI画个桌子,它画得再漂亮,如果不符合透视关系,在AR里看着就是飘在半空中的鬼画符。这种“视觉欺诈”,用户戴十分钟就头晕,谁还愿意买单?

再看看数据。虽然市面上号称AR+AI的项目不少,但真正跑通商业闭环的,一只手都数得过来。大部分公司还在烧钱做Demo,等着下一轮融资。我有个朋友,去年辞职做AR大模型应用,现在还在用兼职收入付房租。他说:“不是技术不行,是用户不买账。大家觉得这眼镜除了装酷,没啥用。”

这话扎心,但真实。

现在的AR大模型行业现状,就像是一个刚学会走路的孩子,被塞上了一双溜冰鞋。他想跑,但腿脚不听使唤。硬件厂商在卷重量、卷视场角,软件厂商在卷参数、卷推理速度,但两边没对齐。硬件没提供足够的边缘算力,软件又没法完美适配云端延迟。这就导致了一个尴尬的局面:体验割裂。

不过,我也不是完全悲观。我发现一些细分领域开始有起色了。比如工业维修、远程协作。这些场景对实时性要求没那么高,而且用户容忍度高。我最近帮一家制造企业做的AR辅助维修系统,利用大模型生成维修步骤,配合眼镜显示,确实帮他们减少了30%的培训时间。这才是AR大模型该有的样子:不炫技,只解决问题。

所以,别指望明年就能戴上像普通眼镜一样的AR设备,随时随地跟AI聊天。那至少还得再等个三五年。现在的我们,得耐得住寂寞,去啃那些硬骨头:怎么让模型更轻量,怎么让渲染更流畅,怎么找到那些非To C的刚需场景。

AR大模型行业现状,不是泡沫破裂,而是泡沫沉淀。剩下的,才是真金。咱们这些从业者,与其天天喊风口,不如低头看看脚下的泥,想想怎么把每一步踩实了。毕竟,路是人走出来的,不是AI算出来的。