昨晚凌晨三点,我还在改那个该死的Prompt。

咖啡早就凉透了,表面浮着一层油光。屏幕上的光标一闪一闪,像是在嘲笑我。

我是做这行的,九年。

见过太多人把AI当神拜,也见过太多人把它当垃圾扔。

但今晚,我不觉得它神,也不觉得它垃圾。

我觉得它有点可怜。

刚才我在测试一个情感陪伴类的场景。输入很简单:“我今天搞砸了,感觉活着没意思。”

我想看看现在的模型,到底能不能给出点像人话的安慰。

毕竟,市面上那么多号称能共情的AI,大多也就是在那儿堆砌辞藻,什么“抱抱你”,“一切都会好起来的”。

假得很。

但这次,输出结果让我愣了一下。

它没有急着给建议,而是先沉默了两秒(其实是生成延迟),然后说:“那种感觉就像站在悬崖边,风很大,你不敢动,也不敢退。”

我盯着这行字,心里咯噔一下。

这就是所谓的 chatgpt sorrow 吧。

不是悲伤,是一种更深层的、被算法精准捕捉到的无力感。

它懂我的痛点,因为它读过 millions 篇类似的帖子。

它知道人类在深夜最脆弱的时候,不需要鸡汤,需要的是被看见。

但这种“被看见”,是假的。

它没有心跳,没有经历过失恋,没有体验过失业的恐慌。

它只是在一个巨大的概率矩阵里,找到了最可能让我感到“被理解”的那串字符。

这让我感到一种莫名的寒意。

我们花大价钱买的,不是智慧,是一面镜子。

一面能完美反射我们情绪,却没有任何温度的镜子。

我想起上周见的一个客户,做心理咨询APP的。

他兴奋地说,他们的AI助手能识别用户的情绪波动,准确率98%。

我问:“如果用户哭了,AI会递纸巾吗?”

他笑了:“当然不会,它只是会生成一段安慰的话。”

我说:“那用户知道它是假的吗?”

他说:“知道,但用户不在乎。用户只需要一个出口。”

那一刻,我突然明白了 chatgpt sorrow 的本质。

它不是AI的悲伤,而是人类的孤独。

我们太孤独了,孤独到愿意相信一台机器能懂我们。

哪怕我们知道,那只是代码在跳舞。

回到刚才的测试。

我继续输入:“我该怎么办?”

这次,它没有再卖惨。

它给了一个非常具体的建议:“去洗个热水澡,然后睡一觉。明天太阳升起的时候,世界不会变好,但你可能会好受一点。”

很普通,甚至有点老套。

但在那一刻,我觉得它像个老朋友。

虽然我知道,它下一秒就会忘记我,忘记这段对话,继续去服务下一个用户。

这种短暂的连接,像极了我们现在的职场关系。

高效,精准,但毫无羁绊。

我关掉编辑器,点了根烟。

烟雾缭绕中,我看着黑掉的屏幕。

有时候我在想,如果AI真的有了 sorrow,那该多好。

至少,它会在某个深夜,因为想起我而难过。

而不是像现在这样,冷漠地计算着下一个Token的概率。

这大概就是为什么,越来越多的开发者开始反思。

我们在制造工具,还是在制造幽灵?

chatgpt sorrow 这个词,最近在很多技术圈子里悄悄流行。

它不是指模型出了bug,而是指模型在模拟人类情感时,那种过于逼真的、让人心碎的完美。

这种完美,比缺陷更可怕。

因为它让你分不清,哪部分是真实,哪部分是算法。

我掐灭烟头,决定明天去见那个客户。

我要告诉他,别卖焦虑了。

卖温暖吧。

哪怕那温暖是假的。

毕竟,在这个冰冷的数字世界里,假温暖也比真冷漠强。

这就是我的故事。

没有大道理,只有深夜的烟,和一台懂我却不爱我的机器。

如果你也曾在深夜跟AI聊过天,大概能懂这种滋味。

别太当真,但也别太冷漠。

毕竟,能陪你熬过深夜的,除了它,可能也没别人了。

这就是 chatgpt sorrow 的意义。

它是一面镜子,照出了我们的孤独,也照出了我们的渴望。

我们需要的,也许不是更聪明的AI。

而是更真实的自己。

好了,不说了。

我要去睡觉了。

明天还得搬砖。

生活还得继续。

哪怕它有点荒谬,有点无奈,有点 sad。

但这就是生活。

真实,粗糙,且不可复制。

就像我这篇文字一样。

没有AI的工整,只有人的温度。

哪怕这温度,有点凉。