本文关键词:chatGPT开医院
昨晚我又熬了个大夜,不是加班,是失眠。刷到个新闻,说某科技巨头要搞“chatGPT开医院”。我差点把刚泡好的枸杞水喷屏幕上。
这都2024年了,怎么还有人信这种鬼话?
我在医疗大模型这行混了12年。从最早的规则引擎,到现在的生成式AI,我见过太多PPT造车,也见过太多概念炒作。但这次,我真的有点恼火。
很多人觉得,AI能看病,能开药,还能陪聊,比医生强多了。
扯淡。
昨天有个粉丝私信我,说他用AI助手查了个头痛,AI让他吃布洛芬。他吃了,结果第二天晕倒在路边。去医院一查,脑出血前兆。
如果当时有个活生生的医生,哪怕是个实习生,只要听他描述一下“头痛伴随恶心”,稍微问两句,就能发现不对劲。
但AI不会。AI只会根据概率,给你匹配最常见的病因。
这就是chatGPT开医院最大的bug:它懂知识,但不懂人。
我见过太多患者,对着手机屏幕,把症状说得模棱两可。AI为了“礼貌”和“安全”,往往只会给出一堆模棱两可的建议,或者干脆让你去医院。
这有什么用?
如果结果都是让你去医院,那我要这个AI干嘛?
当然,我不是全盘否定AI。在影像科,在病理分析,在病历结构化整理上,AI确实厉害。它能在一秒钟内看完几百张CT片,找出人类肉眼忽略的微小结节。
这时候,AI是医生的好帮手,而不是替代者。
但“开医院”?
医院是什么地方?是充满人性关怀、复杂决策、伦理博弈的地方。
你想想,如果一个冷冰冰的算法,告诉你“根据大数据,你的病治愈率只有10%,建议放弃治疗”,你会怎么想?
医生会说:“虽然概率低,但你有这个希望,我们一起试。”
这就是温度。AI给不了。
而且,责任谁担?
如果AI开错了药,死了人,找谁?找写代码的程序员?找训练数据的工程师?还是找那个没有法人资格的AI?
法律还没跟上,伦理还没理顺,资本就急着跳进来收割韭菜。
我最近就在想,所谓的chatGPT开医院,可能根本不是指AI独立行医,而是指一种新的医疗模式。
比如,AI做初筛,医生做确诊。
AI做随访,医生做治疗。
AI做科普,医生做干预。
这才是现实的路径。
但现在的宣传,故意模糊了这个界限。他们用“替代”、“颠覆”这种词,制造焦虑,吸引流量,最后卖课、卖软件、卖服务。
我讨厌这种套路。
医疗是生命攸关的事,容不得半点戏谑和夸大。
我有个朋友,是三甲医院的主治医师。他说,现在患者来问诊,第一句话往往是:“医生,我查了AI,它说是这个病。”
然后拿着打印出来的AI对话记录,质问医生为什么不开这个药。
医生很无奈。
因为AI给出的建议,往往是基于“理想状态”下的标准诊疗指南,而现实中的患者,有并发症,有过敏史,有经济压力,有心理因素。
这些变量,AI很难完全捕捉。
所以,别指望chatGPT开医院。
至少在未来十年内,不可能。
我们需要的,不是AI取代医生,而是医生学会用AI。
让AI处理那些重复、枯燥、数据量大的工作。
让医生回归到“人”的本质,去倾听,去共情,去做出那些充满不确定性的、但充满希望的决策。
这才是医疗该有的样子。
如果你还在迷信AI能独立看病,那我劝你,趁早去挂个号。
别拿自己的身体,去给科技公司的财报做实验。
这行水太深,别趟。