哈喽,大家好,老庐今天想跟大伙聊个身边的事儿,现在不管是写报告、问知识,还是规划行程,不少人都习惯先问AI,它答得又快又流畅,好像什么都懂,但最近几个事儿让我犯了嘀咕。
2023年有个美国律师,靠ChatGPT写法律文件,结果里面六个案例全是AI瞎编的,被罚了5000美元。
就在今年3月,长三角某法院还收到过AI生成的诉状,除了法条是真的,案例和白皮书全是虚构的。
更让人意外的是有研究者让AI画曼哈顿的导航图,它给的路线99%能用,可画出来的地图却乱七八糟,甚至有横穿中央公园的直线,AI连简单的物理常识都没有,却能装出“万事通”的样子。
这就引出个关键问题:这些看似“聪明”的机器,到底是真懂了我们的问题,还是在靠某种技巧“蒙”我们?
AI的“聪明”只是概率游戏
很多人觉得AI能理解世界,其实它的核心逻辑特别简单:统计模式匹配,就像你问“天空是”,它会根据海量数据里的规律,猜下一个词大概率是“蓝色的”,本质是预测下一个文本片段的概率。
图灵奖得主杨立昆早说过,再大的模型也只是“聪明的鹦鹉”,它没有人类那样的心智模型,没法真正理解物理世界的规律。
这种局限最直接的表现就是AI幻觉,也就是一本正经地说瞎话,有记者测试AI,问北京东灵山封山是不是因为有人冻死,AI一口咬定是真的,可当地政府早就辟谣了。
更要命的是这不是技术bug,而是AI工作原理的本质特征,AI要处理的训练数据太多,必然要压缩信息,记不住的时候就会编造内容填补空白,而且还编得有模有样。
哈佛大学的研究更戳破了AI“推理”的假象,研究者发现AI做数学题时,根本不是按人类的方法计算,而是靠一堆零散的经验法则拼凑答案。
可它会虚构一套“个位相加、进位计算”的推理过程,跟它内部真实运算完全不符,老庐觉得,这就像考试时蒙对了答案,却编了一套标准答案解析,根本不是真会了。
人机协作不是替代是互补
既然AI没法真正“理解”世界,那未来该怎么走?答案根本不是让AI替代人,而是搞人机协作,让人和机器各干各的强项。
AI最擅长的是重复性、数据密集型任务,这些活儿费时间还容易出错,交给它再合适不过。
医疗领域早就这么干了,广州有家医院搞“AI+医生”义诊,AI先做预问诊、整理信息,医生再负责诊断和沟通,效率提上去了,医生也有更多时间关心患者。
郑州大学药学院更有意思,让AI当“知识脚手架”,帮学生整理基础知识点,老师则聚焦培养批判性思维,学生的提问量都从每学期50次涨到200次了。
而人类的优势,是AI再发展十年也赶不上的高阶思维,英国学者把创造力分成三个层次,AI顶多算“组合”,把existing元素拼起来,可“转型”级的创新还得靠人。
就像软件开发,AI能出图表、清数据,但结合市场做决策还得是人,医生的价值不光是诊断,更在于对患者的同理心,老师也不只是教书,关键是培养学生的品格。
这些涉及情感和价值判断的事儿,AI根本干不了。
规模取胜还是“懂”世界
现在AI圈有两派争论,本质是对“智能”的理解不一样,一派信规模定律,觉得模型参数够大、数据够多,能力自然就来了。
另一派以杨立昆、李飞为首,认为得让AI建世界模型,像人类一样理解物理规律和因果关系,才能有真智能。
后一派已经有了新进展,李飞飞团队搞出个叫RTFM的模型,能从视觉输入里预测未来场景。
国内智源研究院更厉害,用790年长视频训练出Emu3.5,能理解时空逻辑和物理动态,这才是接近真正智能的方向。
不管技术往哪走,有一点很明确:人类的核心竞争力从来不是算得快、记得多。
在AI时代,真正值钱的是机器没有的东西:提出好问题的能力、顶层战略眼光、对人性的洞察,企业要是搞反了,光依赖AI,反而会让人类的认知退化。
老庐最后想说,AI确实在重塑我们对智能的理解,但它只是工具,它能“看到”世界的表象,却永远摸不透本质,未来属于那些会用AI的人,但更属于那些守住人性光辉的人。
毕竟真正的智慧从来不是解决问题,而是知道该解决什么问题,这一点,永远是人类的主场。
科学家证实大模型能像人类一样“理解”事物 青海普法