哈喽大家好,今天小无带大家聊聊AI圈的新风向。
现在AI圈看着热闹,实则藏着个大难题,尤其是具身智能这块,简直是卡壳卡得死死的。之前大家都以为搞AI拼的是算力,服务器堆得够多就行,结果硅谷大佬一句话点破真相:真正的瓶颈是训练数据,不是算力!
缺数据比缺算力还头疼
这话真没掺水。2023年4月到2024年4月,网站严打数据抓取,5%的整体数据都拿不到手,要是单算有用的训练数据,足足25%都没法用。
就连OpenAI都急得没办法,专门雇了几千个专业人士手写答案给AI练手,这操作够笨的,但也能看出数据有多缺。
更坑的是具身智能的训练模式,现在各地搞的训练中心,说白了就是工作人员手把手拽着机器人重复动作,跟教三岁小孩做操似的,又慢又贵。
更要命的是“数据孤岛”,你家机器人采集的数据,别家的根本用不了,就因为长得不一样。
看看数据对比就知道差距多大:文本数据有15TTokens,图像数据6BImage-TextPairs,视频也有2.6BAudio/VisualFeatures,偏偏具身智能才2.4MEpisodes,这点数据够干啥的?
再加上现在数据合规管得越来越严,优质数据越来越难拿,整个行业都卡在这了。
视频秒变机器人教科书
就在全行业都犯愁的时候,深圳一群年轻人站了出来,就是枢途科技的团队,平均年龄不到28岁,核心成员全是清华、上交、美国佐治亚理工这些名校的技术大牛。
这群人没走寻常路,寻思着:人学本事都是看别人做,机器人为啥不行?于是搞出个叫SynaData的神器,能把网上的普通2D视频,直接变成机器人能学的3D训练数据。
这技术牛就牛在两点,首先是精度够狠,以前视频重建误差得有±5厘米,现在直接压到±5毫米,差了10倍!就拿餐具分拣来说,以前机器人可能抓空,现在毫米级精度,一抓一个准。
其次是能打破数据孤岛,通过动态结构适配算法,不同形态的机器人都能共享同一数据源,模仿误差降了50%,任务成功率提了40%,再也不用各玩各的小圈子了。
数据才是AI真护城河
这技术一出来,资本圈直接炸了锅。2024年12月,奇绩创坛的陆奇博士第一个出手投资;
2025年8月,英伟达直接认可是“具身训练数据新范式”,还把它的数据跟自己的IsaacSim平台打通,实现了从视频到模型训练的全流程。
9月更厉害,拿了高通创投-红杉中国创业大赛冠军,紧接着就完成天使轮,没过俩月又搞了天使+轮,辰韬资本独家投的,这速度简直跟开了挂一样。
合着这行业早就变天了,以前拼算力,现在拼数据,数据才是AI时代真正的护城河。
现在大家都明白,数据已经不是辅助资源了,而是核心基础设施,尤其是具身智能这种场景复杂的领域,没有可规模化的数据体系,想落地根本是空谈。