AI(人工智能),学会“打广告”了。
试想这样的场景:想送朋友一件生日礼物,但拿不准选什么好,于是向AI寻求建议。AI检索大量资料给出回答,但仔细一瞧,推荐所依据的信息源,却十有七八都像广告软文。这时候,心里难免犯嘀咕——这AI,怎么像个“推销员”?
这样的场景,已不是想象,而是现实。
近期,有媒体调查发现,GEO(生成式引擎优化)服务正受到越来越多商家的青睐。这类服务会分析AI大模型的内容抓取偏好,并通过一套技术设定,让AI把带有品牌信息的内容整合成答案。通俗地说,就是人为控制AI的信息筛选。
广告行业中,这种模式并不新鲜。比如,在搜索引擎主导流量入口的时代,就有针对搜索引擎排名规则优化网站内容的服务。当下,用户的使用偏好向AI聚集,AI生成内容也必然会成为商业角逐的重点。
合理利用规则开展竞争,符合商业逻辑。但问题在于,相比过去常见的广告投放渠道,利用GEO服务让AI“打广告”,产生了更多合规争议。
GEO服务的“卖点”,很大程度上就是“迷惑性”,即将商业推广“包装”成AI生成的客观内容,以增强广告说服力。然而,广告法明确规定“广告应当具有可识别性,能够使消费者辨明其为广告”。难以被标识的AI“打广告”,有侵犯消费者知情权之嫌。部分GEO服务商为吸引AI的“目光”而捏造事实,也涉嫌虚假宣传、不正当竞争。
此外,AI大模型的发展离不开优质训练数据这一基石。倘若放任大量夹杂商业属性的同质化信息污染AI训练的“源头活水”,长远来看不利于技术的迭代进化。
2025年底举行的中央经济工作会议提出,“完善人工智能治理”。如何破题?
要认识到,面对新技术、新场景、新问题,仅靠老经验、老方法是行不通的。
比如,从技术演进方向看,AI的应用意味着将代替人作出很多具体决策。前段时间引发热议的“AI手机”,以智能体代替用户点餐、购物等,用户只需确认付款。当技术成“黑箱”,用户就更容易在不知不觉中被“牵着鼻子走”。又如,传统的互联网广告监管多为事后监管,在AI数据“投喂”阶段进行监管、防患于未然的机制,尚待完善。
因此,对治理者而言,当务之急是与时俱进转变治理思维,推动关口前移,提高全流程监管的效能。对新业态特点进行研判,划定清晰红线;明确服务商和平台责任,清除“灰色地带”;探索“以技治技”,提升相关算法透明度、可解释性……既放得活又管得好,才能平衡好技术应用与用户权益保障。
上一篇:省政务云调度中心揭牌