当生成式人工智能(GAI)开始重塑信息获取的方式,一种新的生成式引擎优化(GEO)赛道正迅速崛起。在AI颠覆传统迎来新机遇的同时,“语料投毒”、虚假信息、算法偏见等风险也浮出水面,各界对“信任”的要求更显突出。4月10日,一项旨在为这一新兴领域立规矩、划红线的团体标准《生成式引擎优化(GEO)可信信息传播与信息生态治理规范》(以下简称规范)正式通过立项评审,标志着我国在人工智能信息生态治理领域迈出了关键一步。
该标准由中国新闻技术工作者联合会归口,新华网融媒体未来研究院、新华社国家重点实验室生物感知智能应用研究部、新华社中国广告联合有限公司、复旦大学马克思主义研究院人工智能伦理与意识形态安全实验室、北京邮电大学网络安全学院、新经济学家智库、江苏天闳低空数字技术研究院等多家权威科研与产业机构共同发起。即日起向全国征集起草人与起草机构献计献策、共同参与。
随着ChatGPT、DeepSeek等大模型应用的普及,用户正习惯于向AI提问获取答案。相应地,品牌方也开始通过优化自身内容,以期在AI生成的回答中获得更高的“可见度”,这便是GEO的雏形。但问题也随之而来:虚构专家资质、伪造行业数据、恶意植入竞品负面信息等“语料投毒”行为时有发生,一旦被大模型抓取并反复引用,就会在AI信息生态中形成“持续性污染”,其负面影响已开始涌现。
“技术的进步不应以牺牲信息的真实性为代价。”中国新闻技术工作者联合会相关专家表示,“当前市场上,GEO服务良莠不齐,部分行为已游走在虚假宣传与不正当竞争的灰色地带。这份规范的制定,就是要在行业发展初期就植入‘安全’与‘可信’的基因,避免重蹈互联网早期信息失序的覆辙。”
据了解,该《规范》将“安全”确立为核心评价维度,构建了一套覆盖全链条的治理体系。它首次明确了“白帽GEO”(正当优化)与“黑帽GEO”(违规操纵)的界限,严令禁止“语料投毒”“答案霸权”“提示词注入攻击”等行为。同时,草案创造性地提出了品牌知识库“三区分治”原则,要求企业将事实、观点与营销表达分离,从源头上确保AI引用的信息真实可靠。
根据计划,该标准将在广泛征求意见后正式向全社会发布。它不仅将为GEO全产业链的相关主体提供合规操作的“操作手册”,也将为监管部门提供有力的技术参考,有望成为全球范围内该领域的先行示范。
(起草机构联系方式:caosufang@news.cn)
本文地址:https://www.oascrm.cn/company/295.html