X平台推行人工智能内容强制标记新规:未披露战争相关AI内容将面临严厉制裁
编辑者: Tatyana Hurynovich
社交媒体巨头X(前身为Twitter)已正式启动一套强制性的自动标记系统,专门针对由人工智能(AI)生成的内容进行监管。这一举措的核心目的是提升平台信息的透明度,并有效遏制虚假信息的蔓延。根据最新规定,一旦系统识别出用户上传的视觉或视频素材具有合成来源,用户必须在发布时立即将其标记为“由人工智能创作”。此举旨在为广大用户提供必要的辨别工具,使他们能够更准确地评估信息的真实性,尤其是在全球地缘政治局势紧张、操纵性内容频发的背景下,例如近期中东地区的动荡局势所引发的虚假信息浪潮。
除了通用的标记要求外,X平台还针对涉及军事行动和冲突的未标记AI内容制定了更为严苛的惩罚政策。X产品负责人尼基塔·比尔(Nikita Beer)明确表示,违反此类规定的内容创作者将面临沉重的经济代价。若系统首次发现用户未遵守规则,相关账号将被暂停参与“创作者广告收益分享计划”长达90天;而对于屡教不改的重复违规者,平台将采取永久取消其所有获利资格的极端措施。针对那些肉眼难以分辨真伪的合成图像,X将动用其基于社区的核查系统“社区笔记”(Community Notes)进行多重验证,以确保事实的准确性。
这种结合了自动标签技术与针对战争相关内容严厉制裁的多层次监管模式,充分展示了X平台在其生态系统中规范合成媒体的决心。这些措施不仅是技术层面的更新,更是其稳定广告收入战略的关键一环,旨在通过增强平台的透明度和公信力来重塑广告商的信心。这一系列变革的背景与X旗下的人工智能聊天机器人Grok此前遭遇的监管困境密切相关,反映了平台在平衡技术创新与社会责任方面的努力。
回溯至2026年1月,由于Grok生成的深度伪造(deepfakes)和不当内容引发了国际社会的广泛关注,相关限制措施被进一步收紧。受此影响,欧盟委员会依据《数字服务法案》(DSA)授予的权力,强制要求X平台必须保留所有涉及Grok的内部数据直至2026年底。这一预防性措施确保了监管机构能够随时调取相关文档进行审查。值得注意的是,现任产品负责人尼基塔·比尔在社交应用领域拥有深厚背景,他曾创办了病毒式应用Gas和TBH,并分别将其出售给了Discord和Facebook等科技巨头。
在X平台推行强制标记和经济制裁的同时,其他主流社交平台如Meta也已在2024年实施了类似的要求,而YouTube同样要求创作者披露经过修改或合成的内容。X的最新行动标志着社交媒体行业在规范合成内容披露标准方面迈出了重要一步。在生成式人工智能飞速发展的时代,这既是对公众舆论压力的积极回应,也是为了应对日益沉重的全球监管负担,力求在复杂的数字环境中构建一个更加真实、透明的信息传播体系。
12 查看
来源
Teknolojioku
HaberGo - Türkiye haberleri
Dünya Gazetesi
Doğruhaber
PEKY
TGRT Haber
阅读更多关于该主题的新闻:
你发现了错误或不准确的地方吗?我们会尽快考虑您的意见。



