Plataforma X Implementa Rotulagem Obrigatória para IA e Sanções para Conteúdos de Guerra Não Declarados

Editado por: Tatyana Hurynovich

A rede social X, anteriormente reconhecida mundialmente como Twitter, deu um passo significativo na regulação de mídia sintética ao implementar um sistema de marcação automática obrigatória para conteúdos gerados por inteligência artificial (IA). Esta nova diretriz exige que qualquer material visual ou em vídeo identificado como de origem sintética receba imediatamente o rótulo «Criado com inteligência artificial» logo após o carregamento, caso o sistema detecte a sua natureza artificial. O objetivo central desta iniciativa é reforçar a transparência e combater a propagação de desinformação, permitindo que os utilizadores avaliem com maior precisão a veracidade das informações que consomem, especialmente em momentos de alta tensão geopolítica, como os recentes episódios no Médio Oriente que geraram um aumento de conteúdos manipulados.

Além da exigência de rotulagem geral, a plataforma X endureceu drasticamente as suas políticas para conteúdos de IA não identificados que retratem conflitos militares e ações de guerra. Nikita Bier, o atual chefe de produtos da X, anunciou que os criadores que ignorarem estas regras enfrentarão penalizações financeiras severas e imediatas. Na primeira infração detectada, o autor do conteúdo será suspenso por um período de 90 dias do Programa de Partilha de Receitas para Criadores. Caso ocorram violações repetidas, a plataforma prevê o cancelamento permanente de todos os direitos de monetização do utilizador infrator. Para lidar com imagens onde a distinção entre a realidade e a síntese digital é particularmente difícil, a rede utilizará o sistema de verificação baseado na comunidade, conhecido como Community Notes.

Esta abordagem multifacetada, que combina a etiquetagem automática com sanções rigorosas para conteúdos bélicos, reflete o compromisso da X em estabelecer uma regulação mais clara para os meios de comunicação sintéticos no seu ecossistema digital. Estas medidas são também apresentadas como parte de uma estratégia mais ampla para estabilizar as receitas publicitárias, procurando aumentar a confiança dos anunciantes através de uma maior transparência na plataforma. É importante notar que estas inovações surgem num contexto de desafios regulatórios anteriores que envolveram diretamente o Grok, o chatbot de inteligência artificial proprietário da X.

Em janeiro de 2026, as restrições em torno do Grok foram intensificadas devido à geração de deepfakes e conteúdos impróprios, o que provocou uma forte reação e um debate internacional sobre ética digital. Em resposta a estes incidentes, a Comissão Europeia, utilizando os seus poderes ao abrigo da Lei dos Serviços Digitais (DSA), determinou que a X deve preservar todos os dados internos relativos ao Grok até ao final de 2026. Esta exigência funciona como uma medida preventiva para garantir que a Comissão tenha acesso total à documentação necessária em futuras auditorias. Vale destacar que Nikita Bier, o responsável pela execução destas políticas, possui um histórico de sucesso no setor tecnológico, tendo fundado as aplicações virais Gas e TBH, que foram adquiridas pelo Discord e pelo Facebook, respetivamente.

Enquanto a X avança com a rotulagem obrigatória e sanções financeiras através da suspensão da monetização, outras gigantes tecnológicas já trilharam caminhos semelhantes para conter a desinformação. A Meta implementou requisitos análogos em 2024, e o YouTube já exige a divulgação de informações detalhadas sobre conteúdos alterados ou sintéticos. As ações recentes da X representam uma mudança significativa para a formalização de padrões de transparência em relação ao conteúdo sintético, respondendo diretamente à pressão pública e ao crescente peso regulatório na era da inteligência artificial generativa.

A implementação destas ferramentas de detecção automática visa criar uma camada adicional de segurança, reduzindo a carga sobre a moderação humana e acelerando a identificação de mídias potencialmente enganosas em tempo real. Ao integrar o sistema Community Notes no processo de verificação de imagens de guerra, a X aproveita a inteligência coletiva para validar informações complexas que os algoritmos podem não captar totalmente. Esta estratégia híbrida é vista por especialistas como uma tentativa de equilibrar a inovação tecnológica com a responsabilidade editorial necessária para manter a integridade da plataforma em tempos de crise global e incerteza informativa.

12 Visualizações

Fontes

  • Teknolojioku

  • HaberGo - Türkiye haberleri

  • Dünya Gazetesi

  • Doğruhaber

  • PEKY

  • TGRT Haber

Encontrou um erro ou imprecisão?Vamos considerar seus comentários assim que possível.