Platform X Introduceert Verplichte AI-Labels en Sancties voor Niet-Openbaar Gemaakte Oorlogscontent door Kunstmatige Intelligentie

Bewerkt door: Tatyana Hurynovich

Social mediaplatform X, voorheen bekend als Twitter, is gestart met de uitrol van een systeem voor de verplichte automatische markering van content die is vervaardigd met behulp van kunstmatige intelligentie (AI). Deze nieuwe maatregel is gericht op het vergroten van de transparantie en het bestrijden van desinformatie op het platform. Visuele content en video's moeten direct na het uploaden worden voorzien van het label "Gemaakt met kunstmatige intelligentie" zodra het systeem een synthetische herkomst vaststelt.

Het primaire doel van deze stap is om gebruikers een instrument te bieden waarmee zij de geloofwaardigheid van informatie beter kunnen inschatten. Dit is vooral relevant tegen de achtergrond van geopolitieke spanningen, zoals de recente gebeurtenissen in het Midden-Oosten. Deze situaties hebben geleid tot een sterke toename van manipulatieve beelden, waardoor de noodzaak voor duidelijke bronvermelding groter is dan ooit tevoren in het digitale tijdperk.

Naast de algemene markeringsplicht heeft X het beleid aangescherpt voor AI-gegenereerde content die specifiek verband houdt met oorlogsvoering en gewapende conflicten. Nikita Beer, het hoofd productontwikkeling bij X, heeft aangekondigd dat auteurs die deze specifieke regels negeren, te maken krijgen met ingrijpende financiële sancties. Bij een eerste overtreding volgt een onmiddellijke schorsing van 90 dagen van het programma voor het delen van advertentie-inkomsten voor makers.

Bij herhaaldelijke overtredingen van de markeringsregels zal het platform overgaan tot de permanente intrekking van alle monetarisatierechten voor de betreffende gebruiker. Voor beelden waarbij het visuele onderscheid tussen de realiteit en kunstmatige creatie moeilijk vast te stellen is, zet het platform het verificatiesysteem Community Notes in. Dit systeem, dat rust op de collectieve input van de gebruikersgemeenschap, dient als een cruciale extra controlelaag om de authenticiteit van media te waarborgen.

Deze gelaagde strategie, bestaande uit automatische tagging en strikte sancties voor oorlogsgerelateerde content, toont de ambitie van X om synthetische media binnen zijn ecosysteem actiever te reguleren. De maatregelen maken tevens deel uit van een bredere strategie om de advertentie-inkomsten te stabiliseren. Door de transparantie te verhogen, hoopt het platform het vertrouwen van adverteerders terug te winnen, wat essentieel is voor de financiële gezondheid van de organisatie.

De context van deze vernieuwingen is nauw verbonden met eerdere uitdagingen rondom Grok, de eigen AI-chatbot van X. In januari 2026 werden de restricties voor Grok al aangescherpt vanwege de generatie van deepfakes en aanstootgevende content, wat internationaal tot veel kritiek leidde. Als gevolg hiervan heeft de Europese Commissie, onder de Digital Services Act (DSA), X verplicht om alle interne data over Grok tot eind 2026 te bewaren voor controledoeleinden door toezichthouders.

Nikita Beer, die de leiding heeft over deze ingrijpende productwijzigingen, is een bekende figuur in de techwereld; hij richtte eerder de populaire apps Gas en TBH op, die werden overgenomen door respectievelijk Discord en Facebook. Terwijl X nu deze verplichte labels en sancties invoert, hebben platforms zoals Meta al in 2024 vergelijkbare regels geïmplementeerd en eist YouTube eveneens openheid over synthetische content. Deze ontwikkelingen markeren een formele verschuiving in de omgang met AI-content onder druk van de publieke opinie en internationale regelgeving.

12 Weergaven

Bronnen

  • Teknolojioku

  • HaberGo - Türkiye haberleri

  • Dünya Gazetesi

  • Doğruhaber

  • PEKY

  • TGRT Haber

Heb je een fout of onnauwkeurigheid gevonden?We zullen je opmerkingen zo snel mogelijk in overweging nemen.