La Californie a introduit de nouvelles lois concernant divers aspects de l'intelligence artificielle (IA), se concentrant sur les risques, la confidentialité et la protection des utilisateurs contre la technologie deepfake. Ces lois, récemment signées, entreront en vigueur en 2026.
Le Bureau des services d'urgence de Californie (CalOES) est mandaté pour collaborer avec des entreprises leaders en IA comme OpenAI et Anthropic afin d'évaluer les menaces potentielles posées par l'IA générative à l'infrastructure critique de l'État.
En vertu de la nouvelle législation, les fournisseurs de services IA doivent divulguer des informations transparentes concernant les sources de données utilisées pour former leurs systèmes, y compris le volume de données, leurs origines et si elles contiennent un contenu protégé par la loi.
En réponse aux préoccupations croissantes concernant l'utilisation des données personnelles, les lois élargissent les réglementations de confidentialité existantes pour inclure les systèmes d'IA générative. Ces systèmes seront soumis à des règles de confidentialité strictes s'ils exposent des informations personnelles telles que des noms ou des données biométriques.
La Californie souligne également l'importance de l'éducation à l'IA, exigeant l'inclusion de la 'littératie en IA' dans les programmes scolaires pour des matières comme les mathématiques et les sciences, garantissant que les élèves comprennent le fonctionnement de l'IA et ses implications éthiques.
Une définition unique de l'IA a été établie, la décrivant comme un système créé par des machines ou de l'ingénierie avec différents niveaux d'autonomie qui génère des résultats affectant des environnements physiques ou virtuels.
Dans le secteur de la santé, les lois exigent que les prestataires clarifient quand l'IA générative est utilisée dans les communications avec les patients. De plus, des réglementations imposent une supervision par des médecins licenciés pour les outils d'IA dans les services de santé.
De nouvelles règles abordent également l'utilisation de l'IA dans les appels automatisés, exigeant la divulgation lorsque des voix générées par l'IA sont utilisées pour prévenir la manipulation du public.
La législation criminalise l'utilisation de l'IA pour créer des images explicites non consensuelles et mandate aux plateformes de médias sociaux de mettre en œuvre des systèmes de signalement pour le contenu deepfake.
De plus, les systèmes d'IA générative doivent marquer numériquement leur contenu pour indiquer leur origine IA, aidant le public à distinguer les matériaux générés par l'IA de ceux réels.
Les réglementations sur les campagnes politiques exigent désormais que les plateformes en ligne retirent ou étiquettent le contenu généré par l'IA qui pourrait induire les électeurs en erreur, et les candidats peuvent demander des recours juridiques en cas de non-conformité.
Les lois protègent également les droits des acteurs, nécessitant un consentement pour utiliser leurs images dans du contenu généré par l'IA.
Cependant, un projet de loi controversé (SB 1047) n'a finalement pas été adopté, le gouverneur Newsom plaidant pour une approche réglementaire plus large pour englober les petits systèmes d'IA.
Ces lois représentent une étape significative pour la Californie dans l'établissement de nouveaux standards pour la régulation de l'IA, visant à protéger les citoyens, promouvoir la transparence et garantir des pratiques éthiques dans le secteur de l'IA en pleine évolution.