El estado de California, bajo el liderazgo del gobernador Gavin Newsom, ha aprobado una serie de leyes que buscan frenar el uso de deepfakes en el ámbito electoral y proteger a los actores de Hollywood frente al uso no consentido de sus imágenes mediante inteligencia artificial (IA). Entre las nuevas normativas, destaca la A.B. 2655, que obliga a las plataformas a eliminar o etiquetar contenido manipulado digitalmente relacionado con las elecciones. Además, otras leyes exigen que los anuncios electorales informen sobre el uso de IA y prohíben la difusión de material generado o alterado por esta tecnología con intenciones engañosas.
En el sector del entretenimiento, las nuevas leyes establecen que los contratos de los actores deben especificar cómo se utilizarán las réplicas generadas por IA de su imagen o voz, y se prohíbe el uso comercial de réplicas digitales de artistas fallecidos sin el consentimiento de sus herederos. Estas regulaciones responden a preocupaciones sobre la protección de los derechos de los artistas en un entorno digital cada vez más influido por la IA, especialmente tras la histórica huelga de actores en Hollywood el año pasado.
A pesar de estas iniciativas, queda por ver si Newsom firmará o vetará la S.B. 1047, que busca responsabilizar a las empresas de IA por el mal uso de sus tecnologías, una medida que ha sido fuertemente criticada por la industria tecnológica.