
En un contexto donde la inteligencia artificial irrumpe como arma de doble filo en el debate democrático, la legisladora Carolina Vargas Aignasse (PJ - foto inferior-) presentó un proyecto de ley que busca erigir un escudo normativo contra la generación y difusión de noticias falsas o contenidos manipulados durante las campañas electorales provinciales en Tucumán. El objetivo primordial de la iniciativa, según su articulado, es "prevenir y sancionar la generación y difusión intencional de contenidos falsos, engañosos o manipulados que puedan afectar de manera directa y significativa el desarrollo del proceso electoral provincial, la voluntad del electorado o la integridad del sistema democrático".
No obstante, partes del texto —como las eximentes por parodia o edición mínima— podrían interpretarse de manera laxa, limitando la sanción de contenidos que, aunque no busquen engaño directo, erosionen los principios rectores de libertad de expresión y protección electoral que la parlamentaria defiende. Paralelamente, el proyecto impone deberes estrictos a las plataformas digitales, obligándolas a identificar, remover o desmonetizar material denunciado en un plazo de 12 horas, con entrega de metadatos como IP y horarios, lo que podría reconfigurar la dinámica de moderación en redes sociales y forzar una cooperación inédita entre gigantes tecnológicos y autoridades locales, bajo riesgo de inacción que equivaldría a complicidad en la desinformación.
El proyecto, titulado "Ley para la prevención y sanción de la difusión de noticias falsas y contenidos manipulados en el marco de las campañas electorales provinciales", se estructura en cuatro capítulos que delinean un marco integral de prevención, regulación y castigo. En su Capítulo I, dedicado al objeto, principios y definiciones, se establece que la norma se regirá por pilares como el "resguardo de la libertad de expresión, conforme a la Constitución Nacional, la Constitución de la Provincia de Tucumán y los tratados internacionales de derechos humanos", junto con la "protección del proceso electoral, del sufragio libre e informado y de la confianza pública en las instituciones". Se introduce la "responsabilidad diferenciada", que considera la escala de impacto de las plataformas digitales, y la "proporcionalidad en la aplicación de las medidas y sanciones". Entre las definiciones clave, se tipifica el "contenido sintético manipulado" como toda "imagen, video, audio o combinación de ellos, generado o alterado mediante tecnología digital o inteligencia artificial, que simule de forma realista la apariencia, la voz o las acciones de una persona, induciendo a error sobre su identidad o conducta". Asimismo, se alude a las "plataformas digitales" como sistemas que facilitan la difusión masiva, y a los "sistemas de decisión automatizada" como algoritmos que amplifican contenidos sin intervención humana.

El núcleo punitivo reside en el Capítulo II, donde se prohíben conductas específicas durante el período electoral —desde el inicio de la campaña hasta el cierre de los comicios— y se gradúan sanciones con multas que oscilan entre $100.000 y $10.000.000. Así, se castigará a quien "genere o difunda contenidos manifiestamente falsos respecto de autoridades electorales, candidatos o agrupaciones políticas, con el propósito de incidir en el resultado electoral", o quien propague "imágenes, videos o audios sintéticamente manipulados, o contenidos descontextualizados, con el fin de inducir al error del electorado o afectar la reputación de personas o instituciones vinculadas al proceso electoral". Estas penas serán "independientes de otras acciones electorales, administrativas o penales que pudieran corresponder". En caso de que los infractores sean autoridades de una agrupación política, esta incurrirá en responsabilidad solidaria, con multas de $5.000.000 a $10.000.000. Un agravante triplica la sanción si la difusión se realiza mediante "sistemas automatizados, redes coordinadas o campañas organizadas", reconociendo el poder amplificador de bots y algoritmos.
No obstante, el articulado incorpora eximentes que buscan equilibrar la penalidad con la vitalidad del discurso público. No serán sancionables quienes difundan "contenidos paródicos, artísticos o de sátira política, cuya finalidad no sea el engaño del electorado"; ni aquellos con "fines estéticos o de edición mínima, propios de la comunicación política o publicitaria, siempre que no alteren sustancialmente los hechos"; y mucho menos si incluyen "etiquetado o marca de agua visible y persistente que indique su carácter de no auténtico o generado artificialmente". El procedimiento garantiza el "derecho de defensa y la posibilidad de ofrecer prueba de descargo", bajo la supervisión de la autoridad de aplicación.
Redes y responsabilidades
El Capítulo III traslada la lupa hacia las plataformas digitales, exigiéndoles una intervención proactiva y reactiva. Ante denuncias, estas deberán, en un plazo perentorio de 12 horas, "identificar el material como 'presuntamente falso o manipulado digitalmente'" u "ocultarlo, desmonetizarlo o removerlo, según la gravedad del caso", adjuntando copias del contenido, interacciones y metadatos como direcciones IP, fechas y usuarios. Legitimados para activar este mecanismo están "cualquier elector habilitado en la provincia" y el "Ministerio Público Fiscal".
Además, durante la campaña, las plataformas asumirán deberes como "adoptar medidas activas para prevenir o reducir la circulación de contenidos falsos o descontextualizados"; "implementar términos de uso y políticas de contenido compatibles con los fines de esta ley"; "establecer canales de denuncia accesibles para usuarios, autoridades electorales y organizaciones de la sociedad civil"; "cooperar con la autoridad electoral cuando se requiera información o medidas urgentes"; y "suspender temporalmente la monetización, promoción o dinamización de contenidos bajo investigación".
Finalmente, el Capítulo IV designa a la "Junta Electoral Provincial" —o su equivalente— como autoridad de aplicación, en coordinación con el Ministerio Público Fiscal, y habilita convenios de cooperación con plataformas digitales para "detección y moderación de contenidos prohibidos"; con agrupaciones políticas para "promover el uso responsable de redes sociales, inteligencia artificial y tecnologías digitales"; y con universidades u organismos para "capacitación y monitoreo de buenas prácticas en comunicación electoral digital".
Los fundamentos del proyecto, expuestos por Vargas Aignasse, contextualizan esta propuesta como una respuesta imperiosa a la "nueva realidad tecnológica" que ha convertido a las redes sociales en "terreno fértil para la difusión de contenidos falsos, manipulados o fabricados mediante inteligencia artificial". La legisladora advierte que los deepfakes representan "una forma de desinformación sofisticada y difícil de detectar, capaz de afectar la reputación de candidatos, alterar percepciones y, en definitiva, condicionar la decisión libre del electorado". Citando el reciente dictamen de la Fiscalía Electoral federal en el expediente "Gil Domínguez, Andrés c/ Poder Ejecutivo Nacional" (CNE 9111/2025), evoca las palabras del fiscal Ramiro González: la utilización de deepfakes con fines electorales constituye "una forma de interferencia política sofisticada y profundamente lesiva para el sufragio libre e informado". González subraya que las redes sociales no pueden ser consideradas "zonas liberadas" ajenas al control democrático, y que el Estado debe "prevenir y mitigar la desinformación digital, articulando mecanismos de cooperación con las plataformas tecnológicas, en línea con la experiencia del Compromiso Ético Digital impulsado por la Cámara Nacional Electoral".
Integralidad normativa
Apoyándose en la doctrina, Vargas Aignasse invoca al jurista Daniel Schurjin Almenar, quien afirma que la expansión de la inteligencia artificial generativa "ha transformado radicalmente el ecosistema de la comunicación política", ya que los deepfakes no solo engañan, sino que "erosionan la confianza en toda la información electoral e instauran una crisis de la verdad pública". Este riesgo, precisa, "no se limita a la falsedad puntual, sino que se proyecta sobre el tejido simbólico de la democracia, en el que la ciudadanía deja de confiar en cualquier mensaje político". La iniciativa se erige, por tanto, en una "respuesta normativa integral" que articula prevención —vía "educación cívica y alfabetización digital"—, regulación —imponiendo "deberes de cooperación, transparencia y diligencia a las plataformas digitales"— y sanción, todo bajo el principio de "proteger la integridad del proceso electoral sin menoscabar la libertad de expresión". Se limita a "supuestos en que exista una intención deliberada de falsear la realidad con impacto electoral, preservando la crítica política, la parodia y el debate legítimo".
En el horizonte comparado, la propuesta tucumana se alinea con avances en Brasil, Francia y la Unión Europea, anticipándose a un fenómeno que, de no regularse, equivaldría a "dejar desprotegido el derecho ciudadano a una elección libre e informada". "La inacción estatal no es neutral", concluye Vargas Aignasse en sus fundamentos, en un proyecto que, lejos de censurar ideas, promueve "una cultura de veracidad, responsabilidad y transparencia". Porque, en sus palabras finales, "la democracia no se defiende con silencio, sino con verdad".