publicidad

INTELIGENCIA ARTIFICIAL EN DEBATE

Polémica por un proyecto regulatorio de la IA en Argentina: ¿Protección o freno a la innovación?

La iniciativa impulsada por el diputado kirchnerista Daniel Gollán busca regular la inteligencia artificial bajo la pretensión de proteger derechos y promover una gobernanza ética, pero enfrenta críticas del sector tecnológico por ser restrictivo, burocrático y centralista. El debate se da en un contexto clave de inversiones anunciadas, como la de Open AI, en la Patagonia.

PorTendencia de noticias
10 oct, 2025 05:37 p. m. Actualizado: 10 oct, 2025 05:37 p. m. AR
 Polémica por un proyecto regulatorio de la IA en Argentina: ¿Protección o freno a la innovación?

La iniciativa legislativa presentada por el diputado nacional Daniel Gollán (Unión por la Patria -foto inferior-), quien preside la Comisión de Ciencia, Técnica e Innovación Productiva, para establecer un marco normativo para la Inteligencia Artificial (IA) en Argentina, desató una fuerte controversia en el ecosistema tecnológico. Mientras el proyecto, al que tuvo acceso Tendencia de Noticias, buscaría proteger los derechos fundamentales y establecer una gobernanza ética, actores clave del sector privado advierten que se trata de una propuesta restrictiva, burocrática y centralista que podría paralizar la innovación local.


Este debate cobra especial relevancia en el contexto de los recientes anuncios sobre una inversión de US$ 25.000 millones por parte de Open AI, la empresa dueña de ChatGPT, junto a Sur Energy, para desarrollar un centro de inteligencia artificial (conocidos como Stargate) en la Patagonia, enmarcado en el Régimen de Incentivo a las Grandes Inversiones (RIGI). El país se encuentra así en una encrucijada entre atraer mega-inversiones globales y establecer un marco regulatorio local que, según sus críticos, resulta ser más estricto que los estándares internacionales.


El proyecto de ley del diputado Gollán tiene por objeto "establecer un marco legal para el desarrollo, implementación y uso responsable de sistemas de inteligencia artificial (IA) en Argentina". Entre sus objetivos principales se destacan "proteger, promover y respetar los derechos humanos y las libertades fundamentales, la dignidad humana, la igualdad y equidad".


daniel gollan.jpg

INICIATIVA. El diputado Daniel Gollán impulsa el polémico proyecto.


La iniciativa se fundamenta en un enfoque basado en riesgos, categorizando los usos de la IA en tres niveles: "inaceptable, alto riesgo, y riesgo limitado". Se propone la prohibición de sistemas de "riesgo inaceptable" que empleen "técnicas subliminales" o que permitan "evaluar, calificar o clasificar a las personas naturales, sobre la base de su comportamiento social" de forma ilegítima o desproporcionada.

Para gestionar y supervisar este marco, el proyecto impulsa la creación de la Agencia de Gestión del Conocimiento (AGC), una entidad autárquica que tendría la misión de "impulsar, regular y supervisar el desarrollo y uso responsable de los sistemas de Inteligencia Artificial". Además, introduce modificaciones al Código Penal para tipificar y sancionar la pornografía sintética no consentida (deepfakes) y garantiza derechos como el de explicación y revisión humana de las decisiones automatizadas.


Básicamente se propone crear un entorno jurídico seguro y predecible que:


  • Proteja a las personas frente a abusos tecnológicos (ej.: deepfakes, discriminación algorítmica).

  • Fomente la innovación responsable al establecer reglas claras para desarrolladores y empresas.

  • Evite litigios futuros sobre propiedad intelectual y responsabilidad civil derivada del uso de IA.


El financiamiento de la AGC se contempla, en parte, mediante "los pagos de aranceles que se fijarán para su intervención previa al registro de sistemas de IA de riesgo alto", e introduce una modificación a la Ley de Economía del Conocimiento para que las grandes empresas destinen una "percepción directa de un 5% para el financiamiento de la Agencia de Gestión del Conocimiento" de su beneficio impositivo en Ganancias.


"Este Proyecto de Ley Marco Normativo y de Desarrollo de los Sistemas de IA representa un avance fundamental para Argentina, en línea con los principios de un modelo nacional, popular y soberano. Buscamos que el desarrollo tecnológico no sea privilegio de unos pocos, sino una herramienta al servicio del pueblo, que potencie nuestra industria, proteja nuestros derechos y consolide nuestra independencia tecnológica", sostuvo Gollán en los fundamentos de la iniciativa.


De acuerdo a la visión del parlamentario, la propuesta equilibra innovación y protección, asegurando que la IA beneficie al conjunto de la sociedad y no profundice desigualdades. "Con una regulación clara y ética, evitamos que intereses extranjeros o corporativos impongan sus estándares, defendiendo en cambio el interés público, la justicia social y los derechos de las mayorías".


En esta línea, el referente kirchnerista alegó que a partir de la aprobación del proyecto, nuestro país podría convertirse en referencia regional en IA responsable, a la vez que "atraerá inversiones de calidad, generando empleo y desarrollo local; fortalecerá la soberanía tecnológica, reduciendo las dependencias externas y protegerá a los trabajadores, consumidores y sectores vulnerables frente a abusos algorítmicos".


Censura y centralismo


Desde la Red Federal de la Economía del Conocimiento, presidida por el tucumano Alejandro Páez (foto inferior), la crítica es tajante: la propuesta es un intento de "imponer una regulación excesiva, restrictiva y, en esencia, de censura, que impactará fuertemente el desarrollo tecnológico en Argentina". La Red rechaza la propuesta porque está "concebida desde una premisa errónea: abordar la IA como una amenaza a ser contenida, en lugar de como una herramienta para el desarrollo del país".


Un punto central de las objeciones es el impacto federal de la norma. Según la Red, el proyecto ignora las realidades y necesidades específicas de las provincias, y esta "visión centralista y punitiva impactará de manera desproporcionada a los ecosistemas productivos del interior". La creación de la AGC, una estructura centralizada, no considera "la diversidad de contextos productivos, las asimetrías de infraestructura y los desafíos específicos de cada región".


Captura de pantalla 2025-10-10 172627.png

ESTRICTO. Alejandro Páez, presidente de la Red, objetó los rasgos burocráticos del proyecto.


Respecto a las empresas locales, se advierte que la "sobrerregulación" propuesta "genera inseguridad jurídica y costos operativos significativos". Esto resulta "particularmente perjudicial para las Micro, Pequeñas y Medianas Empresas (MiPYMES) del interior del país, las cuales carecen de los recursos y la capacidad legal para enfrentar estos requisitos burocráticos y las potenciales judicializaciones".

La Red Federal concluye que el marco normativo propuesto es un "manual para ahuyentar el capital y el talento", ya que resulta "más estricto que los estándares globales". Además, el sistema de financiamiento de la AGC, que obliga a los desarrolladores a aportar recursos, se traduce en un "impuesto oculto al desarrollo tecnológico", lo que reduce la competitividad global de las empresas locales, una medida que, para las empresas del interior, "podría ser la diferencia entre el éxito y la quiebra".


Asimismo, la Red Federal enfatizó que un universo de más de 1.600 empresas, que incluyen socios, cámaras, polos y clústers que impulsan la economía del conocimiento en el país, "no fue consultado en el proceso de elaboración de este proyecto".


Copia descontextualizada y control previo


Segundo Carranza Torres, director del estudio de Abogados para Empresas & Start Ups "Carranza Torres," (foto inferior) se sumó a las críticas, argumentando que la ley no debería ser aprobada si se piensa "desde la óptica de las empresas tecnológicas que buscan hacer de la IA una actividad productiva".


Carranza Torres sostiene que el proyecto es una "copia descontextualizada de regulaciones extranjeras", específicamente una "copia casi literal de muchas cuestiones del ordenamiento europeo que fue altamente criticado a nivel mundial". Esta imitación es percibida como "torpe porque pasó totalmente por alto las implicancias de aquella normativa: la rigidez burocrática está ahuyentando la innovación".


Uno de los principales reparos se centra en el alcance maximalista de la regulación. El proyecto es "innecesariamente (e ignorantemente) abarcativa creando un andamiaje intervencionista sin precedentes". Según el análisis, la norma "pretende someter al control estatal todo sistema de inteligencia artificial", lo que inevitablemente resultará en una "aplicación absolutamente arbitraria" o transformará la norma en "letra muerta".


El control previo es un mecanismo clave objetado. Se advierte que la ley busca establecer un "control previo de un suceso que ni ella misma logra describir", imponiendo "la obligación de hacer evaluaciones de impacto de IA antes de que se pongan en marcha o salgan al mercado". Esto eleva "considerablemente el costo de cumplimiento" y genera una barrera de entrada equiparable a "industrias altamente reguladas (como la farmacéutica por ejemplo)", sin distinguir la complejidad o el impacto del desarrollo.


Captura de pantalla 2025-10-10 172940.png

SOMETIMIENTO. Carranza Torres cuestionó el amplio control estatal sobre la IA.


Según Carranza Torres, la ley lleva la filosofía del "principio precautorio casi a su máxima expresión: ante la duda prohibir o recargar de controles". Esto "sofoca la innovación y trae consigo que se trasladen las innovaciones a jurisdicciones más amigables". Se critica también que se abra la posibilidad de que se instaure "prácticamente un régimen de licencias previas: nada puede funcionar sin el visto bueno del organismo del estado".


Finalmente, la superposición de controles es otro punto de preocupación. El proyecto pretende atribuir a la nueva Agencia "funciones que ya están en manos de otros organismos", como la AAIP (Sistema de Transparencia y Acceso a la Información Nacional) o Defensa del Consumidor, sometiendo a las empresas a la "doble ventanilla" constantemente y generando "incertidumbre y desincentivo a la actividad". La obligatoriedad de "transparencia pública" también entra "claramente en tensión con secretos comerciales o propiedad intelectual" de las empresas, como los datos de entrenamiento, lo que actúa como "otro desincentivo al desarrollo de IA en el país".


El director del estudio concluye que el esquema propuesto de gobernanza de la IA está "centralizado en el estado, contrario a la idea de autorregulación con control judicial a posteriori que exige un esquema en el que se busque el avance tecnológico. Si la innovación requiere permiso, no sucede".

publicidad

Más de tendencias

publicidad