El uso masivo de la inteligencia artificial puso en evidencia algunos riesgos que se asocian a su uso que pueden resumirse en:
1) Sesgos: Los algoritmos de IA pueden perpetuar y en ciertas ocasiones ampliar los sesgos existentes socialmente, ya que “aprenden” sobre estos de los datos con los que son entrenados. Esto ya ha resultado en decisiones discriminatorias e inequitativas en áreas como la contratación laboral, procesos jurídicos penales, entre otros.
2) Propiedad intelectual: La creación y generación de contenido mediante el uso de estos algoritmos facilitó el plagio y difusión no autorizada de obras sujetas a derecho de autor y propiedad intelectual. En este punto también uno de los interrogantes es quién será considerado a nivel legislativo el autor de las creaciones.
3) Privacidad: La gran cantidad de datos que procesa, muchas veces de carácter personal y hasta sensible, plantea riesgos significativos para la privacidad
4) Uso malicioso por cibercriminales: Los cibercriminales ya utilizan la IA para mejorar sus ataques. Esto incluye el uso para crear software malicioso con características más sofisticadas y también para ataques de phishing, o el uso de deepfakes cada vez más convincentes.
5) Desplazamiento laboral: La automatización impulsada por la IA eventualmente puede traer aparejado el desplazamiento laboral en ciertos sectores, especialmente aquellos caracterizados por acciones repetitivas y de rutina. Esta circunstancia plantea desafíos para los trabajadores, quienes deberán adaptarse rápidamente a las circunstancias, muchas veces cambiando de rumbo.
6) Distorsión de la realidad: La IA puede generar contenido falso, como noticias y deepfakes, que pueden utilizarse para distorsionar la realidad y afectar la percepción y opinión pública.
La regulación de la inteligencia artificial a nivel internacional está en constante evolución, con avances significativos en distintas regiones. La Unión Europea ha tomado la delantera con la Ley de Inteligencia Artificial (AI Act), la más completa hasta el momento, en vigor desde agosto de 2024. Esta normativa clasifica la IA según su nivel de riesgo, estableciendo reglas para garantizar su uso seguro y ético, con especial énfasis en la transparencia y supervisión humana. Además, el Consejo de Europa trabaja en el primer tratado internacional jurídicamente vinculante sobre IA, abierto a países no europeos.
En Estados Unidos, la regulación ha comenzado con la Orden Ejecutiva del presidente Biden en 2023, aunque sin carácter vinculante, mientras se avanza en la creación de una ley federal. Otros países, como Australia, también están en proceso de desarrollar regulaciones robustas. La tendencia global apunta a establecer marcos normativos que equilibren el desarrollo tecnológico con la protección de los derechos de la ciudadanía.
Si bien la responsabilidad de legislar recae principalmente en los gobiernos, las empresas tecnológicas tienen un rol clave en la regulación de la IA. Deben implementar políticas internas de autorregulación, desarrollar modelos con criterios éticos y colaborar con los organismos gubernamentales para garantizar un uso responsable de esta tecnología. La cooperación entre sector público y privado será determinante para establecer normas efectivas que fomenten la innovación sin comprometer la seguridad y los derechos de las personas.
A nivel LATAM, la mayoría de los países cuentan al menos con decretos, salvo el caso de Perú que cuenta con una ley. Recientemente, el Parlamento Latinoamericano y Caribeño ha propuesto una Ley Modelo que quizás inspire legislaciones a nivel interno.
Perú en 2023, promulgó la Ley 31814, que promueve el uso de la IA para el desarrollo económico y social del país estableciendo principios el desarrollo y uso de la IA desde un punto de vista de seguridad y ética.
En el caso de Brasil introdujo un proyecto de ley para establecer un marco legal que garantice la transparencia, privacidad y seguridad en el uso de la IA, proyecto que fue tratado desde 2021 y que el pasado diciembre del 2024 ya obtuvo media sanción por parte del senado.
En México, desde la Coordinación de la Estrategia Digital Nacional, se puso en marcha en 2018 una iniciativa para elaborar una estrategia nacional de IA, pero que ha perdido impulso, según valora un informe de 2024 de la UNESCO.
Por su parte, la Argentina cuenta con varios proyectos de ley aunque aún no ha logrado avances significativos.
En Colombia se ha emitido una Política Nacional de IA que comparte los mismos principios que son tendencia en LATAM.
En Chile, un país a la vanguardia de la regulación en tecnología, se ha avanzado en la regulación de la IA con un proyecto de ley y se han visto acciones en el Foro de Altas Autoridades en IA, convocado por el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación Chileno y que invitó a más de 20 países, donde se firmó la Declaración de Santiago Para promover una Inteligencia Artificial ética en América Latina y el Caribe».
En conclusión, la regulación de la inteligencia artificial es fundamental y necesaria para lograr un equilibrio entre el desarrollo tecnológico y la protección de los derechos fundamentales de la ciudadanía. Sin normativas claras y eficientes, los riesgos asociados a la inteligencia artificial seguirán manifestándose y creciendo, lo cual amplía el panorama de ataque para los cibercriminales.
Las organizaciones y empresas deben comprometerse a tratar los datos de manera ética y transparente, asegurando buenas infraestructuras de ciberseguridad y permitiendo a los ciudadanos decidir sobre su información.
A nivel internacional, los países seguirán emitiendo regulaciones que buscan un desarrollo seguro, ético y equitativo de la IA. Es así que debemos destacar que garantizar un uso responsable de la tecnología es un derecho irrenunciable y una necesidad urgente para el presente y futuro inmediato.
¿Por qué es importante la regulación de la inteligencia artificial?