No cabe duda de que la herramienta que marcará nuestra generación durante los próximos años es la inteligencia artificial ("IA"). Recientemente, el desarrollo de la IA a nivel global ha tenido un crecimiento muy acelerado. Sí bien no es una materia de estudio exclusiva del siglo XXI, considerando que científicos del siglo XX ya estudiaban y desarrollaban sistemas de IA (i.e. la Máquina de Turing), es una realidad que los avances logrados hasta el día de hoy constituyen una herramienta de fácil acceso y abierta al público que afecta a la sociedad directamente. Por ello, resulta indispensable el surgimiento de una regulación para esta herramienta.

El pasado 9 de diciembre de 2023, el Parlamento Europeo, en conjunto con otros órganos de la Unión Europea ("UE"), acordaron la versión final de la "Ley Europea de Inteligencia Artificial", misma que no entrará en vigor de manera inmediata, sino que tendrá plena fuerza legal en los países europeos a partir del 2026 aproximadamente. Si bien la intención principal de la UE con la emisión de esta ley es garantizar que los sistemas de IA utilizados en los países europeos sean seguros y respeten los derechos fundamentales, no podemos perder de vista que de igual manera pretenden que esta regulación sea la base para la elaboración de leyes de IA en otras jurisdicciones.

La Ley Europea de IA regula el uso de los sistemas de IA en función de los riesgos que éstos representan para los usuarios de esta, considerando una carga obligacional mayor para aquellos sistemas que supongan mayores riesgos para los derechos de los usuarios. Considerando lo anterior, este ordenamiento establece cuatro categorías de IA con las siguientes características:

  1. IA de riesgo inaceptable. Comprende los sistemas de IA que representan una amenaza para las personas, incluyendo aquellos sistemas que manipulen el comportamiento de las personas o grupos vulnerables específicos, realicen clasificaciones discriminatorias de las personas, o impliquen sistemas de identificación biométrica en tiempo real. Este tipo de sistemas de IA estarán prohibidos por regla general, pudiendo existir excepciones puntuales en sistemas de identificación biométrica.
  2. IA de alto riesgo Se dividen a su vez en dos categorías, sin embargo, ambas implican una afectación negativa a la seguridad o derechos fundamentales de los usuarios. Las categorías de este tipo de sistemas de IA son las siguientes: (i) sistemas de IA que utilicen productos sujetos a la legislación de la UE sobre seguridad de los productos; y (ii) sistemas de IA registrables en la base de datos de la UE debido a su contenido. Este tipo de sistemas de IA estará permitido, no obstante, se encontrarán bajo una evaluación continua por parte de un tercero.
  3. IA de riesgo limitado Son aquellos que cumplirán con los requisitos mínimos de transparencia para que los usuarios tomen decisiones consientes cuando utilicen este tipo de sistemas de IA. Comprenden sistemas de IA generativa de contenido como ChatGpt  los cuales deberán revelar al usuario que el contenido está siendo generado por una IA y deberán diseñar modelos que impidan la generación de contenido ilegal.
  4. IA de riesgo mínimo. Este tipo de sistemas de IA representan un riesgo mínimo para los usuarios, por lo que se establecerán requisitos de conducta de cumplimiento voluntario.

El ámbito de aplicación de la Ley Europea de IA comprende a los usuarios, importadores, distribuidores, fabricantes y proveedores que introduzcan servicios de sistemas de IA en el mercado, siempre que se utilice o tenga efectos en la Unión Europea, independientemente de la ubicación física del sistema. Su incumplimiento supone sanciones muy importantes para aquellas empresas dedicadas a los sistemas de IA, mismas que incluso podrán versar sobre un porcentaje del volumen del negocio.

Consideramos que la regulación de la IA es fundamental para la protección de los derechos fundamentales y la seguridad de los usuarios, los cuales son cada día más. Por ello, recomendamos no perder de vista la implementación de la Ley Europea de la IA y las regulaciones que se emitan a nivel global para atender las necesidades de la industria tecnológica, mismas que tarde o temprano deberán ser estudiadas en nuestro país para la elaboración de una regulación mexicana de IA robusta.

The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.