Mientras existe una férrea competencia tecnológica internacional por asumir el liderazgo en el desarrollo de la inteligencia artificial (IA), los esfuerzos en la creación de leyes para equilibrar la innovación con la protección de los derechos y la seguridad de las personas son aislados, dijo Enrique Cáceres Nieto, investigador del Instituto de Investigaciones Jurídicas de la Universidad Nacional Autónoma de México (IIJ-UNAM).
En entrevista con La Jornada, explicó que a escala mundial sólo existe una ley en IA (en la Unión Europea), mientras el resto de los trabajos se encuentran en el ámbito prejurídico de la ética y hay algunas guías donde se abordan los desafíos asociados con el uso de esta tecnología. Países como Canadá, Estados Unidos, Austria, Japón y China tienen documentos marco.
Destacó que entre esas cinco naciones y la UE suman alrededor de 40 documentos para regir la IA que convergen en tres puntos principales: reconocen que esa tecnología ha revolucionado todos los ámbitos de la humanidad; que hay necesidad de que se respete la ética; y todos, salvo Austria, buscan ser el referente en el sector. El caso más claro es China, que explícitamente busca ser líder mundial para 2030.
Resaltó que una constante en los lineamientos es el interés de invertir en más desarrollo tecnológico que les permita ir al frente en innovación.
Hay una competencia por el liderazgo por todo lo que implica a nivel industrial, económico, y al impacto en los procesos cognitivos y comportamientos.
Sobre las diferencias en los documentos jurídicos y prejurídicos, el académico acotó que se trata sólo de matices. Por ejemplo, la Unión Europea establece mecanismos de coordinación y armonización de los países miembros, y su enfoque en términos de contenidos subraya una clasificación en distintos tipos de inteligencia artificial a partir de riesgos altos, medios y bajos.
En Estados Unidos, los planteamientos son fraccionados. Hay diversos esfuerzos según los estados y una orden ejecutiva emitida por el presidente Joe Biden en la que se pone acento especial a la relación con las empresas desarrolladoras.
La apuesta a la investigación y el desarrollo de IA en Canadá está planteada por medio de la creación de tres centros de investigación a escala nacional y la promoción de semilleros, donde profesores y estudiantes se enfocan en atender problemas como cambio climático y desigualdad social.
En Japón, la propuesta es a tecnologías emergentes como el Internet de las cosas. En Austria, están interesados en robótica; y en China, aunque se plantea el respeto a los derechos humanos, se han inundado las calles de cámaras, con reconocimiento facial, para sancionar a quienes no cumplen con las reglas establecidas.
Los países están de acuerdo con el respeto a la dignidad humana, la autonomía, no discriminación, protección de datos personales,y control en términos de transparencia, explicabilidad y verificabilidad.
Buscan evitar casos como el de Cambridge Analytica (2018), la consultora que utilizó ilegalmente los datos personales de millones de usuarios de Facebook para influir en procesos electorales, incluyendo la campaña presidencial de Donald Trump (2016) y el referéndum del Brexit en Reino Unido (2016).
El investigador precisó que por muy novedosa que parezca la IA, no en todos los sectores llega a un terreno virgen en derecho, en este momento ya hay legislación, instituciones y derechos procesales en protección de datos personales.
Sin embargo, sí se han hecho algunas regulaciones específicas, por ejemplo, en China tienen un reglamento sobre seguridad de datos desde 2017, mientras la Unión Europea tiene tres: el Reglamento General de Protección de Datos, el Reglamento de Gobernanza de Datos y el de Estrategia de Datos de la Unión Europea.
Sobre los roles que asignan los países a las agencias gubernamentales y a los reguladores en la supervisión y aplicación de leyes, el investigador consideró que salvo en el caso del Reglamento de la Unión Europea, en el resto no se aprecia de qué manera el gobierno está desarrollando instituciones o agencias para el control de la legislación.
Lo que sí podemos decir es que son entidades de gobierno las principales propulsoras de todos estos documentos extrajurídicos que tratan de normar éticamente los algoritmos avanzados.
En México lo más destacado en el rubro legal es la existencia de un decreto que propone la reforma de la fracción 17 del artículo 73 constitucional, el cual, sin meterse a contenido, establece que será competencia del Congreso de la Unión legislar en materia de inteligencia artificial, ciberseguridad y neuroderechos.
En este contexto, hace unos días, Satya Nadella, director ejecutivo de Microsoft, anunció una inversión de mil 300 millones de dólares para ampliar las capacidades de México en inteligencia artificial.
México tiene una gran oportunidad, pero hay mucho qué trabajar. Las instituciones académicas pueden jugar un papel muy importante en el éxito de la IA, concluyó.