Una inteligencia artificial que sitúe al ser humano en el centro será posible si su gobernanza parte del acuerdo y del compromiso de múltiples actores. La innovación al servicio de la humanidad será tal si lleva la ética incorporada desde el origen. Gobiernos, organismos multilaterales, empresas tecnológicas, centros de conocimiento y sociedad civil han reforzado ese planteamiento en el IIº Foro Global sobre la Ética de la Inteligencia Artificial organizado por la UNESCO y celebrado en Kranj, Eslovenia, el 5 y 6 de febrero. La organización ha tomado el mandato de activar la conversación y plantear las soluciones en torno a la ética de la IA. Somos Iberoamérica conversó con Gabriela Ramos, Subdirectora General de Ciencias Sociales y Humanas del organismo para conocer los últimos avances y acuerdos.
El Foro Global de la Ética y la Inteligencia Artificial es parte de la infraestructura que ha establecido la UNESCO para difundir e implementar el que sigue siendo el único estándar global de la ética de la inteligencia artificial: la Recomendación para la Ética de la IA adoptada en 2021 por los 193 Estados miembros de Naciones Unidas. ¿Cómo se aplica de forma específica esa recomendación y qué avances se han producido en su despliegue?
La recomendación es un estándar que traduce principios humanistas, de derechos humanos, dignidad, justicia e igualdad en acciones muy concretas para la rendición de cuentas, la responsabilidad y la transparencia de los desarrollos tecnológicos, que se traslada a cuestiones de política pública con un mecanismo de implementación específico. Cuando se adoptó nos sentíamos un poco solos porque hablar de ética a menudo se entiende como un freno a la innovación y la inversión, que es lo que los países van buscando. La conversación sobre los sesgos, las discriminaciones, las desigualdades y la alta concentración de estas tecnologías en pocas empresas ya estaba sobre la mesa. Es a raíz del impulso que toma la inteligencia artificial generativa cuando surge la preocupación acerca de cómo regular estas tecnologías y por qué se lanzan al mercado sin tener una idea clara de cuál es su impacto. Desde entonces el trabajo de la UNESCO ha ganado apoyo y visibilidad.
En el Foro de Eslovenia han participado hasta 20 representantes ministeriales de los países más involucrados en la aplicación de la metodología RAM (Readiness Assessment Methodology), que es nuestro diagnóstico para evaluar la preparación de los Estados, y todos han compartido y discutido cómo les va con la aplicación de ese RAM, lo que significa que de alguna manera están haciendo suyo el estándar.
Contribuciones de la UNESCO
En 2021 la UNESCO hizo una contribución decisiva para una gobernanza eficaz y ética de la IA mediante una normativa global adoptada por todos los Estados miembros: la Recomendación sobre la ética de la inteligencia artificial y lidera su aplicación a través de herramientas y metodologías como las Evaluaciones de Preparación y de Impacto Ético.
Metodología para Evaluación de la Preparación (RAM). Creada para ayudar a los Estados a identificar su estadio de preparación y proporcionar una base para que la UNESCO adopte su apoyo al desarrollo de capacidades.
Evaluación del Impacto Ético (EIA). Se trata de un proceso estructurado que ayuda a los equipos de proyectos de IA, en colaboración con las comunidades afectadas, a identificar y evaluar las repercusiones que puede tener un sistema de IA. Permite reflexionar sobre su impacto potencial e identificar las acciones de prevención de daños necesarias.
Hemos tenido a 61 países representados en el foro: Estados Unidos y China, otras economías del G-8, países de Latinoamérica y Caribe, África, Asia y países árabes todos con una voz que resulta muy motivadora. Ha surgido un consenso de que necesitamos retomar el control de quién decide sobre el despliegue de los avances tecnológicos. Está muy bien que las empresas innoven y ese es, evidentemente, su papel, pero los gobiernos tienen una responsabilidad de crear los marcos normativos a nivel nacional para evitar las expresiones más negativas de estas tecnologías. Ese ha sido uno de los resultados más interesantes del encuentro: que ya no estamos discutiendo asuntos teóricos, como se hace en muchas otras reuniones y conferencias globales, sino que se están aterrizando cuestiones prácticas sobre cómo hacer que los algoritmos sean transparentes, cómo gestionar los desarrollos de código abierto (Open Source) y cómo evitar abusos.
¿Se está bajando ya al terreno de juego con reglas específicas?
En temas como el sesgo de género de los modelos de IA estamos dando respuestas muy concretas. Las recomendaciones ya estaban y ahora se traen a nivel de cancha. Es decir, si ponemos foco en México, por ejemplo, se puede hacer una evaluación de su situación y realizar recomendaciones sobre qué políticas aplicar para vigilar los sesgos de género. En este debate no hay una gran diferencia en la reflexión del papel de los Estados y de los gobiernos tanto en el Gran Norte como en el Gran Sur. Todos saben que tienen que estar mejor equipados y deben dotarse de instituciones y marcos normativos más efectivos. Creo que ya hay una concienciación de que la decisión de si se respetan o no los derechos humanos no puede quedar en manos de las empresas o del sector privado.
Naciones Unidas señala que hay tres esferas que deciden el rumbo y la distribución de la innovación tecnológica: las decisiones políticas, las inversiones privadas y los desarrollos de los centros de conocimiento ¿Podría ser UNESCO el árbitro de la relación entre esas esferas?
En el Foro de Eslovenia ha sido muy importante la presencia de representantes del sector privado, ocho en total, con mucho que aportar en este campo. La Directora General de la UNESCO, Audrey Azulay, vino a Eslovenia para firmar una alianza con el sector privado que crea el Consejo Empresarial para la Ética de la IA que refleja el Compromiso de las Empresas del Sector Privado de colaborar con la UNESCO para construir un modelo ético de inteligencia artificial responsable. Muchas otras empresas ya han levantado la mano y quieren estar en ese Consejo Empresarial.
Lo interesante es que no se trata de un debate en contra de las empresas ni tampoco para ensalzar a los gobiernos. Es una conversación en la que todos tenemos responsabilidad y las empresas tienen que ser parte de este consenso porque, si no, no va a funcionar.
Surge la preocupación sobre cómo regular estas tecnologías y por qué se lanzan al mercado sin una idea clara de su impacto
¿Se ha pasado, entonces, de discutir el qué a discutir el cómo?
El estándar ya lo tenemos y su reafirmación implica que estas tecnologías tienen que alinearse con los objetivos humanos. Eso ya no se discute más. Ahora estamos debatiendo cómo hacerlo y ahí es donde hay que conocer y entender mejor la raíz tecnológica porque no se puede regular algo que no se entiende. También a raíz del Foro de Eslovenia se ha creado el Observatorio de la Ética de Inteligencia Artificial, que hemos lanzado junto a la Unión Internacional de Telecomunicaciones (ITU) y el Alan Turing Institute. En él vamos a volcar todo el conocimiento que estamos generando para que pueda compartirse y fluyan los aprendizajes.
En lo tocante a los Estados miembros ha sido muy motivador ver a los países intercambiar las conclusiones de sus RAM. Me he sentido muy orgullosa al comprobar que la metodología se está adoptando como algo propio y que empieza a ser una herramienta, un estándar del que se apropian los países. Ya no es la UNESCO quien les dice qué tienen que hacer, vamos a acompañarlos en esa reflexión y en las soluciones que ellos propongan y ellos también van a informar de su trabajo. Eso nos va a ayudar a entender mejor qué intervenciones públicas pueden ser efectivas para incentivar un mejor desarrollo de las tecnologías para nuestros objetivos humanos.
¿Es una cuestión de pura voluntad y decisión política?
Defiendo con pasión la importancia de las políticas. Si se establecen, por ejemplo, cuotas para que las empresas tengan representación de mujeres en sus equipos de desarrollo o en sus órganos de gobiernos, las empresas tecnológicas tienen que cumplirlas. No es tan difícil y son intervenciones de acción afirmativa.
La cuestión es entender mejor la relación entre la política y los resultados. En el caso de la igualdad de género existen múltiples mecanismos, pero en la cuestión de la diversidad cultural, por ejemplo, es menos evidente qué tipo de herramientas políticas se pueden utilizar. Es importantísimo que no se pierda la diversidad cultural en el desarrollo de estas tecnologías, porque la mayoría están en inglés o en chino. Los datos que se recaban para el entrenamiento de la IA están mayormente en esos idiomas y, aunque se utilice más allá de Estados Unidos o China, la tecnología ya viene de serie con esa conformación cultural. Los países tienen que hacer un gran esfuerzo de recolección de datos en su idioma para conservar esa diversidad que no debemos perder.
Los gobiernos tienen una responsabilidad de crear marcos normativos nacionales para evitar las expresiones más negativas de estas tecnologías
La gobernanza de los datos es complicada. Hay mucho que replantear para que estas tecnologías sean inclusivas, beneficien a todos y equilibren una proporción en la que el 90% del mundo podría ser consumidor de una tecnología que no es inclusiva.
Si en un determinado momento un país tiene que utilizar inteligencia artificial para administrar su sistema de salud, este no puede estar basado en plataformas propiedad de empresas multinacionales. Esas consideraciones son fundamentales. Pero lo más importante es que estos 61 países que vinieron ya están listos para obtener sus RAM y poder discutirlos a nivel regional. En América Latina ya se lanzó el Consejo Regional, en África lo vamos a lanzar, Asia es un área muy dinámica y, de hecho, en la UNESCO hemos recibido propuestas de varios países asiáticos que quieren organizar el foro de 2025.
El movimiento para cambiar la forma en la que hemos estado pensando estos temas ya está en marcha. Más allá de discutir los temas existenciales, ahora estamos centrados en ver de qué manera podemos reducir el impacto negativo que están teniendo, que es un hecho.
En la geoestrategia o la geopolítica de la IA se aprecia que China posee una capacidad tecnológica inaudita, Estados Unidos aplica una lógica de prevalencia de aquellos que ganen la carrera de la innovación y la Unión Europea tiene desde el principio la intención de canalizar algo tan poderoso en beneficio del ser humano. ¿Qué papel juega Iberoamérica? Chile, por ejemplo, está tomado medidas muy interesantes en términos de protección de su ciudadanía.
En octubre de 2023 se celebró el primer Foro Regional sobre la Ética de la Inteligencia Artificial en Santiago de Chile convocado por la Ministra Aisén Etcheverry del Ministerio de Ciencia, Tecnología, Conocimiento e Innovación del país con el apoyo del Banco de Desarrollo de América Latina y el Caribe (CAF). Allí se encontraron 23 países de los que la mitad estaban haciendo su Readiness Assessment Methodology. La región está en vanguardia porque fue una de las primeras en dejar de hablar de los retos, los daños y los peligros y ponerse a trabajar en soluciones más concretas para determinar cuáles eran sus competencias y capacidades y de qué forma había que invertir para entender estas tecnologías. Si, además, se crean centros de investigación podría decirse que Iberoamérica realmente está avanzando.
Cambiando el panorama de la gobernanza de la IA
Ese fue el epígrafe del Foro global de Eslovenia, en el que países que se encuentran en distintos niveles de desarrollo tecnológico y político compartieron aprendizajes, incorporando en la conversación al sector privado, el mundo académico y a una sociedad civil mucho más amplia. Estas fueron sus acciones más destacadas:
- Sesiones ministeriales en las que los representantes de gobiernos nacionales expusieron el conocimiento extraído de sus ejercicios de Evaluación de Preparación (RAM).
- Debates temáticos sobre género e IA en la plataforma Women4Ethics y sobre un futuro inclusivo de la IA.
- Lanzamiento del Observatorio Global de Ética de la IA. En él se expondrá qué regulación y medidas de control están poniendo en marcha los 193 Estados miembros de la organización para asegurar un desarrollo ético de la inteligencia artificial (IA) a escala nacional. La plataforma pretende ser una especie de espejo «que evidencie qué están haciendo los Estados realmente parar asegurar tecnologías éticas, más allá de grandes declaraciones», señaló Gabriela Ramos. «La inteligencia artificial se plantea como un mero avance tecnológico cuando la gran reflexión debería de ser cómo alinear esos desarrollos tan impresionantes con nuestros objetivos como sociedades y seres humanos», subrayó.
- Alianza con el sector privado: Consejo Empresarial para la Ética de la IA. Se ha establecido un Compromiso de las Empresas del Sector Privado de colaborar con la UNESCO para construir un modelo ético de inteligencia artificial responsable por el que ocho empresas tecnológicas mundiales se han comprometido a trabajar para desarrollar y utilizar sistemas de IA de forma ética.
- Lenovo Group, LG AI Research, Mastercard, Microsoft, Salesforce, GSMA, INNIT y Telefónica se comprometen a mantener y garantizar los derechos humanos durante el diseño, desarrollo, compra, venta y uso de la tecnología de IA; realizar la debida diligencia para cumplir con las normas de seguridad; identificar los efectos adversos de la IA y tomar medidas oportunas para prevenir, mitigar o remediar esos efectos adversos de conformidad con la legislación interna.
La Unión Europea decidió abrazar una visión de medición de riesgos, lo que es interesante porque reconoce que la tecnología que existe en este momento no es la que tendremos mañana. El lanzamiento de Chat GPT ha supuesto una disrupción y un ejemplo de que se pueden dar saltos cuánticos. Estas tecnologías aprenden por sí mismas y existe la seguridad de que la siguiente generación de la inteligencia artificial va a ser cinco veces más poderosa y capaz. En lugar de señalar las tecnologías actuales o anticipar las futuras, la UE deja abierto que cuando exista la percepción de que los desarrollos y aplicaciones van a tener un impacto muy profundo, deberán someterse a una serie de criterios de rendición de cuentas y de revisiones. Esto es muy parecido a lo que decidió el presidente Biden en su orden ejecutiva que habla de una evaluación de los grandes modelos de lenguaje (LLM) de las IAs, mediante la que la empresa tiene que demostrar que ha superado los requisitos de seguridad y de protección a los usuarios.
En China también han optado por una posición similar. Todas estas propuestas están tratando de reorganizar el equilibrio de poder entre el sector privado y los actores públicos.
Lo que me agrada de nuestro trabajo en América Latina es que ya se ha abierto la conversación sobre la posibilidad de contar con un ente regulador de las telecomunicaciones. Son estas entidades quienes deberían estar siendo los supervisores de estas tecnologías junto a los ministerios cuya competencia es la digitalización y que ya están habituados a promocionar las tecnologías, atraer inversiones e intentar estar a la vanguardia. Si no son ellos quienes se enfocan en reducir los riesgos ¿entonces quiénes?
¿Qué otros aprendizajes se están incorporando en este trayecto?
También hemos aprendido que hay que sentar en la mesa a todos los ministerios que tienen algo que decir, además de al sector privado y a la academia. Creo que hay una base muy interesante en América Latina. Existe un acuerdo de colaboración con el CAF y querríamos también tener una asociación con grupos de interés que están desplegando aspectos interesantes como es el caso de la SEGIB con los derechos digitales que se reflejan en su Carta consensuada por 22 países. Pero no se trata tanto de cuál es la visión latinoamericana, sino de cuánto puede Latinoamérica avanzar en demostrar soluciones concretas. En eso es en lo que está enfocado el Consejo Regional, que se estableció para avanzar en la implementación de las RAM y que está justamente aprovechando todo el conocimiento que están arrojando. La discusión organizada con países que tienen más similitudes se vuelve más rica y también más eficaz en cuanto a resultados. Brasil, Costa Rica, Chile, México, Panamá, Paraguay y Uruguay están haciendo sus RAM y ponerlas en común permite traer al Foro Global unos resultados y unas propuestas más sólidas.
América Latina está a la vanguardia; fue una de las primeras regiones en dejar de hablar de los retos y trabajar en soluciones concretas
¿Es este un buen momento para resignificar a Naciones Unidas como árbitro de las soluciones a los retos del planeta?
Pienso que hay un redescubrimiento de la gran contribución que las instituciones internacionales pueden hacer. Y eso es una buena noticia. Hay veces que pienso que el reto que nos plantea el ChatGPT ha sido una bendición disfrazada porque impulsa a actuar sobre algo tan impactante. El hecho de que el Foro de Eslovenia haya tenido 50 veces más visibilidad, impacto, participación y resultados de lo que yo misma hubiera pensado, nos dice que hay una revalorización importante de la contribución de la UNESCO.
Siempre he estado en el ámbito multilateral, primero en la OCDE y desde hace tres años en la UNESCO y diría que sí, que estamos en un momento muy importante para la organización porque es una oportunidad de poner en valor nuestro mandato, de pensar, de utilizar las ciencias, de plantear lo humano.
Las ciencias sociales y humanas están siendo llamadas nuevamente a elucidar todos estos temas tan importantes como los comportamientos de nuestros jóvenes, el valor de las democracias y este no es un tema tecnológico, es un tema social. Estoy muy entusiasmada porque veo que hay una revalorización de lo que pueden decir las ciencias sociales y humanas respecto de cómo manejar estos desarrollos tecnológicos. Lo que sí es importante y se está conversando con otras organizaciones internacionales es evitar reinventar el hilo negro y la duplicación de esfuerzos. Nosotros tenemos ya un estándar global y no sería operativo que el Advisory Body de Naciones Unidas sobre la IA reinvente otra cosa, abriendo el espacio a repensar algo que ya se negoció.
Cuando me incorporé a la UNESCO, la Recomendación sobre la Ética de la IA ya se había redactado y se cambiaron muchas cosas, pero existía una base bien asentada que incorporaba lo más importante de forma detallada. Cada párrafo habla de reequilibrar las acciones y de poner a las personas en el centro desde una perspectiva de derechos y dignidad humana. El estándar global podemos decir que ya existe, ahora se necesita empujar su implementación, más que repensar cómo se acuerdan qué tipo de decisiones o narrativas.