Actualmente abundan las discusiones sobre las implicaciones de la Inteligencia Artificial Generativa (GAI) para el comercio internacional, tomando en cuenta que se encuentra en una etapa incipiente.
Si bien la GAI crea beneficios y oportunidades, los responsables políticos de todo el mundo se han centrado en la mitigación de posibles consecuencias negativas como la seguridad pública, la privacidad y la ciberseguridad.
Así lo detalló el Foro Económico Mundial (WEF) en un whitepaper titulado ChatWTO: An Analysis of Generative Artificial Intelligence and International Trade.
Los países han seguido principios acordados a nivel internacional pero han regulado en base a prioridades nacionales y normas culturales locales.
La Organización para la Cooperación Económica y Principios de IA de la OCDE, creados en 2019 y apoyado por 47 países, fueron las primeras recomendaciones importantes de políticas públicas sobre el tema.
Fue diseñado para guiar a los actores de la IA sobre los valores y acciones necesarias para desarrollar una tecnología confiable.
Estándares de la ONU
La OCDE también creó el primer conjunto de definiciones comunes y otros estándares que tienen el visto nuevo de las Naciones Unidas (ONU) y gobiernos nacionales en trabajos posteriores.
Las Naciones Unidas para la Educación, la Ciencia y Organización Cultural (UNESCO) publicó el documento Recomendación sobre la ética de la inteligencia artificial, en noviembre de 2021.
Abordar los riesgos éticos asociados con la IA, con 193 países como signatarios.
El informe identifica 11 áreas de enfoque para limitar los sesgos del mundo real como discriminación, divisiones inferiores y conflictos, y prevenir violaciones de los derechos humanos.
Otras agencias de la ONU están analizando las ramificaciones sectoriales, como la Organización Mundial de la Salud (OMS) y el Grupo Internacional de discusión conjunta de la Unión de Telecomunicaciones (UIT).
Te puede interesar:
Inteligencia artificial en la gestión de la cadena de suministro: avances y desafíos
Otros esfuerzos internacionales
Por su parte, el Grupo de los 7 se comprometió a implementar recomendaciones para futuras investigaciones y alentar firmemente la adopción de la GAI en sus sectores privados.
Queda abierta la pregunta sobre cómo los gobiernos implementarán las recomendaciones evitando al mismo tiempo la fragmentación o divergencia que podría socavar sus objetivos para una IA responsable.
Como parte de un trabajo futuro, el G7 afirmó que continuará trabajando en varias cuestiones sobre el tema.
Eso incluye definiciones y el intercambio de información sobre las vulnerabilidades del sistema de IA.
Apenas en octubre de 2023, la Administración Biden publicó una innovadora orden ejecutiva sobre el desarrollo y el despliegue seguros y fiables de la inteligencia artificial (IA).
Su fin es establecer unas normas generales que rijan el uso y el desarrollo de la IA en las industrias.
Legislaciones europeas
En tanto, el Parlamento Europeo aprobó por mayoría un marco legal integral relacionado con la IA, conocida como Ley de IA, el 13 de marzo de 2024.
Fue construido originalmente en torno a casos de uso específicos y calificó sus riesgos de mínimo a alto, pero los legisladores lo revisaron para incluir la GAI.
La legislación final incluía requisitos de transparencia para GAI, así como un proceso de evaluación exhaustivo de la herramienta ante riesgos sistémicos.
También lee:
Política fiscal puede ayudar a ampliar las ganancias de la Inteligencia Artificial
La Ley de IA también incluye varias disposiciones sobre acciones específicas.
Al adoptarse deben estar en consonancia con las políticas de la UE y sus compromisos comerciales internacionales.
Seis acuerdos comerciales bilaterales ya incluyen disposiciones sobre IA, incluidos cinco acuerdos entre Singapur y otras partes y la Área de Libre Comercio de África.
Además, organismos de comercio Estados Unidos y la UE conformaron un Consejo Tecnológico (TTC) para abordar cuestiones tecnológicas emergentes, incluida la GAI.
Crearon una hoja de ruta transatlántica de IA y un código de conducta.
También existe una gran cantidad de normativas vigentes relacionadas con la IA; son unas 600 regulaciones dirigidas a desarrolladores y proveedores de esa tecnología.
Por si te lo perdiste:
Impacto de la inteligencia artificial en el transporte de carga logística
Legislaciones existentes
Muchos reguladores también han utilizado leyes existentes de privacidad y protección al consumidor para investigar las aplicaciones de la IA.
Por ejemplo, ChatGPT fue prohibido en Italia por motivos de privacidad en 2023.
China ha aplicado reglas de expresión en contenido objetable generado por GAI.
En los Estados Unidos, la falta de una legislación integral sobre IA está llevando a los reguladores a abrir una investigación sobre ChatGPT, analizando la seguridad y posibles daños al consumidor.