21 de Noviembre de 2024

logo
Actualidad logística

Científicos alertan sobre los riesgos de la IA y sus efectos catastróficos

Advierten sobre los peligros de la IA científicos señalan efectos catastróficos
Redacción TLW®

Compartir

Madrid, (EFE).- Científicos de numerosos centros de investigación y universidades de varios países alertaron, en un artículo que hoy publica la revista Science, de los elevados riesgos de la Inteligencia Artificial (IA) y de las consecuencias catastróficas que los fallos que esta tecnología puede causar.

Los investigadores subrayaron que los sistemas de Inteligencia Artificial ya se han puesto a prueba en una amplia gama de aplicaciones, desde el diagnóstico médico hasta la navegación de coches autónomos, pero han alertado de que éstos son escenarios de alto riesgo en los que los márgenes de error son escasos y las consecuencias de un fallo pueden ser fatales.

La entrada en Science llega apenas quince días después de que 5.500 expertos de todo el mundo publicaran una carta abierta en la que abogaban por pausar durante un tiempo los experimentos con la IA más potente y avanzada la llamada generativa y que es capaz de crear textos o imágenes a partir de datos ya existentes- ante los riesgos que puede entrañar para la sociedad.

Hoy firmaron en Science investigadores de varias instituciones académicas y científicas, entre las que están las universidades de Cambridge, Harvard,  Stanford, Shandong (China), la Politécnica de Valencia, el Imperial College London,  el Instituto Tecnológico de Massachusetts (MIT), y varias empresas, entre ellas Google o la británica DeepMind, una de las mayores multinacionales del sector de la Inteligencia Artificial.

Sigue leyendo: Sector automotriz mexicano es el que más aplica inteligencia artificial en el país

Los científicos que hoy suscribieron en la revista incidieron en la necesidad de que todas las publicaciones sobre esta materia incluyan de forma pormenorizada todos los datos que son vitales para comprender y abordar los errores intermedios que pueden conducir a los posibles fallos, y que todos esos datos estén a disposición de la comunidad científica que evitar que se reproduzcan los mismos errores.

Describieron por ejemplo un escenario hipotético en el que un algoritmo de reconocimiento facial alcanza laimpresionante tasa de precisión del 90% al distinguir rostros masculinos de femeninos; sin embargo, un examen detallado podría revelar que clasifica erróneamente los rostros de mujeres de piel oscura en el 35% de los casos; y que ese porcentaje de error sólo se produce en el 0,8% de los hombres de piel clara.

Reclamaron por lo tanto informes mucho más detallados y una mayor disponibilidad de todos los datos que se han utilizado para los análisis, y consideraron que de esa manera la investigación sobre IA se aproximaría a los protocolos que ya se registran en otras disciplinas, como la medicina o la física.

Entre los firmantes del artículo está el español Fernando Martínez-Plumed, científico y profesor en el Instituto Valenciano de Investigación en Inteligencia Artificial (Universidad Politécnica de Valencia), quien aseguró que tratar de poner freno a la IA "es una tarea muy difícil, si no imposible", y observó que la investigación y el desarrollo implica a la industria, a la academia o a la sociedad y que cada una tiene sus intereses distintos "y a veces contrarios".

Pero sí es crucial, a su juicio, reducir y mitigar los riesgos y garantizar un uso responsable y seguro, y entre las diferentes estrategias que se deben seguir destacó la de que los investigadores y los desarrolladores trabajen juntos para crear tecnologías " más seguras, éticas, transparentes y justas" y que las empresas y los gobiernos establezcan regulaciones y estándares.

En declaraciones a EFE, Martínez-Plumed precisó que unas tecnologías de IA pueden tener más riesgos que otras, como las que involucran la toma de decisiones críticas o el acceso a información privada, los sistemas de vigilancia o los algoritmos de contratación; o los más modernos, capaces de generar de texto, imágenes, audios o vídeos.

Son capaces de crear obras de arte y textos impresionantes, pero también presentan nuevos riesgos para la sociedad: la creación de contenidos falsos, engañosos o incluso peligrosos, como noticias falsas, contenidos ofensivos, discriminatorios e ilegales".

Martínez-Plumed

Pero al final, reflexionó, los sistemas de IA se entrenan y aprenden a partir de conjuntos de datos que reflejan, y amplifican, los mismos prejuicios y las desigualdades que existen en la sociedad, el machismo, el racismo, el clasismo u otros.

Y citó los ejemplos ya contrastados de sistemas para la contratación de personal que se entrenan con datos históricos de contratación de empleados que muestran sesgos de género o raza, de métodos de detección de rostros que no reconocen a las mujeres negras, algoritmos de búsqueda con estereotipos negativos sobre las niñas negras; y hasta prejuicios lingüísticos al mostrar preferencias por determinados acentos o dialectos.

"Los sesgos en los sistemas de IA no son intrínsecos a la tecnología, sino que reflejan los prejuicios en los datos y decisiones humanas utilizados para entrenar los modelos", aseveró el investigador, e incidió en la importancia de identificarlos y tratarlos para avanzar hacia sistemas de IA "más equitativos y justos", guiados por valores éticos y sociales, y no sólo por consideraciones técnicas o económicas. 

Fernando Martínez-Plumed concluyó que la Inteligencia Artificial puede ser una herramienta poderosa para abordar algunos de los problemas más apremiantes de la sociedad, "pero sólo puede ser eficaz si se utiliza de manera responsable y reflexiva". 

EFE rc/cc

No dejes de ver: Inteligencia Artificial y comercio internacional: Cómo está transformando la industria


Redacción TLW®

Equipo editorial de THE LOGISTICS WORLD®, conformado por periodistas especializados en la industria del transporte, supply chain, manejo de almacenes y tecnologías logísticas.

Relacionadas

contenedores

Actualidad logística

BMW desarrolló una caja para envíos intercontinentales que aprovecha mejor los espacios en contenedores

Cuenta con una compuerta de carga para la recuperación ergonómica de las piezas

Actualidad logística

Nicaragua y China firman un acuerdo para construir un puerto en el Caribe nicaragüense

El acuerdo busca desarrollar un puerto en el Caribe, clave para la región

Las más leídas

cadenas de suministro globales

Comercio internacional

Análisis: así afectan los ataques en el mar Rojo a las cadenas de suministro globales

Cambiar rutas afecta los tiempos de tránsito, encarece el transporte y afecta el comercio global

industria

Actualidad logística

Reducción de la jornada laboral en México se mantiene en suspenso en el Congreso

La propuesta para acortar la jornada laboral a 40 horas en México sigue en debate

Actualidad logística

Shein México: Cómo reclamar y resolver problemas con tus pedidos de manera efectiva

Los problemas con los pedidos de Shein en México no deben ser motivo de preocupación

Logística en comercio electrónico

¿Cuánto tiempo tarda un pedido de Shein en llegar a México?

Optimiza tus compras en Shein conoce los plazos de entrega en México

Recomendadas

peak season

Logística en comercio electrónico

El villano de la peak season: una pesadilla si se trabaja en silos

Sin darnos cuenta, creamos la tormenta perfecta por errores de colaboración y liderazgo

gestión de la cadena de suministro

Tecnología

Proveedores de servicios están transformando la gestión de la cadena de suministro con análisis predictivo

Buscan hacer sus supply chains más resistentes y reducir el riesgo

demanda de robótica

Almacenes e inventarios

La demanda de robótica se dispara: así planean utilizarla las empresas

Un 33% planea usar robots en los próximos tres años

Mercado Libre Buen Fin 2024

Logística en comercio electrónico

Mercado Libre con mayor capacidad logística para Buen Fin 2024 y temporada alta en México

El marketplace tiene dos Cedis más en su red para contar con 11 en México