Por: Miguel Ángel Mozún
De un tiempo a esta parte y de manera revolucionaria, como sucede ya con toda innovación
disruptiva en tecnología, han irrumpido con fuerza nuevos hitos en Inteligencia Artificial que, como el ChatGPT, el AlphaFold, la aplicación DALL·E 2 o el robot humanoide AMECA, nos sorprenden y nos obligan a revisar nuestros parámetros de lo que es capaz de hacer la IA.
Tenemos en nuestras sociedades de imaginarios para poder entenderla y elaborar expectativas que nos invitan al entusiasmo por su llegada o que nos ponen en alerta al verla como una amenaza. Pero, qué es la IA, qué es esa disciplina que ha vuelto a aparecer y que, en manos de gurús, parece prometernos un mundo mejor e, incluso, la superación de la inteligencia humana.
Observar la IA supone, por un lado, esforzarnos por comprender su verdadera naturaleza, por entender qué tenemos entre manos y de qué es capaz esta tecnología, por responder qué es esa inteligencia que llamamos artificial, entender sus capacidades y sus límites.
Pero, además, supone esforzarnos por comprender su impacto social, por ejemplo, en el mercado de trabajo, tanto desde el punto de vista de la sustitución de la mano de obra humana como de la incorporación en los procesos de selección de personal, introduciendo sesgos algorítmicos que generan discriminaciones sistémicas.
También supone un desafío medioambiental, dados la gran cantidad de recursos necesarios para su generalización, desde la extracción de materiales críticos, hasta su distribución, su tratamiento en la cadena de producción, con su impacto medioambiental y climático.
Además, se añadirá un nuevo desnivel a las brechas digitales y tecnológicas ya existentes entre Norte-Sur o Primer y Tercer mundo, como es la desigualdad entre los poseedores de inteligencia artificial y los desposeídos de esa tecnología.
Además, la superación del Test de Turing irrumpe en forma de nuevas relaciones sociales con inteligencias artificiales. Las nuevas necesidades emocionales y las complejidades de las relaciones interpersonales favorecen el recogimiento en interacciones únicamente con IA que sustituye a los humanos. Tendremos relaciones sentimentales con IA, vínculos emocionales como en la película HER.
Y, por último, la aparición de la sofisticación de las deep fakes suponen unas nuevas amenazas en la construcción de las sociedades democráticas, plurales y abiertas. Ante el salto cualitativo de la calidad de las deep fakes news, se observa un deterioro en el ejercicio periodístico, una lesión al derecho a obtener información veraz, una pérdida de confianza en los medios digitales y con la merma de una capacidad crítica aparejada, que incapaz de criterio, suspenda la credibilidad de todo contenido digitalizado.
Por otro lado, mirar críticamente la IA, es comprender los nuevos paradigmas y posicionamientos geopolíticos, en los que de una parte están las grandes tecnológicas, que invierten en innovación y desarrollo, otras en producir, y otras en servir de mercado de consumo.
Además, la disrupción de la IA supone la aparición de nuevos riesgos de lesión a derechos fundamentales. Por ello, recientemente la UE ha elaborado una pirámide de riesgos que sirve de marco para elaborar una regulación que proteja a los ciudadanos de consecuencias indeseadas.
Por último, la implementación de la IA en una máquina capaz de desplazarse y operar físicamente con el entorno supone la aparición de robots altamente complejos, que pronto podremos ver ocupando los espacios privados y públicos, con autonomía y con capacidad para realizar tareas sin supervisión. ¿Qué principios éticos serán necesarios para incorporar en esas IA andantes? En 1942, Isaac Asimov dejó expresadas las 3 grandes leyes de la robótica en su relato “El circulo vicioso” de la siguiente manera:
“—Ahora, escucha, vamos a empezar con las tres Reglas fundamentales de la Robótica; las tres reglas más profundamente introducidas en el cerebro positrónico de los robots —dijo, y en la oscuridad, sus dedos enguantados marcaron cada punto.
—Tenemos: Una, un robot no puede hacer daño a un ser humano, o, por medio de la inacción, permitir que un ser humano sea lesionado.
—¡De acuerdo!
—Dos —continuó Powell—, un robot debe obedecer las órdenes recibidas por los seres humanos excepto si éstas órdenes entrasen en conflicto con la Primera Ley.
—¡De acuerdo!
—Y tres, un robot debe proteger su propia existencia en la medida en que esta protección no sea incompatible con la Primer o la Segunda Ley.”
Te esperamos en este filocafé de ARJEPHILO, donde todo podrá ser dicho y mucho quedará
por decir.
Más enlaces de interés:
Filocafe: Humanos y Maquinas. El futuro del Arte y la Educación ante la emergencia de la IA con el Instituto Peruano de Inteligencia Artificial y Ciudadanía Digital
Filocafé: Inteligencia artificial. Pensar el presente
Verdad y realidad: ¿Estamos preparados para el laberinto tecnológico?
