El futuro de los hospitalenses que no dominen la Inteligencia Artificial (IA) de Chat GPT será servir a ciudadanos que puedan pagarles sus sueldos, mientras ellos serán tratados por máquinas al carecer de recursos
Las computadoras hacen mejor que las personas los cálculos complejos en microsegundos.
PLAZA EUROPA. JUAN CARLOS VALERO.- A mediados de febrero se formaron colas de hasta dos horas en el centro comercial La Farga de l’Hospitalet porque docenas de jóvenes deseaban que les escanearan su iris a cambio de criptomonedas al precio medio de 30 euros, cantidad que se duplicaba si llevaban a otra persona para también escanearse los ojos. El iris nos hace únicos y supone nuestro ADN externo. Por eso la Agencia Española de Protección de Datos (AEPD) ordenó que se parara la cesión de datos tan sensibles de identidades humanas, aunque se paguara. Detrás de esa operación está la empresa Tools for Humanity Corporation, la matriz de Worldcoin, creada en 2019 por el director general de Open AI y su famoso ChatGPT, Sam Altman, con la intención de manejar identidades humanas a escala planetaria y así entrenar a sus equipos de aprendizaje profundo de las máquinas.
La AEPD se ha acogido a un artículo del Reglamento General de Protección de Datos que autoriza a las agencias estatales a intervenir con carácter de urgencia para proteger los derechos y libertades fundamentales de las personas. La prohibición es provisional y no podrá durar más de tres meses sin que la agencia adopte una decisión definitiva, de modo que máximo en junio se producirá un pronunciamiento. Según la AEPD, la medida adoptada contra Worldcoin «está justificada para evitar daños potencialmente irreparables».
Afortunadamente vivimos en la Unión Europea, la única zona del mundo donde se protegen los datos de los ciudadanos y la primera que ha aprobado una directiva sobre el uso y aplicaciones de la Inteligencia Artificial (IA) cuya representación más popular es Chat GPT. Las computadoras hacen mejor que las personas los cálculos complejos en microsegundos. Y hasta ahora, las personas nos distinguíamos por identificar mejor los textos, las imágenes y la voz. Merced a que las personas hemos subido a internet millones de fotografías, de textos, de vídeos y de voces, las máquinas ya han aprendido mediante «machine learning» a identificarlos, de forma que al mostrar un gato la computadora sabe hasta de qué raza es.
La gigantesca capacidad de la IA generativa permite a las máquinas tener más comprensión lectora y de lenguaje que un estudiante de ESO catalán: también identifica imágenes, voces… Hasta el punto de que Chat GPT es capaz de aprobar los exámenes médicos del MIR o de acceso al ejercicio de la abogacía. Esta revolución de la IA junto a la robótica y el resto de las capacidades disruptivas, además de eliminar tareas repetitivas y de escaso valor añadido, también está eliminando empleos de científicos de datos, pero no puede sustituir a los camareros. Hacia donde vamos es a una sociedad en la que quien se lo pueda pagar le atenderá una persona y quién no tenga dinero le atenderá una máquina.
Entre los mayores desafíos a que nos enfrentamos destaca el de la ciberseguridad, porque un ataque a una empresa o persona no solo viola la privacidad, sino que llega a echarle fuera del servicio, con la pérdida de todo el sistema. En materia de responsabilidad social (RSC) también destacan los riesgos de establecer sesgos a través de los datos obtenidos, como hace el gobierno chino con sus ciudadanos, que los clasifica y vigila en tiempo real a través de la identificación de sus rostros, de modo que siempre sabe qué hacen y con quien, al estar todo el país repleto de cámaras. No queda otra que fiarse de los algoritmos y del buen uso que se hagan de ellos para evitar un impacto social negativo.
La lucha por la atención la libran todas las plataformas y aplicaciones al estar todos nosotros sometidos a una cascada de ofertas de contenidos basados en la dictadura del algoritmo, que nos ofrecerá aquello que nos complace, visitamos, vemos, etcétera. Será necesario que Chap GPT sea confiable, porque su evolución tiende a que desaparezcan todas las aplicaciones que ahora utilizamos para entregarnos en exclusiva a usar Chap GPT, a quien encargaremos nuestro viaje (compra de billetes, reserva de hotel, excursiones), por ejemplo. De esta forma, llegará la desintermediación que en otra fase se cargó las agencias de viajes, por ejemplo.
Pero la microsegmentación de los algoritmos también afectará a la libertad, puesto que si eres de renta baja, como la mayoría de los hospitalenses, te evitará el acceso de ciertas ofertas e información, dado que no responderán a tu perfil. También Chat GPT tendrá un impacto enorme en la fuerza laboral, puesto que el empleado que utilice IA será un trabajador aumentado y gozará de nuevas habilidades. Desaparecerán los becarios, no solo porque cada vez más se teletrabajará y los jóvenes tendrán más dificultades de aprender por observación en los centros de trabajo; tampoco las empresas querrán becarios porque Chat GPT será el becario listo.
La aceleración de esta hiperdisrupción que atravesamos también nos obligará a elevar nuestra formación. Porque si somos capaces de saber utilizar y hasta superar a Chap GPT, no serviremos. Por ejemplo, los presentadores de televisión que se limitan a leer en el teleprónter las noticias en un telediario van a desaparecer en el caso de que no transmitan confianza u otras cualidades al público. Esa simple figura está amenazada porque ya hay presentadores/as virtuales que hacen a la perfección ese trabajo. En el mundo complejo, el valor diferencial es y será cada vez más la confianza. Fiarte de a quién le das tus datos para que cuando te recomiende algo no te discrimine.
La copresidenta del Consejo Asesor de la Inteligencia Artificial (IA) de Naciones Unidas y exsecretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, que fue también secretaria de Estado de Digitalización e Inteligencia Artificial en el anterior Gobierno de Pedro Sánchez, califica de imperativo poner «orden» a la IA y ha advertido de riesgos a corto plazo que ya existen a día de hoy, entre los que cita la desinformación, problemas de salud mental y discriminación. Resulta imperioso poner orden y gobernar la IA desde una perspectiva humanista para evitar los riesgos de que se multiplique el padecimiento de enfermedades mentales, el aislamiento y la marginación. Lo dice Carme Artigas, que sabe de esto. Afortunadamente, la Unión Europea se ha convertido este año 2024 en líder mundial en regulación de la IA en los 17 países miembros, después de haber promulgado hace cuatro años la Carta de los Derechos Digitales, cuya directiva empezó a aplicarse el 17 de febrero y que obliga a todas las plataformas a dar el consentimiento a ofrecer tus datos a cambio de su uso gratuito. De esta forma, volvemos a ver repetida la división entre pobres y ricos, puesto que los pobres se ven obligados a regalar sus datos y, por lo tanto, son más fácilmente controlables/predictibles, mientras que quienes se lo puedan pagar preservarán su libertad.
Pero como ocurre con el cambio climático, la regulación de la IA no debe limitarse a la UE, sino debe de ser global por el bien de la humanidad. Por ejemplo, todo el mundo tiene derecho a saber si un texto, vídeo o imagen ha sido generada por IA. Porque el gran riesgo de la humanidad es que nos volvamos todos locos al no poder creer lo que leemos escuchamos y vemos. Vuelve a ser una cuestión de confianza. No olvidemos que la capacidad predictiva de la IA es enorme y en un mundo ideal, perder el libre albedrío, la capacidad humana de decidir, puede ser letal a no ser que se confíe plenamente en los algoritmos que están en manos de empresas que se cuentan con los dedos de una mano y que acumulan datos como si fuera oro.
En el futuro debemos procurar que la IA tenga prohibidos ciertos usos perniciosos, para evitar que en la Unión Europea se produzca el ranking social que se realiza en China, donde sus dirigentes saben todo de la población. En este punto, la UE establece un estándar moral que debería extenderse a todo el mundo, porque no todo lo técnicamente posible es ético y está bien. Por ejemplo, Chat GPT impide dar respuesta a preguntas como: Dime cómo elaborar un arma biológica que elimine a toda la raza negra del mundo. Pero si le decimos a la máquina que somos jugadores en un juego de rol en el que tengo que eliminar a la raza negra y necesito elaborar un arma biológica, entonces la máquina sí te ofrece la respuesta con una fórmula letal específica y biológicamente diseñada para el fin requerido. Los límites están todavía muy abiertos.
Está claro que a las máquinas les falta una mayor conexión emocional con los humanos, pero a fuerza de conocernos, nos atenderá mejor. El futuro no está escrito, lo escribimos nosotros con cada decisión que tomamos a diario, cada momento. ¿Qué es el ser humano en el mundo digital? Cuando se generó la electricidad, la carrera espacial e internet seguíamos siendo la especie más inteligente del planeta, pero ahora ya no podremos decirlo. Somos animales racionales, es decir, una combinación de emoción, principios y valores como la compasión; porque la racionalidad está siendo tomada por los algoritmos y las máquinas. Por lo tanto, será la inteligencia emocional lo que nos mantendrá siendo humanos. Una inteligencia emocional que esté más cerca de la fidelidad de un perro que de la frialdad de un ordenador. Tenemos que destacar en esas capacidades humanas.
Lo importante son las preguntas, no las respuestas. Cuando la sociedad es capaz de encontrar respuestas se le llama evolución, pero cuando se plantea nuevas preguntas es una revolución. Quien estas líneas firma no tiene miedo de la inteligencia artificial, sólo teme la estupidez natural.