Prospectiva
¿Es la inteligencia artificial un riesgo para la humanidad y la pérdida de empleos?
“La inteligencia artificial (IA) tiene el potencial de ser tanto beneficiosa como desafiante para la humanidad. En términos de riesgo, algunos expertos plantean preocupaciones sobre el desarrollo de la IA general o súper inteligencia que podría superar la capacidad humana y potencialmente tener consecuencias imprevistas. Sin embargo, estos escenarios aun son especulativos y se requiere investigación adicional.
“En cuanto a la pérdida de empleos, es posible que la automatización impulsada por la IA tenga un impacto en ciertos sectores, reemplazando tareas, repetitivas y rutinarias. Esto podría resultar en la necesidad de que las personas se adapten y adquieran nuevas habilidades para trabajos más complejos y creativos. Al mismo tiempo, la IA también puede crear nuevos empleos y oportunidades en campos relacionados con la tecnología.
Es importante que la sociedad tome medidas para comprender, regular y manejar adecuadamente los avances de la IA, asegurando que se utilice de manera ética y en beneficio de la humanidad en general”.
¿Puede utilizarse la inteligencia artificial en la educación?
“Si, la inteligencia artificial puede utilizarse en la educación de diversas formas. Puede ayudar en la personalización del aprendizaje, adaptando los contenidos y las metodologías a las necesidades individuales de los estudiantes. Además, puede proporcionar retroalimentación instantánea, ofrecer recursos de aprendizaje adicionales y asistir en la evaluación de los estudiantes. La inteligencia artificial también puede facilitar la creación de entornos de aprendizaje interactivos y estimulantes. Sin embargo, es importante encontrar equilibrio entre la tecnología y la interacción humana para asegurar una educación integral y de calidad.
Los amables lectores se preguntarán quién es la persona que responde estas dos preguntas y lo hace con tanta claridad y solvencia. Es ChatGPT. Sí, le hice estos dos cuestionamientos que me parecen importantes, primero, para conocer su planteamiento sobre una preocupación que esta presente a nivel mundial, segundo, porque su implementación en los procesos de enseñanza-aprendizaje es particularmente importante e inquietante, por decir lo menos.
“La inteligencia artificial en educación no reemplazará a los maestros, pero puede ayudar a ampliar y mejorar la experiencia educativa, liberando el tiempo para que los educadores se enfoquen en aspectos más creativos y emocionales del aprendizaje” Rose Luckin
En la primera pregunta, ChatGPT da una respuesta mesurada, que trata de eludir los riesgos que para la humanidad conlleva la IA y pone en los seres humanos el control de riesgos que trae aparejados este desarrollo tecnológico
La segunda pregunta deriva de mi responsabilidad como rector de una institución educativa de nivel superior, la Universidad Olmeca; por ello, me resulta importante conocer la postura de ChatGPT sobre el uso de la inteligencia artificial en el proceso de enseñanza-aprendizaje.
Su respuesta fortalece mi idea de que solo con un trinomio indisoluble docente-tecnología-educandos, se puede garantizar una educación de calidad y permitente utilizando a la IA como una herramienta para obtener mejores resultados en el aula, sin dejar de mencionar que la brecha digital es una variable que debe ser atendida con políticas públicas más consistentes y efectivas.
Vuelvo a la primera pregunta. ¿Nos deja tranquilos las respuestas de ChatGPT? No. Hay muchas más interrogantes. Muchas más preocupaciones, sobre todo cuando entre los disensos están los desarrolladores de este modelo de lenguaje basado en la inteligencia artificial desarrollado por Open AL.
“Se le conoce como ChatGPT porque está diseñado para mantener conversaciones con los usuarios y brindar respuestas coherentes y contextualmente relevantes”. Lo anterior se entrecomilla por que es la respuesta del propio ChatGPT.
En marzo pasado, expertos en inteligencia artificial firmaron un escrito en donde demandan frenar seis meses la carrera sin control de los ChatGPT. Entre los firmantes están Elon Musk dueño de Tesla; SteveWozniak, el cofundador de Apple, y el historiador Yuval N. Harari. Solo tres hombres de un millar de firmantes.
¿Por qué esta preocupación? En el escrito se aduce que es preocupante “la velocidad a la que se están desplegando herramientas basadas en la inteligencia artificial (IA) generativa, la que es capaz de crear textos, imágenes o música a partir de una serie de instrucciones”.
Le pregunté a ChatGPT: ¿Se está creando un Frankenstein con la inteligencia artificial? “No, la inteligencia artificial no es comparable a Frankenstein. Frankenstein es un personaje ficticio creado por Mary Shelley en su novela homónima, mientras que la IA es un campo de estudio y desarrollo tecnológico que busca replicar o simular la inteligencia humana en máquinas. Aunque la inteligencia artificial ha suscitado debates éticos y sociales, no es un monstruo creado sin control.
“La IA es una herramienta creada por seres humanos y su desarrollo y aplicación dependen de como la utilizamos. Como cualquier otra tecnología puede tener beneficios y desafíos, y es responsabilidad de la sociedad garantizar un uso ético y responsable de la inteligencia artificial para maximizar sus beneficios y mitigar sus posibles riesgos”.
¿Nos debe tranquilizar la respuesta de ChatGPT?Es necesario recordar que en la novela de “Frankenstein”, de Mary Shelley, el Dr. Víctor Frankenstein pretendía crear vida.Estaba obsesionado con la idea de desafiar los límites de la ciencia y dar vida a una criatura nueva y poderosa.Su objetivo era realizar un acto de creación comparable al de un Dios, y trascender las limitaciones humanas. Sin embargo, una vez que su creación cobro vida, el Dr. Frankenstein se horrorizó por su apariencia y lo abandonó, lo que desencadenó una serie de eventos desafortunados y trágicos.
“El mayor peligro de la inteligencia artificial no es que se vuelva malvada, sino que se vuelva competente, sin compasión ni amor” Eliezer Yudkowsky
Dicen que las analogías no son siempre buenas. La que haré creo que cumple con la descripción de la palabra: “Una analogía es una figura retórica que establece una relación de semejanza o similitud entre dos cosas diferentes”. A principios de mayo de este año, Geoffrey Hinton, conocido como el “padrino” de la IA, dejó Google, al tiempo este experto “aviso” de los peligros de esta tecnología. ¿Por qué? Hinton teme, especialmente, que internet “se vea inundada de falsos textos, fotos y videos, y que las nuevas herramientas desplacen a muchos trabajadores”.
En entrevista concedida a The New York Times, el llamado padrino de la IA, de 75 años, lamenta haber dedicado su carrera a este ámbito. “Me consuelo con la excusa normal: sino hubiese sido yo, otro lo habría hecho”.
Este planteamiento suena como el arrepentimiento del Dr. Frankenstein al ver el monstruo que había creado. ¿Provocará IA eventos desafortunados y trágicos como ocurrió con Frankenstein? “Es difícil ver como se puede evitar que los malos actores la usen para cosas malas”, reconoce Hinton, al tiempo que insiste sobre “la excesiva velocidad a la que se están logrando avances”.
Hinton recibió el año pasado, por su aporte en la generación de esta nueva tecnología, el Premio Princesa de Asturias, de manos de la princesa de Asturias, la heredera al trono de España, Leonor de Borbón y Ortiz, hija de Felipe VI.
Hinton es uno de los muchos firmantes de la carta abierta arriba deferida, en la que se advierte que el último modelo [ChatGPT.4] “ya es capaz de conducir con los humanos en un creciente número de tareas, y que podría usarse para destruir empleos y difundir desinformación”. Esta carta que es un grito de la advertencia, no ha tenido respuesta. La vorágine el desarrollo tecnológico sigue su cause. Hay mucho dinero de por medio, Además, ningún desarrollador va a pausar a sabiendas de que su competidor puede seguir trabajando para ganarle el mercado. La lucha entre los desarrolladores de ChatGPT y Bard es una muestra de ello.
Frenar seis meses en el desarrollo y pruebas de sistemas de IA más poderosos que ChatGPT 4. Meter freno porque “en los últimos meses los laboratorios de IA han entrado en carrera sin control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o de forma fiable”, es, sin duda una quimera.
Jordi Pérez Colomé (El País. 17 mayo 2023), relata la comparecencia de Sam Altman quien describió el actual auge de esta tecnología ante los legisladores miembros de las cámara de Representantes y de Senadores: “como un potencial momento histórico, pero que requiere garantías”. ¿Es necesaria la regulación gubernamental? Altman reconoció ante los legisladores que “la intervención reguladora de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más potentes.”
Como se puede apreciar, los modernos émulos del Dr. Victor Frankenstein, le han echado la bolita al gobierno claros de que no saben si su modelo será el monstruo que creó Mary Shelley, utilizando al Dr. Víctor Frankenstein, o, en cambio, un verdadero aliado del ser que lo creo y de la humanidad.
“Me preocupa que la inteligencia artificial supere a los humanos. Podría ser nuestro peor error en la historia” Stephen Hawking.
“La inteligencia artificial es la peor invención que hemos hecho. Puede superar a los humanos en casi todo” Elon Musk
ChatGPT nos da su opinión sobre la reacción de los creadores de esta nueva tecnología: “Los creadores de la inteligencia artificial (IA) son los primero en alertar sobre los riesgos asociados porque son consientes de las capacidades y limitaciones de esta tecnología. A medida que la IA avanza y se vuelve más sofisticada, también aumentan las posibilidades de que pueda tener efectos negativos o ser utilizada de manera perjudicial.
“Los expertos en IA entienden que, si no se abordan adecuadamente, pueden surgir desafíos éticos, sociales y técnicos. Algunos de los riesgos asociados con la IA incluyen la falta de transparencia en los algoritmos, el sesgo inherente en los datos utilizados para entrenarlos, la privacidad y seguridad de los datos, la automatización del empleo y la toma de decisiones éticas.
“Al ser conscientes de estos riesgos, los creadores de IA buscan generar conciencia y promover un enfoque responsable en el desarrollo y aplicación de esta tecnología. Al alertar sobre los riesgos, se espera fomentar un diálogo amplio y transparente sobre cómo la IA debe ser utilizada de manera ética y segura, y cómo se pueden mitigar los posibles efectos negativos.
“Es importante destacar que no todos los creadores de IA están de acuerdo en cuanto a los riesgos específicos y la magnitud de los mismos. Sin embargo, el hecho de que haya un debate y una discusión abierta sobre los riesgos demuestra un compromiso por parte de la comunidad de la IA para abordar estos desafíos de manera proactiva y buscar soluciones que minimicen los impactos negativos.”
Efectivamente, los impulsores de la inteligencia artifical están preocupados, pero, ¿Están ocupados? ¿Basta con la firma de manifiestos apocalípticos? Jordi Pérez Colomé (El País, 1 de junio 2023) inicia su artículo manifestando que: “Por si él mundo no tenía ya una variedad de opciones futuras de calamidad total, ahora tenemos otra nueva: la inteligencia artificial.”
Nos comparte una muy amplia relación de manifestaciones de preocupación, sumadas a las 30 mil personas, encabezadas por Elon Musk, que pidieron en marzo pasado un alto en el camino de al menos seis meses en la investigación sobre la inteligencia artificial. Ya comentamos que Sam Altman, líder de la empresa que ha creado el producto más exitoso en este campo, ChatGPT, luego de decir ante los miembros del Congreso de los EE.UU. que con la IA, “todo puede salir muy mal”, ahora, en el papel de doctor Víctor Frankenstein, está en gira mundial para, que paradoja, al tiempo que promueve su producto, advierte al mundo de los “peligros épicos” que genera la inteligencia artificial generativa.
¿Qué están haciendo los gobiernos frente a este fenómeno tecnológico con expectativas tan discordante? Generando paliativos. EE.UU y la UE propondrán un “código de conducta voluntario” para las empresas que desarrollen este tipo de tecnología. ¿Podrá esta propuesta rellenar el vacío legal en tanto entre en vigor la Ley de Inteligencia Artificial que sigue en vías de negociación en las instituciones europeas? ¿México esperará hasta que haya un ejemplo muestra o generará una iniciativa propia para enfrentar los riesgos que hemos descrito en esta Prospectiva? Preguntas, solo preguntas aún sin respuesta.
“La inteligencia artificial plantea preguntas fundamentales sobre la privacidad, la igualdad y el empoderamiento ciudadano en el contexto democrático, y requiere un marco ético sólido para asegurar que se utilice en beneficio de todos” Tim Berners-Lee
“¿Y si la inteligencia artificial no es el apocalíptica? Es como decir “que viene el coco”. En su artículo, Pérez establece que el escenario es “una mezcla de miedo y moda que ha convertido a esta tecnología en protagonista de un posible cambio radical y profundo que quizá no llegue tan lejos como algunos plantean a veces con miedo, en ocasiones con esperanzas.”
Una pregunta que me parece clave es: ¿Puede la inteligencia artificial fortalecer la democracia? ChataGTP nos responde a esta pregunta: “La IA tiene el potencial de fortalecer la democracia al brindar oportunidades para una participación ciudadana más amplia y una toma de decisiones más informadas.
Algunos ejemplos de cómo la IA puede contribuir incluyen:
- Acceso a la información, la IA puede ayudar a recopilar, analizar y organizar grandes cantidades de datos para proporcionar información más precisa y relevante a los ciudadanos y a los responsables de la toma de decisiones.
- Participación ciudadana. Las plataformas de inteligencia artificial pueden facilitar la participación ciudadana al permitir a las personas expresar sus opiniones rotar y colaborar en la formulación de políticas.
- Transparencia y rendición de cuentas. La IA puede ayudar a detectar y prevenir a la corrupción, así como a monitorear y auditar de manera más efectiva el uso de recursos públicos”.
La respuesta de ChatGPT nos describe un modelo orientado a defender la democracia. Sin embargo, no toca el tema de la privacidad de los datos personales, tampoco de la manipulación de los electores. ChatGPT se protege cuando añade: “Sin embargo, es importante tener en cuenta que la implementación de la IA también plantea desafíos y riesgos, como la privacidad de los datos, la discriminación algorítmica y el sesgo inherente en los modelos de IA, es necesario abordar estos problemas y garantizar una gobernanza adecuada para aprovechar al máximo el potencial de la IA en beneficio de la democracia y la sociedad”.
Surge una nueva pregunta para ChatGPT ¿Puede un partido o un candidato manipular por medio de IA a un potencial votante?
Su respuesta es la siguiente: “La inteligencia artificial podría ser utilizada de manera inapropiada o manipulada por parte de un partido político o un candidato para influir en los potenciales votantes. Esto podría involucrar técnicas como la segmentación de audiencias, la personalización de mensajes o la difusión de información sesgadas con el objetivo de manipular opiniones o comportamientos”.
Pero ChatGPT va más lejos cuando añade lo siguiente: “Por ejemplo, se podrían utilizar algoritmos de IA para analizar datos personales de los votantes y crear perfiles detallados, lo que permitiría enviar mensajes específicos diseñados para influir en sus preferencias políticas. También se podrían utilizar técnicas de desinformación y propaganda para difundir información falsa o distorsionada a través de plataformas en línea”.
ChatGPT nos advierte que: “Es importante destaca que el uso manipulador de la IA en política es un tema preocupante y se deben establecer medidas para garantizar la transparencia, la ética y la protección de los derechos de los votantes. La regulación, la supervisión y la alfabetización digital son aspectos claves para contrarrestar posibles manipulaciones y salvaguardar la integridad de los procesos democráticos” ¿Está el INE preparado para enfrentar los retos que derivan del uso de la IA en procesos electorales?
“El más triste aspecto de la vida ahora mismo, es que la ciencia alcanza el conocimiento más rápido que la sociedad alcanza la sabiduría” Isaac Asimov
Así las cosas, debemos entender que la inteligencia artificial, desde todos los ángulos que se le quera ver es un reto. Por ellos hice contacto con Josú Gómez Barrutia, experto en la materia, quien recién publicó un artículo en el que detalla cuales son los retos de la IA, “una ecuación en tiempos de cambio”.
El autor de “Inteligencia Artificial, Revolución Tecnológica y Democracia” (nuevatribuna.es) es, entre otras muchas cosas, fundador y CEO de la Red Business Market de impulso a los ecosistemas emprendedores, startups y de empresarios en Iberoamérica. Esta red se compone de 25 sedes permanentes en ciudades y territorios. En diciembre próximo se realizará un evento que arropará a académicos, empresarios, tecnólogos, mercadólogos y desarrolladores de proyectos económico para impulsar en Iberoamérica las startups. Este evento se realizará los días 13, 14 y 15 de diciembre en Sevilla, España.
Josú Gómez, quien en octubre próximo será investido como Doctor Honoris Causa de la Universidad Olmeca, me regaló tiempo de su agitada agenda para realizarle una breve entrevista que compartimos en este espacio.
P: ¿Inicias tu artículo con una frase de Issac Asimov que me he permitido reproducir? ¿Por qué consideras que describe una realidad actual?
R: Porque Asimov parece haber descrito una realidad actual con toda crudeza. ¿Cuál? Esa en la que los avances tecnológicos y de la inteligencia artificial hoy se mueven a un ritmo de exponencialidad tan elevado que dejan atrás, en gran medida y de manera permanente cualquier intento en la base común de los mortales de entender su impacto real, presente y futuro.
P: ¿Es el uso de la IA una revolución de esas que cambian el rumbo y el destino del mundo, de la sociedad?
R: Hoy, revoluciones de tanto impacto como la relativa a la singularidad tecnológica; entendida como la capacidad de la máquina de tomar conciencia de sí misma, no se ve como un hecho alejado en el futuro, sino como una realidad presente en apenas siete años, en base al actual incremento de las capacidades de inteligencia artificial que fija este momento trascendental en el año 2030.
P: En tu artículo hablas de cómo la IA puede ser utilizada en la toma de decisiones de voluntad democrática de los pueblos. ¿Me lo puedes detallar?
R: Efectivamente, la IA es capaz de ser utilizada para influenciar en la toma de decisiones del electorado. ¿Cómo? Mediante las ya muy conocidas Fakes News de las redes sociales. Esos canales de consumo masivo son de fácil manipulación en la gestión del control del dato como nuevo elemento de dictadura y de asfixia a la libertad. ¿Cómo se hace? Mediante un clic en nuestro ordenador, y de la vigilancia permanente de nuestros modelos de vida, relación, consumo y movimiento.
P: Se habla mucho de los algoritmos. Parece algo de magia, de brujería. ¿Hasta dónde pueden llegar con estos algoritmos?
R: El algoritmo lo puede todo, hasta el extremo de marcar la compatibilidad de parejas, trabajos dietas o vestimenta a través de programas plataformas y Apps controladas por una inteligencia artificial, que aún sin tomar conciencia de sí misma ya nos pone en jaque a pilares tan fundamentales en democracia como el de la libertad, el derecho a la intimidad o la imagen.
P: En tu artículo detallas muchos retos derivados del avance tecnológico. ¿Podrías abundar al respecto?
R: Hoy vivimos un mundo en el que el avance tecnológico es una necesidad, pero debe llegar acompañado de regulaciones del marco de implantación del mismo en nuestra sociedad para salvaguarda de la democracia. Hoy somos testigos de un profundo debate en el que territorios o regiones, como China o Europa, transitan por diferentes caminos.
P: ¿Por qué detectas esta disonancia?
R: China transita por el camino que marca como prioritario la defensa de un modelo marca totalmente permisivo que le hagan posible transitar por todos los caminos que permitan hacer de la tecnología y la inteligencia artificial elemento de servicio de la visión geopolítica del país asiático.
P: ¿Europa qué ruta se ha trazado?
R: Se ha centrado en desarrollar un marco regulatorio -para algunos excesivo-de la implementación de la tecnología en el continente para evitar la derivación y el mal uso de la misma en un proceso de violación flagrante de los pilares de las democracias europeas.
P: Por último, Josú: ¿Qué rumbo lleva esta evidente dicotomía?
R: Mi estimado Emilio, desgraciadamente, vislumbro un ámbito, un escenario, en el que el choque de trenes parece inevitable en lo relativo a dos concepciones diametralmente opuestas sobre la posición que hoy la humanidad tiene que tomar en el marco de esta cuarta revolución tecnológica.
Así es que, estimados lectores la inteligencia artificial no solo conlleva retos laborales, a nuestra privacidad, también será parte de lo que se ha llamado “la nueva guerra fría”, de la que hablamos de semana pasada, de lo que seguiremos hablando en el futuro que ya nos alcanzó. Hasta el próximo lunes.