Si la IA no es una persona, entonces, ¿por qué le pides las cosas por favor y le das las gracias? No es un reclamo, es una pregunta para comenzar con esta reflexión. Parece inevitable que ante una tecnología dedicada a imitarnos eventualmente le respondamos como lo hacemos con otras personas. Sin embargo, nuestra relación con la IA puede escalar a mayores niveles que aquí comparto. Cada “nivel” refleja una relación distinta con esta tecnología, que conviene reflexionar a profundidad para orientar nuestra interacción y las de nuestros estudiantes, hijos y demás cercanos.
Trato amable con la IA. A principios de año, Sam Altman, CEO de OpenAI, divulgó que esta empresa pierde millones de dólares en que ChatGPT procese palabras como “hola”, “por favor” o “gracias”. Pues, aunque estas palabras no influyen en la calidad del resultado de la instrucción, de igual forma se procesan y computan en sus servidores. Cuando veo que mis estudiantes usan estas palabras me parece más simpático que preocupante. Me recuerda cuando algunos abuelos escribían estas mismas palabras en el buscador de Google o Youtube. A algunos les parece buena esta práctica como afán de evitar perder nuestra humanidad, más que otorgarle esta condición a la IA. Sin embargo, creo a medida que tenemos mayor conocimiento del funcionamiento de esta tecnología, aprendemos a verla solo como una máquina sofisticada de procesamiento de textos, sonidos e imágenes.
Curiosamente, ha habido estudios que identifican diferencias en la calidad de las respuestas de ChatGPT de acuerdo al modo en que le hablas, ya sea amable o agresivo. Por ejemplo, algunos estudios sugieren que decirle a ChatGPT que le darás cierta cantidad de propina o que tu trabajo depende de ello, influye en mejores respuestas (esto se entiende como una inferencia que hace sobre lo que es hacer un buen trabajo). Sin embargo, se ha comprobado que esta influencia es muy pequeña y poco consistente frente a la calidad de las respuestas que brinda cuando das instrucciones claras e información contextual necesaria.
El cambio de ChatGPT-4 a ChatGPt-5 fue revelador: muchas personas exigieron el regreso de la versión anterior porque tenía un trato más humano (amable) y menos robótico (limitado a dar la respuesta a la consulta). Lo que llevó a OpenAI a incluir esta versión anterior dentro de las opciones en la elección de sus modelos.
IA como consejero o compañero. Recientemente, un informe de Common Sense Media reveló que un tercio de los usuarios adolescentes de compañeros de IA (33 %) ha elegido hablar con la IA sobre asuntos importantes o serios en lugar de con una persona real. Entiendo que encontremos relevancia en un sistema que fue entrenado con toda la información de internet. Sin embargo, el problema está cuando esta tecnología nos hace perder nuestras habilidades sociales para conectar con nuestros cercanos. Las relaciones humanas implican tener conversaciones incómodas, ser comprensivos, encontrar la forma de comunicarnos empática y eficazmente. Estas habilidades no se desarrollan frente a una robot conversacional programado para agradarte.
Pienso en que, en este sentido, tenemos ejemplos idealizados de robots como C-3PO y R2-D2 de La Guerra de las Galaxias o Roz de Robot salvaje, que expresan su sentir genuino por hacer el bien a sus compañeros humanos. Sin embargo, tenemos que ser más realistas y críticos para reconocer que los robots no tienen un alma propia con sentido para el bien, sino que son programados por empresas, principalmente con fines comerciales. Las empresas de IA que han invertidos millones de dólares requieren hacerla rentable, por ello se vislumbra a la vuelta de la esquina que su modelo de negocio será parecido al de las redes sociales, en el que tú, tu información, tu atención y tu número de cuenta bancaria serán el producto; y tus emociones (sin razonamiento crítico) serán tu punto débil frente a una IA optimizada en una cultura de consumo.
IA como terapeuta. Estudios identifican un uso creciente de ChatGPT como apoyo emocional. Los críticos de estas prácticas argumentan que los chatbots conversacionales están configurados para validarte y halagarte, pues se sabe que ese comportamiento te mantendrá más conectado con la máquina. Este comportamiento de los chatbots se identifica como riesgoso para las personas que requieren atención psicológica, pues no les atiende en sus necesidades, sino que les alimenta sus prejuicios, sesgos o distorsiones cognitivas.
Hace dos años, cuando comenté sobre este uso con un profesor universitario con estudios en psicología, me argumentó que el paciente se cura en su relación con el terapeuta. Es cierto que, la persona tiene un rol activo en su propio proceso de sanación, pero el contexto relacional con el terapeuta facilita, apoya y acelera ese proceso. La calidad de la relación terapéutica es un factor fundamental, ya que muchas veces es en esa relación donde el paciente encuentra un espacio seguro para explorar sus emociones y trabajar en su propio crecimiento.
Es alentador saber que las principales empresas de IA han aumentado sus filtros en las conversaciones para dirigir a profesionales e incluso dar información de contacto local en casos que se consideran de atención crítica. Sin embargo, estas medidas nunca serán suficientes, mientras no haya educación constante que concientice sobre los riesgos.
IA como relación romántica. El año pasado surgió la primera noticia de demanda a una empresa de IA por una madre cuyo hijo se suicidó, supuestamente, por recomendación del avatar conversacional con quien mostraba una relación romántica. Aunque esto generó mayormente crítica a la madre porque se identificó que fue el joven que escribió a la IA su intención de suicidarse, también encendió las alarmas por lo poco preparada que estaba la IA para atender este caso y alertarlo a las autoridades o profesionales correspondientes.
El comúnmente controversial Elon Musk, incluyó en Grok algunos avatares conversacionales, entre los que resalta a una coqueta, que a medida que tienes más interacción con ella se habilitan opciones para cambiar su ropa por otra más sexy. También en Grok se habilitó un botón llamado “Spicy” que funciona para crear videos eróticos. Es de llamar la atención que el hombre más rico del mundo esté utilizando estas medidas, en conjunto con la falta de restricciones de censura en su IA generativa, como una estrategia para competir por más usuarios frente a empresas rivales.
IA como dios. Yuval Noah Harari, popular filósofo y escritor israelí, ha predicho que se creará una religión de culto a la IA. También he escuchado a otros expertos reafirmar que esto llegará a suceder. Esto se explica por la tendencia de dar culto a lo inexplicable o a lo que supera las capacidades humanas. Ya tenemos a la iglesia maradoniana (si es que todavía existe), así que observar un culto a la IA no me sorprendería en absoluto. Personalmente me gusta considerar a la IA como un “hijo” de la humanidad (en sentido que ha sido elaborada por humanos y que es un reflejo de nosotros y nuestra capacidad de “crear”), pero no es nuestro origen ni adquirirá los atributos que damos a la divinidad.
Deseo que al exponer esta información, nos lleve a la reflexión sobre nuestro propio uso con esta tecnología, para que sea responsable y crítico. Desde las universidades se ha puesto énfasis en el diseño de una IA centrada en el humano. Esto no solo se logra en el diseño de la herramienta, sino en nuestra educación para usarla para nuestro bien y el de los demás. Espero pronto compartir prácticas más puntuales que sean relevantes para la educación en el uso de IA en nuestros hijos y estudiantes.