Entre las múltiples ambivalencias que nos brinda la IA, también está la de su gran capacidad para brindar conocimiento, pero también de desinformar. La IA ha traído consigo una gran capacidad para revisar bases de datos y sintetizar información, lo cual es de gran valor para la divulgación del conocimiento y el desarrollo de conocimiento científico. Por otra parte, esta tecnología permite generar noticias, imágenes y videos falsos que se difunden y perciben fácilmente como reales.

Se estima que en los últimos dos años los modelos de IA han disminuido en un 90% sus alucinaciones (respuestas erróneas), sin embargo en las últimas semanas se han divulgado estudios que muestran el aumento de noticias falsas que propaga la IA. ¿Cómo se entiende esto? Los LLMs (como ChatGPT, Gemini, etc.) han sido entrenados con base en todo el conocimiento que se han podido descargar de internet, por lo que cada vez demuestran mayores puntuaciones en pruebas de conocimiento. Sin embargo esto cambia cuando se trata de noticias, ya que implica el manejo de información más reciente a la que fue entrenada.

Desde hace un año, los LLMs, como ChatGPT, Gemini, etc., están conectados a internet, por lo que si antes te respondían “no tengo información posterior a X fecha”, ahora hacen búsqueda en internet para darte una respuesta, pero ¿de qué fuentes obtienen la información actual?. Una de las principales plataformas de las cuales ChatGPT obtiene su información de noticias es Reddit, la cual es plataforma de noticias y foros de discusión alimentada por sus usuarios. Si internet está inundado de noticias falsas, y la IA obtiene información sobre noticias de internet, es de esperarse el resultado.

Teniendo esto en mente, quiero compartirte cuatro recomendaciones para obtener obtener respuestas ciertas y verificadas de estas herramientas.

Usa modelos de razonamiento. Los LLMs suelen incluir distintos modelos a elegir y generalmente se distinguen entre modelos Instant y Thinking. Los primeros te dan una respuesta inmedianta, es decir, responden desde el momento en que envías tu prompt (instrucción), mientras que los segundos se tardan más en darte una respuesta (de 2o segundos a varios minutos) porque estructuran una serie de pasos para revisar la pregunta, analizar las posibles respuestas y darte una respuesta verificada. En ChatGPT, solo es cuestión de dar clic en el botón de la parte superior que dice ChatGPT 5 y elegir dentro de la lista elegir Thinking. Piensa más, responde mejor.

Curiosamente OpenAI, empresa de ChatGPT, decidió en su última actualización, hacer que estos modelos se activen automáticamente dependiendo lo que tu instrucción necesita (una respuesta instantánea o una respuesta razonada). Esto decisión se debió a que se dieron cuenta que la gran mayoría de los usuarios no usaba el modelo de razonamiento, aunque este les permitiría tener una mejor respuesta, ya sea porque no sabían de este modelo o porque implica esperar un poco más de tiempo.

Fact-checking. Particularmente, cuando leo una noticia o publicación que me parece dudosa o engañosa, copio el texto o la imagen a ChatGPT y pregunto: “Es esto cierto?”. Verás que automáticamente hace fact-checking, es decir, verificación de la información al buscar en fuentes de internet para confirmar si hay publicaciones que confirman la información evaluada. De esta manera he desmentido publicaciones de redes sociales que dicen “un estudio comprobó que…”, y al buscar dicho estudio resulta que no existe o dice otra cosa.

Fuentes. Una recomendación que ya había escuchado hace tiempo es pedirle a ChatGPT las fuentes de donde obtuvo su respuesta. Esto es muy importante para evaluar la calidad de la misma. De hecho, esto (darte los enlaces de las fuentes) es algo que últimamente he visto que ChatGPT hace sin que se lo pidas. Las fuentes nos dictan mucho en qué medida podemos confiar de esa información. Tenemos acceso a una amplia diversidad desde redes sociales a publicaciones científicas. El conocimiento científico pasa por filtros de revisión por pares científicos y editores, por lo que es significativamente más confiable. Entiendo que será más difícil leer una publicación científica, pero los LLMs son buenos para decirte en palabras más sencillas los resultados de las investigaciones. Por ello, esta última recomendación que te comparto es muy valiosa.

Deep Research. La Investigación a fondo o Deep Research es una función que puedes activar en ChatGPT o Gemini con un botón que aparece al dar clic en el símbolo de + en el cuadro de texto. Deep Research es propiamente un agente de IA, es decir, un sistema que trabaja con el LLM pero además se conecta con otras aplicaciones o bases de datos. En este caso ChatGPT accede a bases de datos científicas y de divulgación, sintetiza la información y presenta un reporte completo de resultados, con citas y referencias. Tarda en torno a 15 minutos, pero el resultado es demasiado superior al de una instrucción sin esta función. De hecho es equiparable a una revisión de literatura científica que hace un experto.

Al comparar mis dos LLMs favoritos, ChatGPT brinda menos referencias que Gemini, pero incorpora fuentes científicas en mayor proporción. Otra característica que me gusta de esta función en ChatGPT es que al dar clic en los enlaces de las fuentes, estos te llevan directo a la parte del texto de la fuente original de la cual se obtuvo la información. De esta manera, es fácil ir a la parte del texto original y confirmar que la respuesta brindada es certera.

Entiendo que el uso de Deep Research es provechoso principalmente en el ámbito académico, pero también he escuchado usuarios que se han ayudado de esta herramienta para entender mejor el padecimiento médico de su hijo, por ejemplo. Quiero pensar que la disponibilidad y facilidad de uso de esta herramienta pueda hacer más accesible el conocimiento científico, verificado, para muchas más personas. Sin duda, para hacer efectiva la democratización del conocimiento requerimos enseñar y guiar a nuestros estudiantes y conocidos para que conozcan la manera provechosa de usar las herramientas de IA.