Ha habido mucha especulación y algunas investigaciones preliminares sobre si el uso frecuente de productos de IA generativa como ChatGPT y Google Gemini podría obstaculizar el pensamiento crítico. Después de leer parte de la investigación y aprovechar mucha experiencia personal, pensé un poco críticamente sobre esta pregunta y concluí que la respuesta tiene matices. Sí, la IA generativa puede reemplazar la investigación y el pensamiento en profundidad, pero también puede ser una herramienta para ayudar a las personas a pensar de manera más crítica liberándolas de tareas mundanas.
No es un problema nuevo
Antes de profundizar en la investigación, recuerdo preocupaciones similares sobre tecnologías anteriores, comenzando con Sócrates, quien temía que la escritura socavara nuestra dependencia de la memoria y hiciera posible parecer conocedores sin comprender realmente lo que decimos saber. Por absurdo que pueda parecer en 2026, en cierto modo tenía razón. Las fuentes escritas nos brindan conocimiento indirecto de eventos que no presenciamos y nos permiten revisar la información cuando necesitamos refrescar nuestra memoria. También pueden llevarnos a confiar en el pensamiento de otras personas en lugar del nuestro. Aún así, la mayoría de nosotros estamos de acuerdo en que la lectura y la escritura han contribuido mucho a ayudar a las personas a comprender y analizar mejor su mundo.
También estoy pensando en herramientas más modernas. Los críticos alguna vez argumentaron que las máquinas de escribir hacían que fuera demasiado fácil producir palabras rápidamente, sin las pausas que conlleva la escritura a mano para pensar en lo que se dice. En la década de 1970, las calculadoras despertaron temores de que estaban debilitando los fundamentos de la aritmética al fomentar la dependencia. Esto fue contrarrestado con el argumento de que darían a los estudiantes la oportunidad de centrarse en conocimientos matemáticos más profundos.
En la práctica, el resultado dependía de lo que se enseñaba. Las calculadoras pueden dificultar el aprendizaje de la aritmética básica, pero ayudan a aprender matemáticas avanzadas. Aprendí esto en la escuela de posgrado cuando pude comprender e incluso crear estadísticas complejas usando calculadoras y luego computadoras. Por el contrario, las revisiones ortográficas y gramaticales tempranas generaron relativamente poco debate porque corrigieron errores superficiales en lugar de reemplazar el pensamiento más profundo.
Lo que dice la investigación
Ya sea en la escuela, en el trabajo o incluso en casa, la pregunta con la que estoy luchando actualmente es si las herramientas de inteligencia artificial están debilitando nuestra capacidad de pensar críticamente y recordar hechos importantes. Y como alguien en una edad en la que mantenerse mentalmente comprometido es más importante que nunca, estoy prestando especial atención a cómo estas herramientas pueden influir en nuestros hábitos cognitivos.
Un 2025 Estudio de investigación de MicrosoftRealizado en colaboración con científicos de Carnegie Mellon y la Universidad de Cambridge, examinó el impacto de la IA generativa en el pensamiento crítico de los trabajadores del conocimiento. Los investigadores descubrieron que los resultados dependían en gran medida de la confianza, tanto en las propias capacidades de los usuarios como en la IA. Cuando los usuarios confiaban más en la IA, tendían a pensar de forma menos crítica; Cuanto más confiados estaban, más probabilidades tenían de mantenerse comprometidos, incluso cuando usaban IA.
Los investigadores descubrieron que, si bien la IA generativa puede mejorar la eficiencia, también puede obstaculizar el compromiso crítico con el trabajo y potencialmente conducir a una dependencia excesiva a largo plazo, lo que perjudica la capacidad de resolver problemas de forma independiente. También descubrieron que la IA está cambiando la naturaleza del pensamiento crítico, pasando de generar ideas desde cero a revisar información, integrar respuestas y monitorear tareas.
Este cambio me suena familiar. Es similar a la forma en que han trabajado durante mucho tiempo el personal de alto nivel o los profesores y autores que han tenido la suerte de contar con personal de investigación: dedican menos tiempo a la mecánica de la investigación o a los primeros borradores y más tiempo al juicio, la síntesis y la supervisión. No es raro que altos ejecutivos o políticos dependan de otros para que los ayuden a escribir discursos, editoriales o materiales informativos.
Para las personas que ya están bien versadas en su campo y tienen experiencia en sus carreras, la IA de propósito general, al igual que un profesional junior capacitado, puede ser una herramienta poderosa para ayudarlos a trabajar de manera más eficiente y dejar el pensamiento crítico en manos humanas.
nadie lo sabe todo
Incluso si el tema es nuevo, la IA puede resultar extremadamente útil para la investigación. Ninguno de nosotros lo sabe todo. Ya sea un catálogo de tarjetas de biblioteca, una pila de libros y revistas, una búsqueda en Google o herramientas como ChatGPT y Gemini, casi siempre hemos confiado en una herramienta que nos ayude a recopilar información. Nunca he escuchado a nadie acusado de carecer de pensamiento crítico simplemente porque consultó libros de referencia, pero cuestionaría seriamente a cualquiera que simplemente regurgite lo que ha leído o lo que un bibliotecario de referencia le ha dicho sin comprenderlo, evaluarlo y validarlo.
La metáfora de la calculadora es útil aquí. Cuando alguien está aprendiendo aritmética básica, usar una calculadora probablemente sea hacer trampa; Es esencial para las matemáticas avanzadas. Los estudiantes que recién están aprendiendo habilidades fundamentales necesitan usar herramientas como la IA generativa para complementar, no reemplazar, generar ideas, validar información y desarrollar argumentos. A medida que maduran y se desarrollan, el equilibrio cambia y veo muchas más ventajas que desventajas en el uso de la IA.
En el lugar de trabajo, la ecuación parece un poco diferente. Se debe alentar a los trabajadores del conocimiento a utilizar la IA, pero también recordarles que son responsables de verificar la exactitud de lo que produce la tecnología. Cuanto más mejora la IA, más tentador resulta confiar en ella acríticamente. Pero, como he aprendido muchas veces, pueden ocurrir errores e independientemente de dónde provenga la información, el autor o orador, no la IA, es responsable del resultado final.
Como todas las grandes herramientas que la han precedido, la IA generativa no es intrínsecamente buena o mala para nuestra forma de pensar. La verdadera pregunta es si lo utilizamos para reemplazar el pensamiento o para apoyarlo.
En aras de la transparencia, utilicé ChatGPT para ayudar a investigar y editar ligeramente esta columna, que también fue revisada por un editor humano. Escribí y, más importante aún, pensé. La herramienta ahorró tiempo y mejoró el resultado, que es exactamente para lo que están destinadas las herramientas. También debo señalar que soy el director ejecutivo de Conéctese de forma seguraque trabaja con los proveedores de IA OpenAI, Google y Meta.
Larry Magid es periodista tecnológico y activista de seguridad cibernética. Contáctelo en larry@larrymagid.com.
















