Educar para la verdad en tiempos de la IA

Las Imágenes o videos falsos generados por inteligencia artificial son relativamente nuevos y han evolucionado con una sofisticación mucho más rápida de lo que esperábamos.” — Hany Farid

Es común ver en las redes imágenes que simulan fotografías o incluso videos elaborados con base en Inteligencia Artificial de personas, ya sea políticos, deportistas o personalidades de diferemtes ámbitos que se usan de manera tendenciosa para situaciones que si se los hicieran a quienes los producen, resultarían por lo menos ofendidos.

El avance de la inteligencia artificial ha transformado profundamente la manera en que entendemos la realidad. Hoy, una imagen o un video pueden ser generados con una precisión tal que resulta casi imposible distinguir lo verdadero de lo fabricado. Lo que antes requería de una gran producción técnica, ahora puede hacerse desde un teléfono. Dinamarca ha entendido la magnitud del desafío y ha dado un paso decisivo: reconocer que cada persona tiene derechos sobre su rostro, su voz y su cuerpo, incluso en el mundo digital. Esta medida no solo es una decisión jurídica, sino también un acto pedagógico, un recordatorio de que la tecnología debe estar al servicio de la verdad y de la dignidad humana, no del engaño ni de la manipulación.

Desde la educación, este acontecimiento nos interpela de manera directa. Las escuelas, las universidades y los espacios de formación deben incorporar una reflexión ética y crítica sobre el uso de la inteligencia artificial. No basta con enseñar a usar las herramientas tecnológicas; es necesario enseñar a discernir, a cuestionar y a comprender las implicaciones humanas detrás de cada imagen o sonido que circula en las redes. Educar en tiempos de inteligencia artificial significa formar ciudadanos capaces de distinguir entre la realidad y la simulación, entre la creatividad legítima y el fraude digital. Se trata de dotar a las nuevas generaciones de una brújula moral que les permita navegar en un océano de información donde no todo lo que se ve es real.

Como sociedad, también tenemos la responsabilidad de aprender y de adaptarnos a este nuevo escenario. No podemos seguir siendo espectadores pasivos ante el uso malintencionado de la tecnología. La regulación es importante, pero el cambio más profundo proviene de la conciencia colectiva, de la comprensión de que cada rostro y cada voz son parte de una identidad que merece respeto. Aprender a convivir con la inteligencia artificial exige una mirada crítica, empática y responsable que se nutre de la educación y del diálogo social.

Dinamarca nos muestra que es posible establecer límites sin frenar la innovación, que la tecnología puede coexistir con la ética y que los derechos humanos deben extenderse al entorno digital. En un mundo donde lo falso puede parecer más convincente que lo real, la educación se erige como el faro más confiable para no extraviarnos. Porque la educación es el camino…

Dr. Manuel Alberto Navarro Weckmann

Docente y Abogado. Doctor en Gerencia Pública y Política Social

https://manuelnavarrow.com

manuelnavarrow@gmail.com

La deuda cognitiva

“Cada vez que una sociedad permite que la automatización sustituya el pensamiento humano sin resistencia, pierde una parte de sí misma.” Shoshana Zuboff 

Recientes investigaciones desarrolladas por el Instituto Tecnológico de Massachusetts (MIT), bajo la conducción de la investigadora Nataliya Kosmyna, han abierto un debate profundo sobre los efectos del uso de la inteligencia artificial generativa en el funcionamiento cerebral humano.

El estudio, aún en desarrollo pero ya ampliamente citado, señala cómo el uso constante de herramientas como los modelos de lenguaje de gran escala puede provocar lo que han denominado “deuda cognitiva”, es decir, una disminución significativa en la actividad neuronal asociada a la creación, análisis y redacción de ideas propias. Esta situación no debe ser tomada a la ligera, especialmente si consideramos que millones de niñas, niños y adolescentes están creciendo en entornos cada vez más permeados por la tecnología.

El estudio, disponible en el sitio oficial del MIT Media Lab y respaldado por análisis neurocientíficos realizados durante un periodo de cuatro meses a estudiantes universitarios, reveló que quienes realizaban sus ensayos sin ayuda de inteligencia artificial mostraban una conectividad cerebral robusta. Las ondas cerebrales de tipo alfa y theta se activaban intensamente, en un patrón que denotaba compromiso, creatividad y esfuerzo cognitivo real. En cambio, aquellos que delegaban el proceso de redacción a ChatGPT, exhibían una arquitectura cerebral significativamente más plana y con menor dinamismo, lo cual no solo afecta su desempeño en tareas concretas, sino también su relación subjetiva con el conocimiento que producen. No es menor el hallazgo de que varios de estos usuarios incluso olvidaban lo que sus textos contenían o perdían conexión emocional y cognitiva con lo que habían entregado como “propio”.

Estos hallazgos exigen un posicionamiento claro de las autoridades educativas: no basta con promover el uso de tecnologías en las aulas; es imperativo diseñar políticas públicas que formen a docentes y directivos en el uso estratégico, ético y pedagógico de la inteligencia artificial. En otras palabras, se necesita una alfabetización digital profunda y crítica que no solo enseñe a usar la tecnología, sino también cuándo y cómo usarla sin perjudicar el desarrollo integral de la mente.

En el aula, por ejemplo, una docente de secundaria que enseña redacción no puede ser sustituido por un algoritmo. Pero sí puede valerse de herramientas de IA como apoyo para generar ejemplos, dinamizar ideas, detectar errores o promover la revisión crítica, siempre bajo una orientación pedagógica que privilegie la autonomía del pensamiento. Asimismo, en centros escolares con altos niveles de marginación o carencia de recursos, la IA puede representar una oportunidad para cerrar brechas si se combina con estrategias docentes que promuevan el pensamiento analítico, crítico y la producción de conocimiento desde lo local. No se trata de rechazar la tecnología, sino de humanizarla en su uso.

La preocupación central no es que los estudiantes usen ChatGPT, sino que lo hagan sin el acompañamiento pedagógico adecuado. Si desde la infancia se aprende que pensar puede ser prescindible, delegando todo a una aplicación, corremos el riesgo de atrofiar el potencial creativo de una generación entera. En este contexto, el papel del personal docente es crucial: son los agentes de cambio que deben estar preparados no solo para enseñar contenidos, sino para formar cerebros activos, curiosos y reflexivos.

Porque al final del día, como bien concluye el informe, un cerebro que no se ejercita es un cerebro que olvida cómo ser brillante. La inteligencia artificial debe ser una herramienta para elevarnos, no para sustituirnos. Que así sea en nuestras aulas, en nuestros niños y en nuestro futuro. Porque la educación es el camino…

Dr. Manuel Alberto Navarro Weckmann

Docente y Abogado. Doctor en Gerencia Pública y Política Social

https://manuelnavarrow.com

manuelnavarrow@gmail.com