Hace unas semanas, mi hija de 11 años estaba realizando unos ejercicios de ortografía que le habían puesto en el colegio. Me acordé de que solía dar a mis estudiantes de instituto un ejercicio que consistía en corregir los errores ortográficos de 20 oraciones sencillas del español que el procesador de textos Word no identificaba. Así que se lo puse a mi hija para que practicara un poco de cara al examen.
Mi hija, una vez hecho el ejercicio, me lo trajo para que se lo corrigiera. Le propuse: “Antes de decirte lo que tienes bien y mal y por qué, vamos a preguntar a un profesor que sabe de todo, que se llama ChatGPT. A ver qué nos cuenta y cómo corrige el ejercicio”. Junto a ella, escribí la siguiente consulta o prompt:
“Hola, ChatGPT. ¿Me puedes decir si las siguientes oraciones tienen errores ortográficos de acentuación o puntuación, corregirlos y explicármelos?”.
De los 24 errores, no identificó o corrigió mal diez: el 41,6 %. Y en las explicaciones “alucinaba”, es decir, se inventaba las reglas, no identificaba los errores o los explicaba mal. Sirvan de ejemplo estas dos oraciones:
Maria dijo que no.
Corrección: María dijo que no.
Explicación: “María” lleva tilde en la “í” porque es un nombre propio.
Según ChatGPT, María lleva tilde no por ser un hiato (dos vocales en sílabas diferentes, una de ellas cerrada “i” y la otra abierta “a”), sino que la tilde le corresponde porque es un nombre propio. Así que a partir de ahora las “Isabeles” o los “Ismaeles” también deberían llevar tilde, si aplicamos su razonamiento.
Cuánto más come más engorda.
Respuesta: Esta oración está correctamente escrita y puntuada.
“Cuánto” no tiene en esta oración sentido ni interrogativo ni exclamativo, sino adjetivo, por lo tanto, no lleva tilde. Asimismo, después de “come”, se escribe una coma porque se introduce una oración consecutiva.
Una vez que fuimos viendo los resultados y yo le expliqué en qué se había equivocado ChatGPT a la hora de corregir el trabajo, como se pueden imaginar, el comentario de mi hija fue: “Pues vaya profesor, como sea este el que me tenga que explicar la ortografía, no apruebo ni loca”.
Desarrollo de aprendizajes no artificiales
Con el pretexto de este ejemplo real, quiero poner de relieve una de las preocupaciones mayores que está generando la inteligencia artificial en los procesos tanto de enseñanza como de aprendizaje. Algunos docentes y muchos estudiantes están depositando en inteligencias artificiales como el famoso ChatGPT o Copilot, entre otras muchas, la realización de determinadas tareas, ejercicios, actividades, proyectos o trabajos.
Estos programas, en muchas ocasiones, los realizan con solvencia. Por ejemplo, suelen aportar resúmenes valiosos. Pero en otras muchas ocasiones genera explicaciones erróneas o inventadas muy lejos de la realidad; lo que en la literatura científica se ha denominado “alucinación”.
La reflexión crítica y la producción de contenido constituyen competencias esenciales para los estudiantes en su desarrollo académico. El fácil acceso a la inteligencia artificial para la realización de estas tareas debe empujar a los docentes a repensar su didáctica y los procesos de evaluación hacia el desarrollo de aprendizajes “no artificiales”.
Se trata de enseñar a usar las inteligencias artificiales de manera consciente, crítica y reflexiva con los resultados que nos proporcionan y cómo utilizarlos para aprender más y mejor.
Enseñar a detectar errores
En este sentido, hacer visibles los errores, alucinaciones y las inconsistencias de las inteligencias artificiales debe ser hoy en día uno de los contenidos transversales (así lo recomienda la UNESCO) en las diferentes áreas y materias que conforman tanto la enseñanza preuniversitaria como la universitaria.
Una competencia no muy diferente, por ejemplo, a la de saber detectar noticias falsas o vídeos manipulados, bulos y mentiras en la información publicada en redes sociales.
Atajos a cambio de qué
Como estudiantes podemos sentirnos inclinados a buscar atajos, hacer “chuletas” para exámenes, copiar del compañero, descargar un trabajo del ya en el pleistoceno “Rincón del vago” o ver la película para no leer el libro.
Pero usar atajos puede estar bien si sabemos a qué nos exponemos. Es como decidir si comprar un coche en oferta que frena el 70 % de las veces o un coche más caro que en principio no falla. La conclusión es clara: si compras el barato, en alguna curva te quedarás.
Por cierto, mi hija tuvo un 30 % de fallos.
Te puede interesar:
La infraestructura: un tema del que los candidatos hablan poco e importa mucho
LA CONTRAOFENSIVA DE GOOGLE: CÓMO GEMINI 3.0 REDEFINE LA ECONOMÍA DE LA IA
La verdadera batalla de 2026 no será entre Google y OpenAI sino entre las corporaciones tecnológicas y los Estados...
diciembre 4, 2025
DOCUSERIE – CAPÍTULO 2: Padres de Familia
Le pidieron a Santa un regalo digital… ¿es buena idea? ¿qué debes considerar antes de entregarlo?
diciembre 4, 2025
DOCUSERIE: Llegó la Navidad y la Ciberdelincuencia al Ataque
Cuando la gente comprende cómo operan los delincuentes y qué emociones buscan activar, se vuelve mucho más difícil que...
diciembre 2, 2025
La IA y el análisis de redes revolucionan el modo de perseguir el fraude y el blanqueo de capitales
esquemas piramidales de la historia . Desde entonces, el objetivo del FBI no es solo encontrar a la fundadora (incluida...
diciembre 1, 2025