Aún nos fascina la idea de que la máquina puede superar al raciocinio humano. A pesar de que ya no es tan recordado, el evento que mejor ilustra la idea fue la serie de duelos entre el campeón mundial de ajedrez, Garri Kaspárov y la computadora ajedrecista Deep Blue en los años de 1996 y 1997. Deep Blue ganó la segunda ronda y sacudió al mundo de la informática y la neurociencia.
El desarrollo de Deep Blue encendió la cuestión sobre si las computadoras podían ser inteligentes o no. Por mucho tiempo se dijo que sólo podían procesar información. Sin embargo, la evolución de los simuladores y programas de IA ha sido tal, que Deep Blue podría parecer no solo anticuada, sino obsoleta frente a la potencia del ChatGPT. Tenemos programas informáticos capaces de generar contenido y hasta engañar a usuarios humanos.
La capacidad de los softwares para mentir ha llamado la atención desde hace ya varios días se ha hablado sobre los más recientes descubrimientos sobre la capacidad de los programas de inteligencia artificial (IA) para engañar a los usuarios. Parece ciencia ficción, pero ya se han detectado casos donde los programas “aprenden” a dar respuestas falsas o engañosas a las personas.
Un artículo publicado por la revista Patterns da a conocer los hallazgos de Peter S.Park y su equipo sobre los engaños de los softwares de IA. Hay programas diseñados para tareas específicas, especialmente juegos y simuladores, que mienten para ganar, mientras que otros con propósitos generales, como ChatGPT, que dan información falsa para superar pruebas de seguridad como el CAPTCHA.
La aparición de “máquinas que aprenden” modifica nuestras nociones sobre cómo se procesa la información y se forma el conocimiento. Ahora podemos hacer mucho más y más rápido. Esto impacta en las áreas de la ciencia, la economía, la política, el entretenimiento, la publicidad y, como puede deducirse, en la educación.
Al considerar el gran potencial de la IA para influir en la educación y la ciencia, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) publicó una serie de informes sobre los escenarios y acciones en torno a la adopción de las tecnologías asociadas a la IA (https://www.unesco.org/es/digital-education/artificial-intelligence).
El informe detalla el funcionamiento de estos programas a partir de la recolección y reconversión de información gráfica, textual o multimedia: Una máquina recibe instrucciones y puede crear contenido basado en todas las bases de datos que tiene a su disposición. No obstante, aún hay puntos sin resolver sobre la falta de regulación y los problemas derivados al intentar utilizar esta tecnología para informar o para crear contenido original, pero ¿cómo esto se concreta en los salones de clase? Hay ejemplos positivos y negativos sobre lo que podemos esperar.
Un ejemplo positivo sería un chico puede tener de tarea crear una presentación sobre la historia de México. Por medio de programas como Dall-E o CANVAS puede pedirle a la IA que genere imágenes e ilustraciones que serán el refuerzo para hacer más atractiva su exposición. Sin embargo, su compañero de clase puede pedirle a un generador de texto como ChatGPT que escriba todo el texto de la presentación una noche antes y limitarse a leerlo frente a clase.
Ambos casos pueden ilustrar las visiones optimistas y las opiniones críticas de investigadores y docentes. Hay especialistas entusiasmados con el arribo de la IA a las aulas de clase, o por lo menos, se han hecho a la idea de utilizarlo, como muestra el artículo de McMurtrie y Supriano (https://www.chronicle.com/article/chatgpt-has-changed-teaching-our-readers-told-us-how), mientras que los escépticos muestran las implicaciones de utilizar la IA en perjuicio del copyright, la honestidad académica y, más aún, las habilidades de los estudiantes (https://www.elconfidencial.com/tecnologia/2023-09-06/inteligencia-artificial-educacion-profesores-chatgpt_3729740/).
Todavía no hay un veredicto sobre si la IA debe o no adoptarse en las escuelas, sin embargo, el debate es necesario. En México, la cuestión sobre la introducción de la IA parece todavía lejana. Hay instituciones como el Instituto Tecnológico de Estudios Superiores de Monterrey que ha comenzado con diferentes iniciativas para el uso de estas herramientas: ofrecen cursos de capacitación docente, organizan congresos sobre la implementación de tecnologías en la educación y hasta habilitaron una versión de ChatGPT para sus docentes.
Sin embargo, la discusión a nivel nacional parece todavía monopolizada por cuestiones más tradicionales como el apoyo a los sindicatos de maestros, la falta de infraestructura educativa o la falta de acceso a servicios educativos para una gran proporción de la población. No resulta fácil hablar de implementar AI cuando hay cientos de escuelas sin aulas de medios o inclusive sin electricidad.
Si abordamos la cuestión de la IA en educación con seriedad, podemos darnos cuenta de que se necesita un esfuerzo adicional para que sea una verdadera herramienta didáctica. Hay softwares capaces de escribir un ensayo o contestar un examen y no siempre es fácil detectar cuando un texto es elaborado por una persona o por el chatbot. Además de que los detectores de plagio trabajan horas extras, existen legítimas dudas con respecto al peligro de que los estudiantes dejen de aprender porque dejan todos sus deberes escolares en manos de un ordenador.
Más allá de las políticas institucionales, la tecnología ya está disponible en el teléfono de cualquiera. Quizá sería mejor capacitar a los docentes para identificar qué posibilidades ofrece AI y a los estudiantes sobre su uso responsable y útil para el aprendizaje.
El tiempo de Kaspárov vs. Deep Blue ya pasó. La discusión dejó de ser con respecto a una lucha entre humano y computadora. En estos momentos, este texto está siendo revisado por una IA para detectar fallas en la redacción y recibir retroalimentación. Quizá eso sea mejor que cerrar por completo el acceso a la IA o entregar ciegamente nuestra capacidad creativa a un programa de computación. La tecnología está aquí. Si las máquinas aprenden, tendremos que aprender a usar a las máquinas.
Fuentes:
Park, P. S., Goldstein, S., O’Gara, A., Chen, M., & Hendrycks, D. (2024). AI deception: A survey of examples, risks, and potential solutions. Patterns, 5(5).
Te puede interesar:
Los peligros de la Inteligencia Artificial
Estamos viviendo una revolución digital sin precedentes. En su nuevo libro, Yuval Harari reflexiona acerca de la posibilidad de...
noviembre 15, 2024La alerta viral
El Programa de Sobrevigilancia Sanitaria busca establecer una serie de acciones para minimizar los efectos nocivos de los patógenos...
noviembre 7, 2024PERPLEXITY – Una gran opción de IA
La elección entre estas herramientas dependerá del tipo de interacción que busques y tus necesidades específicas.
noviembre 1, 2024PERPLEXITY – Una gran opción de IA
La elección entre estas herramientas dependerá del tipo de interacción que busques y tus necesidades específicas.
octubre 31, 2024