Cómo evitar que los artículos científicos parezcan hechos por una máquina

Quien ha escrito un artículo científico sabe bien lo complejo que es. La ardua (y en ocasiones tediosa) revisión de la literatura va acompañada de una investigación propia, y no vale con decir cualquier cosa, sino que...

4 de mayo, 2026 Inteligencia Artificial y Periodismo

  1. Moisés Díaz CabreraProfesor Titular de Física Aplicada, Universidad de Las Palmas de Gran Canaria
  2. Miguel Ángel Ferrer BallesterCatedrático de Teoría de la Señal y Comunicaciones, Universidad de Las Palmas de Gran Canaria
  3. Víctor Miranda SantanaEstudiante de Traducción e Interpretación Inglés-Francés-Alemán, Universidad de Las Palmas de Gran Canaria

Quien ha escrito un artículo científico sabe bien lo complejo que es. La ardua (y en ocasiones tediosa) revisión de la literatura va acompañada de una investigación propia, y no vale con decir cualquier cosa, sino que se deben aportar resultados novedosos. A esto se suma una cuidadosa gestión de las citas y referencias, y todo ello debe expresarse con orden y precisión.

La guinda del pastel es que nos toque escribir en inglés, el idioma dominante de la ciencia; quienes no somos hablantes nativos estamos en clara desventaja.

Hasta hace poco, las herramientas disponibles se limitaban a corregir la gramática y el estilo. Hoy, la inteligencia artificial generativa (abreviada como GenAI en inglés) puede reescribir párrafos completos, sintetizar resultados e interpretarlos, o sugerir párrafos que aumenten el contenido de alguna de las secciones de un manuscrito, todo en un inglés correcto y adecuado al registro académico.

Pero no es oro todo lo que reluce. Varios estudios recientes muestran que, cuando las personas saben que un texto se ha producido con ayuda de IA, tienden a confiar menos en su autor. Podría parecer que la solución es ocultar su uso, pero esto tampoco resuelve el problema: si el lector sospecha que los autores han usado IA sin declararlo abiertamente, la desconfianza puede ser igual o, incluso, mayor.

Así surge un auténtico dilema ético: ¿declarar o no declarar su uso?

Por qué importa que tu texto no parezca de IA

Saber si un texto ha sido generado por inteligencia artificial no es tan fácil como parece. Y es que, según muestran investigaciones publicadas en Proceedings of the National Academy of Sciences, las personas nos equivocamos cuando nos guiamos por la intuición para averiguar si un texto es artificial.

Understand how AI is changing society, with our weekly newsletter

https://www.google.com/recaptcha/api2/anchor?ar=1&k=6Lf3Oc0UAAAAAIbME3Lv7iS7EVeuQzpru1Jbij5N&co=aHR0cHM6Ly90aGVjb252ZXJzYXRpb24uY29tOjQ0Mw..&hl=en-GLOBAL&type=image&v=dNfi_jsbkQb4Hbw7F1b82Uia&theme=light&size=invisible&badge=bottomright&anchor-ms=20000&execute-ms=30000&cb=y7y4ysyh4ng1Subscribe for free

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

Es algo que relacionamos con el lenguaje demasiado formal o complejo o con los textos impersonales o de tonos fríos. Al contrario, asumimos que los textos que incluyen experiencias personales provienen de autores humanos.

El problema radica en que muchas de estas señales son engañosas. De hecho, los grandes modelos de lenguaje (LLM por sus siglas en inglés) son perfectamente capaces de adaptar la formalidad del lenguaje que usan, imitar un tono cercano o incluir ejemplos y anécdotas en primera persona.

El resultado es sorprendente: si nos guiamos únicamente por nuestra intuición, los textos generados por IA nos pueden parecer más propios de autores humanos que aquellos realmente redactados por una persona. Peor aún: nuestra capacidad de detección está disminuyendo a medida que los modelos mejoran.

La intuición engaña

Un estudio publicado en Teaching English With Technology lo confirma: la tasa de detección de acierto cayó del 57,7 % con versiones anteriores de ChatGPT a prácticamente el 50 % con versiones más recientes. Eso equivale a lanzar una moneda al aire.

Representación gráfica del aprendizaje de un gran modelo de lenguaje.
Representación esquemática de una red neuronal profunda: desde un único punto de entrada (izquierda), la información se procesa a través de capas sucesivas de nodos hasta producir una salida compleja (derecha). Es la arquitectura que subyace a modelos como ChatGPT o Gemini, diseñados para predecir, en cada paso, el fragmento de texto estadísticamente más probable. Google DeepMind/Pexels

Rastros que indican el uso de GenAI

Aunque la detección perfecta no es posible, existe un conjunto de patrones lingüísticos que pueden delatar su uso:

  • El exceso de construcciones antitéticas en el uso repetitivo de frases como “No solo X, sino también Y” o “X en lugar de Y” para enfatizar un argumento sin aportar información nueva.
  • La reformulación sucesiva de una misma idea con pequeñas variaciones. Este tinte de aparente profundidad se limita a alargar el texto sin añadir contenido sustancial. En los textos científicos, esta redundancia puede resultar contraproducente.
  • Las listas de tres elementos, como “La técnica mejora la precisión, reduce el error y optimiza el rendimiento”. La estructura tripartita es un recurso clásico de la retórica que sirve para reforzar ciertas ideas, pero su uso reiterado genera un ritmo uniforme, casi mecánico.
  • Expresiones innecesarias como “A continuación se resume…” o “La cuestión es…” son una especie de tic habitual de los sistemas de IA, que hablan sobre el texto en lugar de ir al grano.
  • Los textos generados por IA suelen contener más sustantivos abstractos y menos pronombres, resultando en una prosa innecesariamente densa. Por ejemplo, en lugar de escribir: “El modelo analiza los datos y luego los compara”, la GenAI podría decir: “El modelo realiza el análisis de los datos y la comparación de los resultados”.
  • Mientras los humanos solemos alternar frases cortas y largas de forma natural, la GenAI tiende a producir oraciones de longitud similar, generando un ritmo monótono.
  • La mezcla de fragmentos generados por IA con otros escritos por humanos tiende a producir incoherencias en el uso de mayúsculas, negritas o listas que revelan la autoría mixta y proyectan una imagen de descuido.

Recomendaciones prácticas

¿Qué podemos hacer para que nuestros textos no parezcan escritos por una máquina? Algunos consejos son:

  • Limitar o eliminar las construcciones antitéticas innecesarias.
  • Reducir las repeticiones que no aporten información nueva.
  • Variar la longitud de frases y párrafos.
  • Sustituir los sustantivos repetidos por pronombres cuando no haya ambigüedad.
  • Eliminar el metalenguaje superfluo y evitar las listas con títulos en negrita.
  • Unificar el formato y revisar cuidadosamente la coherencia final, evitando que el texto sea un puzle de estilos por la mezcla de fragmentos generados por GenAI y otros por humanos.

La inteligencia artificial puede ahorrar tiempo en tareas de inteligencia mecánica y facilitar la escritura en una lengua extranjera, ayudar a estructurar ideas o mejorar la claridad gramatical. Pero no podemos usarla como sustituta de la experiencia humana para eximir la responsabilidad del investigador firmante. En la ciencia, la confianza es tan importante como la precisión.

Y esa confianza no la podemos delegar en un algoritmo, cuyo output consiste en generar el texto más probable posible. La IA no puede sustituir a los investigadores, pero sí puede servirles de apoyo valioso. Nuestro reto, pues, es aprender a aprovechar ese apoyo de una manera ética y profesional.

Comentarios


author avatar
The Conversation
The Conversation es un medio de comunicación sin ánimo de lucro que publica noticias e investigaciones en línea, incluyendo la opinión y el análisis de expertos. theconversation.com
Two women in black outfits wearing sunglasses pose side by side, looking confidently at the camera.

Una larga historia de amor entre la moda, el cine… y el ‘marketing’

Isabelle Chaboud Professeur senior d’analyse financière, d’audit et de risk management – Directrice de Programme pour le MSc Fashion Design & Luxury...

abril 29, 2026
A man in a black tuxedo and bow tie speaks at a podium, touching his temple, with another man in the background and a blue backdrop behind them.

El último atentado contra el presidente Trump evidencia el aumento de la violencia política en Estados Unidos

Por tercera vez en tres años, Donald Trump ha sido objeto de un intento de atentado . Muchos hechos siguen sin estar claros después...

abril 27, 2026




Más de categoría
Woman in a dark blazer speaks at a wooden podium with a microphone in a government chamber; Chihuahua seal and flag visible in the background.

La geografía del abandono gobernada por la ironía y la soberbia

Chihuahuarara vez se convierte en foco de atención nacional, y más aún internacional.

mayo 4, 2026
Realidad e interpretación

Realidad e interpretación

Cómo entender «lo real» cuando ante los mismos hechos cada quien los juzga como mejor le parece y construyen...

mayo 1, 2026
¿LA MUERTE DE LA RELACIÓN CAPITAL X TRABAJO?

 ¿LA MUERTE DE LA RELACIÓN CAPITAL X TRABAJO?

Es esencial que la inteligencia artificial que alimentamos y desarrollamos en el presente esté siempre bien cuidada, en buenas...

mayo 1, 2026

Panorama educativo en México: INEGI Censo de Población y Vivienda 2020

La República Mexicana tiene una extensión de 1,964,375 km2 y cuenta con una población de 126,014,024 de habitantes, de...

mayo 1, 2026