La revolución tecnológica impulsada por los Modelos de Lenguaje de Gran Tamaño (LLMs, por sus siglas en inglés) ha tenido un impacto significativo en diversas industrias. Uno de los aspectos más notables es su potencial para transformar la búsqueda en línea.
Hoy en día, para los usuarios es muy simple y sencillo hacer una serie de peticiones a la quizás más famosa IA que tenemos disponible: chatGPT, la cual tiene una versión gratuita que es sumamente funcional.
Por tener una modalidad gratuita al igual que otros servicios como Bard de Google, podemos pensar que esto no tiene un costo significativo y que la modalidad de paga es un exceso, pero estamos muy equivocados.
COSTOS DE ChatGPT
Estimar los costos de ChatGPT es complicado debido a varias variables desconocidas. Un modelo de costos que indica que ChatGPT cuesta $694,444 por día para operar en costos de hardware informático.
Y a qué se debe este costo diario, sencilla respuesta, OpenAI requiere al menos 3,500 servidores HGX A100 (un total de 28,936 GPU) para ofrecer Chat GPT. Los procesadores gráficos son el motor de esta tecnología. Un servidor GPU es un servidor de alto rendimiento que utiliza unidades de procesamiento gráfico (GPU) para realizar tareas computacionales intensivas.
Se estima que el costo por consulta es de $0,36 USD. Este estimado se alinea con el tweet de Sam Altman y una entrevista que realizó recientemente.
Esto cambiará solo cuando OpenAI produzca sus propios chips, de lo contrario, esto seguirá siendo caro.
Otro dato interesante, si el modelo ChatGPT se implementara en los motores y servidores de búsqueda existentes de Google, el impacto sería devastador. Habría una reducción de 36 mil millones de dólares en los ingresos operativos de Google.
CONCLUSIONES
Sin duda, usar una aplicación que sea útil y que esta no tenga costo para nosotros es una ventaja… pero no nos debemos confiar, este modo gratuito o freemium tiene sus desventajas. Estas desventajas pueden estar en tiempos de respuesta, calidad de la respuesta, capacidad de atender preguntas complejas, etc…
No nos extrañe que las respuestas de las IA gratuitas sean rebasadas por mucho por la IA en modo suscripción. Esto evidentemente provocará que el servicio evolucione como lo conocemos y tenga un modelo de monetización tipo Google con anuncios para poder hacer frente al gigantesco costo que tiene esta operación.
¿Y tú, estimad@ lector(a)… qué piensas?
REFERENCIAS
The Inference Cost Of Search Disruption – Large Language Model Cost Analysis – https://www.semianalysis.com/p/the-inference-cost-of-search-disruption?utm_source=www.joinsuperhuman.ai&utm_medium=newsletter&utm_campaign=a-250-million-dollar-hole-in-the-pocket
Te puede interesar:
De Frente Y Claro | DANTE DELGADO: BUENO PARA DIVIDIR, MALO PARA SUMAR
CLAUDE MYTHOS: ¿EL GUARDIÁN O EL HACKER DEFINITIVO?
Claude Mythoses el recordatorio de que la misma llave que cierra la puerta puede usarse para abrirla.
abril 24, 2026
Registro de celulares
Desde el 9 de enero de 2026, en México entró en vigor la obligación de registrar las líneas de...
abril 23, 2026
De los test vocacionales al análisis de datos: elegir estudios en la era de la IA
Luis Angel Tapia Aneas Profesor UVA, Universidad de Valladolid Elegir qué estudiar siempre ha sido una decisión complicada, pero...
abril 20, 2026
¿Por qué no puedo parar? Patrones de diseño adictivos y tecnología que ‘engancha’
En las últimas semanas, dos jurados en Estados Unidos han declarado a grandes empresas tecnológicas responsables de negligencia por el diseño...
abril 15, 2026