La revolución tecnológica impulsada por los Modelos de Lenguaje de Gran Tamaño (LLMs, por sus siglas en inglés) ha tenido un impacto significativo en diversas industrias. Uno de los aspectos más notables es su potencial para transformar la búsqueda en línea.
Hoy en día, para los usuarios es muy simple y sencillo hacer una serie de peticiones a la quizás más famosa IA que tenemos disponible: chatGPT, la cual tiene una versión gratuita que es sumamente funcional.
Por tener una modalidad gratuita al igual que otros servicios como Bard de Google, podemos pensar que esto no tiene un costo significativo y que la modalidad de paga es un exceso, pero estamos muy equivocados.
COSTOS DE ChatGPT
Estimar los costos de ChatGPT es complicado debido a varias variables desconocidas. Un modelo de costos que indica que ChatGPT cuesta $694,444 por día para operar en costos de hardware informático.
Y a qué se debe este costo diario, sencilla respuesta, OpenAI requiere al menos 3,500 servidores HGX A100 (un total de 28,936 GPU) para ofrecer Chat GPT. Los procesadores gráficos son el motor de esta tecnología. Un servidor GPU es un servidor de alto rendimiento que utiliza unidades de procesamiento gráfico (GPU) para realizar tareas computacionales intensivas.
Se estima que el costo por consulta es de $0,36 USD. Este estimado se alinea con el tweet de Sam Altman y una entrevista que realizó recientemente.
Esto cambiará solo cuando OpenAI produzca sus propios chips, de lo contrario, esto seguirá siendo caro.
Otro dato interesante, si el modelo ChatGPT se implementara en los motores y servidores de búsqueda existentes de Google, el impacto sería devastador. Habría una reducción de 36 mil millones de dólares en los ingresos operativos de Google.
CONCLUSIONES
Sin duda, usar una aplicación que sea útil y que esta no tenga costo para nosotros es una ventaja… pero no nos debemos confiar, este modo gratuito o freemium tiene sus desventajas. Estas desventajas pueden estar en tiempos de respuesta, calidad de la respuesta, capacidad de atender preguntas complejas, etc…
No nos extrañe que las respuestas de las IA gratuitas sean rebasadas por mucho por la IA en modo suscripción. Esto evidentemente provocará que el servicio evolucione como lo conocemos y tenga un modelo de monetización tipo Google con anuncios para poder hacer frente al gigantesco costo que tiene esta operación.
¿Y tú, estimad@ lector(a)… qué piensas?
REFERENCIAS
The Inference Cost Of Search Disruption – Large Language Model Cost Analysis – https://www.semianalysis.com/p/the-inference-cost-of-search-disruption?utm_source=www.joinsuperhuman.ai&utm_medium=newsletter&utm_campaign=a-250-million-dollar-hole-in-the-pocket
Te puede interesar:
De Frente Y Claro | DANTE DELGADO: BUENO PARA DIVIDIR, MALO PARA SUMAR

Cerebro femenino, un laberinto de conexiones
El cerebro femenino no solo es una maravilla de la naturaleza, sino un motor imparable de creatividad, empatía y...
marzo 10, 2025
La importancia de una alfabetización mediática temprana en la era de la desinformación
Óscar Espíritusanto Profesor en el Departamento de Periodismo y Comunicación Audiovisual, Universidad Carlos III La creciente propagación de desinformación...
marzo 3, 2025
Copilot: la Inteligencia Artificial de Microsoft que revoluciona la productividad
Sin duda, esta IA tiene el potencial de redefinir la forma en que interactuamos con el software y aumentar...
febrero 28, 2025
Sucedió en Glasgow
Los escoceses, lejos de echarle la culpa a otros países proveedores de droga, optaron por buscar otras alternativas...
febrero 26, 2025