La revolución tecnológica impulsada por los Modelos de Lenguaje de Gran Tamaño (LLMs, por sus siglas en inglés) ha tenido un impacto significativo en diversas industrias. Uno de los aspectos más notables es su potencial para transformar la búsqueda en línea.
Hoy en día, para los usuarios es muy simple y sencillo hacer una serie de peticiones a la quizás más famosa IA que tenemos disponible: chatGPT, la cual tiene una versión gratuita que es sumamente funcional.
Por tener una modalidad gratuita al igual que otros servicios como Bard de Google, podemos pensar que esto no tiene un costo significativo y que la modalidad de paga es un exceso, pero estamos muy equivocados.
COSTOS DE ChatGPT
Estimar los costos de ChatGPT es complicado debido a varias variables desconocidas. Un modelo de costos que indica que ChatGPT cuesta $694,444 por día para operar en costos de hardware informático.
Y a qué se debe este costo diario, sencilla respuesta, OpenAI requiere al menos 3,500 servidores HGX A100 (un total de 28,936 GPU) para ofrecer Chat GPT. Los procesadores gráficos son el motor de esta tecnología. Un servidor GPU es un servidor de alto rendimiento que utiliza unidades de procesamiento gráfico (GPU) para realizar tareas computacionales intensivas.
Se estima que el costo por consulta es de $0,36 USD. Este estimado se alinea con el tweet de Sam Altman y una entrevista que realizó recientemente.
Esto cambiará solo cuando OpenAI produzca sus propios chips, de lo contrario, esto seguirá siendo caro.
Otro dato interesante, si el modelo ChatGPT se implementara en los motores y servidores de búsqueda existentes de Google, el impacto sería devastador. Habría una reducción de 36 mil millones de dólares en los ingresos operativos de Google.
CONCLUSIONES
Sin duda, usar una aplicación que sea útil y que esta no tenga costo para nosotros es una ventaja… pero no nos debemos confiar, este modo gratuito o freemium tiene sus desventajas. Estas desventajas pueden estar en tiempos de respuesta, calidad de la respuesta, capacidad de atender preguntas complejas, etc…
No nos extrañe que las respuestas de las IA gratuitas sean rebasadas por mucho por la IA en modo suscripción. Esto evidentemente provocará que el servicio evolucione como lo conocemos y tenga un modelo de monetización tipo Google con anuncios para poder hacer frente al gigantesco costo que tiene esta operación.
¿Y tú, estimad@ lector(a)… qué piensas?
REFERENCIAS
The Inference Cost Of Search Disruption – Large Language Model Cost Analysis – https://www.semianalysis.com/p/the-inference-cost-of-search-disruption?utm_source=www.joinsuperhuman.ai&utm_medium=newsletter&utm_campaign=a-250-million-dollar-hole-in-the-pocket
Te puede interesar:
De Frente Y Claro | DANTE DELGADO: BUENO PARA DIVIDIR, MALO PARA SUMAR

La Cumbre de la Unión Europea sobre Inteligencia Artificial: Regulación, Inversión y Competencia Global
Mientras Estados Unidos y China continúan su carrera por el dominio de la IA con enfoques opuestos, Europa intenta...
febrero 13, 2025
ChatGPT y Copilot en WhatsApp: La Revolución de la IA en la Mensajería
La llegada de ChatGPT y Copilot a WhatsApp marca un hito en la integración de la IA en nuestra...
febrero 7, 2025
DeepSeek inicia el razonamiento de las máquinas
Autor: Jordi Linares Pellicer Dr. en informática y profesor en la Universitat Politècnica de València, Universitat Politècnica de València...
enero 31, 2025
DeepSeek, ¿la primera piedra en el camino de Trump?
Francisco Jareño Cebrián Catedrático de Universidad, Área de Economía Financiera, Departamento de Análisis Económico y Finanzas, Universidad de Castilla-La...
enero 30, 2025