La revolución tecnológica impulsada por los Modelos de Lenguaje de Gran Tamaño (LLMs, por sus siglas en inglés) ha tenido un impacto significativo en diversas industrias. Uno de los aspectos más notables es su potencial para transformar la búsqueda en línea.
Hoy en día, para los usuarios es muy simple y sencillo hacer una serie de peticiones a la quizás más famosa IA que tenemos disponible: chatGPT, la cual tiene una versión gratuita que es sumamente funcional.
Por tener una modalidad gratuita al igual que otros servicios como Bard de Google, podemos pensar que esto no tiene un costo significativo y que la modalidad de paga es un exceso, pero estamos muy equivocados.
COSTOS DE ChatGPT
Estimar los costos de ChatGPT es complicado debido a varias variables desconocidas. Un modelo de costos que indica que ChatGPT cuesta $694,444 por día para operar en costos de hardware informático.
Y a qué se debe este costo diario, sencilla respuesta, OpenAI requiere al menos 3,500 servidores HGX A100 (un total de 28,936 GPU) para ofrecer Chat GPT. Los procesadores gráficos son el motor de esta tecnología. Un servidor GPU es un servidor de alto rendimiento que utiliza unidades de procesamiento gráfico (GPU) para realizar tareas computacionales intensivas.
Se estima que el costo por consulta es de $0,36 USD. Este estimado se alinea con el tweet de Sam Altman y una entrevista que realizó recientemente.
Esto cambiará solo cuando OpenAI produzca sus propios chips, de lo contrario, esto seguirá siendo caro.
Otro dato interesante, si el modelo ChatGPT se implementara en los motores y servidores de búsqueda existentes de Google, el impacto sería devastador. Habría una reducción de 36 mil millones de dólares en los ingresos operativos de Google.
CONCLUSIONES
Sin duda, usar una aplicación que sea útil y que esta no tenga costo para nosotros es una ventaja… pero no nos debemos confiar, este modo gratuito o freemium tiene sus desventajas. Estas desventajas pueden estar en tiempos de respuesta, calidad de la respuesta, capacidad de atender preguntas complejas, etc…
No nos extrañe que las respuestas de las IA gratuitas sean rebasadas por mucho por la IA en modo suscripción. Esto evidentemente provocará que el servicio evolucione como lo conocemos y tenga un modelo de monetización tipo Google con anuncios para poder hacer frente al gigantesco costo que tiene esta operación.
¿Y tú, estimad@ lector(a)… qué piensas?
REFERENCIAS
The Inference Cost Of Search Disruption – Large Language Model Cost Analysis – https://www.semianalysis.com/p/the-inference-cost-of-search-disruption?utm_source=www.joinsuperhuman.ai&utm_medium=newsletter&utm_campaign=a-250-million-dollar-hole-in-the-pocket
Te puede interesar:
De Frente Y Claro | DANTE DELGADO: BUENO PARA DIVIDIR, MALO PARA SUMAR
Agentes de IA: Transformando el Mundo del Trabajo en 2025
La clave será equilibrar la innovación tecnológica con la responsabilidad ética y social.
enero 17, 2025Informe Latimoamericano de Inteligencia Artificial
El ILIA 2024 subraya el enorme potencial de la IA para transformar las economías y sociedades de América Latina.
enero 10, 2025¿Qué enfermedad infecciosa puede suponer el mayor problema para los humanos en 2025?
Conor Meehan Associate Professor of Microbial Bioinformatics, Nottingham Trent University La covid-19 surgió de repente, se propagó rápidamente y...
enero 2, 2025El Anuario de Búsquedas de Google de 2024
Desde que Google lanzó su primera herramienta de búsqueda en 1998, se ha convertido en el espejo de nuestras...
diciembre 27, 2024