OpenAI pierde millones por culpa de esta costumbre de los usuarios en ChatGPT
OpenAI está perdiendo millones de dólares al año por culpa de los usuarios educados que dan las gracias al finalizar sus interacciones con la IA

El uso adicional de los servidores de OpenAI para contestar a los millones de usuarios que dan las gracias genera un gasto adicional para la compañía Crédito: Shutterstock
Sam Altman, CEO de OpenAI, sorprendió a muchos al afirmar públicamente que algo tan simple como responder “gracias” a ChatGPT genera millones de dólares en gastos para la empresa. Aunque pueda sonar anecdótico o incluso humorístico, el comentario refleja una realidad muy concreta: cada interacción con una inteligencia artificial generativa tiene un coste computacional, y por ende, económico y ambiental.
La revelación se dio a través de una publicación en X (antes Twitter), en la que Altman respondió a un usuario que preguntaba si decirle “gracias” a ChatGPT encarecía el proceso. La respuesta fue tan directa como inesperada: “cuesta, literalmente, millones de dólares al año”. Incluso añadió que esos eran “millones de dólares bien gastados”, en referencia a la importancia de conservar el elemento humano y la cortesía en las interacciones con IA.
Aunque una simple palabra como “gracias” no represente mucho por sí sola, el impacto se multiplica al considerar los millones de usuarios activos que utilizan la plataforma diariamente. Este comportamiento colectivo añade una carga considerable a los sistemas que soportan el funcionamiento de ChatGPT.
El impacto de la cortesía en los recursos computacionales
El funcionamiento de ChatGPT y de otras herramientas de lenguaje de OpenAI requiere servidores de alto rendimiento que procesan millones de peticiones por segundo. Cada petición consume recursos computacionales como CPU, GPU, RAM y, sobre todo, energía eléctrica. Cuanto más extensa es una consulta o una respuesta, más capacidad de procesamiento necesita, lo que incrementa los costos operativos.
Cuando millones de personas añaden frases como “gracias”, “por favor”, “ten un buen día” o incluso pequeños emojis, están provocando que el modelo de lenguaje consuma unos milisegundos adicionales de cómputo. Esto puede parecer insignificante, pero en una escala masiva representa un volumen de procesamiento que termina costando, según Altman, decenas de millones de dólares al año solo en términos de infraestructura energética y mantenimiento de los servidores.
Esto refleja un aspecto poco discutido del uso de modelos de lenguaje avanzados: la eficiencia energética. OpenAI, al igual que otras empresas del sector, está constantemente buscando maneras de optimizar sus modelos para hacerlos más rápidos, precisos y eficientes. Sin embargo, cualquier incremento en la longitud de las entradas o salidas del modelo, aunque sea por educación o cortesía, repercute directamente en el gasto.
La respuesta de Altman y la percepción pública
La reacción de Altman a la pregunta viral en redes generó una oleada de comentarios. Algunos usuarios tomaron el dato como una curiosidad tecnológica interesante; otros lo vieron como una señal de alerta sobre el impacto ecológico y económico de los modelos de IA. Sin embargo, muchos destacaron el valor de conservar la humanidad incluso en nuestras interacciones digitales. Altman pareció respaldar esta visión al decir que esos millones estaban “bien gastados”.
Esta visión también expone un dilema: ¿deberíamos sacrificar la cortesía para optimizar el uso de la IA? ¿O es más importante preservar la forma en que nos comunicamos, incluso con sistemas que no son humanos? La discusión no es menor, considerando que la forma en que interactuamos con las máquinas moldea también la forma en que nos relacionamos con otras personas.
Además, existe el componente educativo. Muchos padres, por ejemplo, usan ChatGPT junto a sus hijos para enseñarles a pedir las cosas “por favor” y agradecer. Desde esta perspectiva, eliminar esas expresiones por el bien de la eficiencia podría tener consecuencias negativas a largo plazo en términos sociales y culturales.
A futuro, las compañías de IA deberán encontrar un equilibrio entre eficiencia, humanidad y sostenibilidad. Tal vez, como sugiere el propio Altman, esos millones “bien gastados” sean una inversión en preservar la forma en que las personas desean interactuar, incluso en un mundo cada vez más automatizado. Pero también es posible que los usuarios tengan que adoptar nuevos hábitos para que estas herramientas sigan siendo viables a escala global.
Sigue leyendo:
• DeepSeek, el chatbot barato con el que China desafía a ChatGPT y que genera un terremoto en el mercado de las tecnológicas
• Es posible que ChatGPT esté filtrando por error tus conversaciones privadas
• OpenAI lanza GPT-4.5: el nuevo hito en inteligencia artificial conversacional