Si le das las gracias a ChatGPT, hay buenas noticias. Pero ninguna tiene que ver con los millones que le cuesta a OpenAI

Si le das las gracias a ChatGPT, hay buenas noticias. Pero ninguna tiene que ver con los millones que le cuesta a OpenAI
Sin comentarios
HOY SE HABLA DE

Suponemos que la madre de San Altman alguna vez también le dijo aquello de: "Dar las gracias no cuesta nada", pero el CEO lo olvidó (y con razón). En el ámbito de la IA, dar las gracias puede ser un lujo, según OpenAI. Los porfavores y los agradecimientos están generando costes inesperados, tanto en recursos como en modelos demasiado amigables de lo que se esperaba.

La anécdota ha levantado cierto revuelo en redes. En LinkedIn, profesionales como la ingenieria de sistemas Camila Aguado apuntaban  cómo la forma en que hablamos con las IAs revela tanto nuestra cultura digital como nuestra humanidad. Pero ¿qué puede aprender de todo esto una pyme o un profesional autónomo?

¿Cuesta dinero? Sí, pero...

ChatGPT y modelos de predicción de lenguaje similares funcionan por tokens, una unidad que equivale a fragmentos de palabras. Así, cuantas más palabras añadimos, más recursos consume el modelo para procesar nuestra petición.

A grandes rasgos, si hay un importante número de palabras innecesarias, es decir, que no tienen una relación directa con la cuestión, estos recursos se multiplican por millones de consultas diarias y el coste se dispara.

Por ello, ciertas tecnologías han tarificado esto de otras maneras (por ejemplo, cuanto más texto envías o datos recibes, más pagas), pero OpenAI mantiene unos costes cerrados incluso en la mayoría de sus versiones de pago.

En cambio, hay herramientas que contemplan costes por uso, como las versiones profesionales de ChatGPT que usan el API de OpenAI, o formatos avanzados de Copilot y Jasper. Aquí, escribir conciso ahorra miles de euros y energía, si bien el verdadero problema está en el uso masivo de las herramientas.

El tiempo también es un recurso

Sin embargo, más allá del coste económico y energético, una consulta larga y difusa a una IA no solo encarece el uso, también consume más tiempo de espera y suele generar respuestas menos ajustadas.

En un entorno pyme o freelance, y sin caer en escenarios ultraproductivistas, el tiempo es literalmente dinero: cada minuto malgastado ajustando una respuesta es una oportunidad perdida para centrarse en otros aspectos más productivos.

Muchas pymes ya utilizan herramientas de IA para generar contenido, redactar correos, automatizar respuestas o elaborar informes. Por el contrario, pocas piensan en términos de eficiencia comunicativa.

Redactar bien un prompt no solo mejora la calidad de la respuesta, también evita repeticiones y optimiza el uso de recursos. Dicho de otro modo, acabamos repitiendo la consulta o haciendo correcciones, lo cual multiplica las interacciones y, por lo tanto, el tiempo invertido.

Por ejemplo, muchas personas tienden a interactuar del modo siguiente:

❌ “Hola ChatGPT, ¿podrías hacerme el favor de generar una propuesta comercial para este cliente tan importante?”

Sin embargo, resulta más funcional un mensaje como el siguiente:

✅ “Crea una propuesta comercial para un cliente premium. Añade tono profesional y resumen de beneficios.”

A priori, este cambio no resta humanidad al mensaje (o no debería) y, además, ayuda a que la IA entienda mejor lo que se necesita y responda de forma más ajustada. ¿Mi fuente? Me lo ha confirmado la propia IA, en este caso, pero también obvia un punto fundamental con tintes shakespearianos...

Además, según un estudio titulado “Should We Respect LLMs? A Cross-Linguistic Study of Prompt Politeness in Academic Performance”, la falta de cortesía en las indicaciones puede generar un peor rendimiento (si bien ser muy educados no garantiza mejores resultados).

El dilema del lenguaje con las IAs

¿Deshumanizar o ser más eficaces?  Decir “gracias” a ChatGPT puede parecer inútil desde un punto de vista técnico, pero tiene un valor simbólico claro: refleja la forma en que tratamos al otro, incluso cuando ese “otro” es una máquina. Muchas personas han crecido educadas para ser amables, y replican esa cortesía con cualquier interlocutor, humano o no.

El problema no es la cortesía, sino que las empresas de IA no habían previsto del todo ese comportamiento humano. El modelo económico y de procesamiento de OpenAI asume interacciones frías, funcionales, cuando la realidad es que las personas hablan con sus herramientas como si fueran asistentes reales. Curioso, ¿no?

Entre la empatía y la eficiencia

El debate entre el “por favor” y el “gracias” nos da una gran lección empresarial. La IA puede ayudarnos a ser más productivos si sabemos cómo comunicarnos con ella, pero también apunta a la frialdad de algunos escenarios empresariales y tecnológicos que no habían previsto las muestras de empatía frente al otro. Incluso cuando el otro es una IA.

En conclusión, parece claro que las pymes y autónomos que dominen este lenguaje optimizado ahorrarán tiempo, dinero y frustraciones. Y resta por ver si las tecnológicas tendrán en cuenta esta lección sobre cómo integramos, de forma generalizada la inteligencia artificial.

Como fan de películas como Blade Runner y otras distopías tecnológicas tengo mi propia opinión, pero todo indica que la respuesta más probable sea  subir el precio asignado al token e incrustar las muestras de humanidad en la cuenta de resultados. En el medio plazo, para Altman, será un mal menor.

Temas
Inicio