Cada vez que se realiza una solicitud, ChatGPT debe procesar la entrada en su totalidad, dividiéndola en tokens (unidades más pequeñas de texto), lo que incrementa el tiempo y los recursos requeridos, especialmente cuando las interacciones son más largas y detalladas debido a la cortesía.
Ante esto, las palabras "por favor" y "gracias" requieren un mayor procesamiento computacional, lo que se traduce en más consumo de energía y, por ende, mayores costos para la empresa.
chat gpt, tecnologia.jpeg
Si se incluyen palabras adicionales en una consulta, como las mencionadas anteriormente, la cantidad de tokens que debe procesar ChatGPT se incrementa, lo que exige más tiempo de cálculo, mayor uso de las unidades de procesamiento gráfico (GPU) y, en última instancia, una mayor carga sobre los servidores que operan el sistema.
El estudio que respalda esta teoría
Un estudio realizado por la Universidad de Cornell en Estados Unidos evaluó cómo las interacciones con IA variaban dependiendo de si se usaba un lenguaje cortés o descortés.
Los resultados demostraron que, al igual que en las interacciones humanas, el lenguaje cortés suele generar respuestas más eficaces y satisfactorias, mientras que las indicaciones groseras pueden desencadenar un rendimiento inferior de la tecnología.
No obstante, se demostró también que el exceso de cortesía puede no ser beneficioso para esta tecnología. Definitivamente, este hallazgo resalta que los modelos de IA no solo están influenciados por las normas humanas.