Al menos la mitad de las respuestas de programación de ChatGPT pueden mostrar errores

Científicos de Purdue informaron que la mitad de los resultados de programación de ChatGPT contienen faltas de precisión

 

De acuerdo con ingenieros y científicos de la Universidad de PurdueEstados Unidos, al menos la mitad de los resultados de ChatGPT relacionados con programación contienen errores. La investigación del centro académico, ubicado en Indiana, señaló que la tecnología de conversación basada en inteligencia artificial (IA) tiene dificultades para dar resultados eficientes en el campo de preguntas y respuestas para abordar problemas a futuro (Q&A, en inglés).

El bot conversacional (chatbot) desarrollado por OpenAIChatGPT, ha cobrado popularidad e importancia en ámbitos de estudio y trabajo en todo el mundo, principalmente por incrementar la productividad. En el caso de México, la herramienta recibió 60 millones de visitas entre enero y marzo de 2023, señalaron cifras de Statista.

Gracias a la evolución de la inteligencia artificial, el modelo GPT-4 puede responder preguntas y comunicar información con un grado de creatividad igualada a los mejores pensadores humanos. Ello indicó un estudio de la Universidad de Montana, para el cual la herramienta se comparó con las respuestas de más de dos mil estudiantes universitarios.

Bajo esta línea, el crecimiento de ChatGPT ha generado preocupaciones por la posibilidad de reemplazar el trabajo humano en las empresas y organizaciones. Al respecto, investigadores de la Universidad de Cornell informaron el 17 de marzo de 2023: los chatbots sofisticados pueden afectar al 19% de la fuerza laboral solo en Estados Unidos.

Según el estudio de los científicos de Purdue, al preguntar a ChatGPT sobre problemas de programación en la plataforma Stack Overflow (SO), 77% de los resultados incluyen palabras de sobra que entorpecen aplicar el código. Asimismo, 52% de las respuestas contienen información con falta de precisión y errores para trabajar con problemas informáticos.

No obstante, la investigación publicada en aiXiv, que se encuentra pendiente de revisión por la comunidad científica, señaló un panorama positivo para el uso de ChatGPT. Si bien la mitad de sus respuestas tiene elementos erróneos, 54% de sus resultados provienen de dificultades para entender los conceptos que buscan los usuarios de la plataforma.

Frente a la falta de precisión en los resultados de ChatGPT, el estudio de Indiana informó que la inteligencia artificial es más efectiva cuando se encuentra supervisada por humanos. Comparado con la idea de dichas herramientas como reemplazo de la mano de obra humana, los modelos de lenguaje de ChatGPT tienen la capacidad de incrementar la productividad en conjunto.