Al menos la mitad de las respuestas de programación de ChatGPT pueden mostrar errores

De acuerdo con ingenieros y científicos de la Universidad de Purdue, Estados Unidos, al menos la mitad de los resultados de ChatGPT relacionados con programación contienen errores.

La investigación del centro académico, ubicado en Indiana, señaló que la tecnología de conversación basada en inteligencia artificial (IA) tiene dificultades para dar resultados eficientes en el campo de preguntas y respuestas para abordar problemas a futuro (Q&A, en inglés).

El bot conversacional (chatbot) desarrollado por OpenAI, ChatGPT, ha cobrado popularidad e importancia en ámbitos de estudio y trabajo en todo el mundo, principalmente por cifras de Statista.

Gracias a la evolución de la inteligencia artificial, el modelo GPT-4 puede responder preguntas y comunicar información con un grado de creatividad igualada a los mejores pensadores humanos. Ello indicó un estudio de la Universidad de Montana, para el cual la herramienta se comparó con las respuestas de más de dos mil estudiantes universitarios.

Bajo esta línea, el crecimiento de ChatGPT ha generado preocupaciones por la posibilidad de reemplazar el trabajo humano en las empresas y organizaciones. Al respecto, investigadores de la Universidad de Cornell informaron el 17 de marzo de 2023: los chatbots sofisticados pueden afectar al 19% de la fuerza laboral solo en Estados Unidos.

Según el estudio de los científicos de Purdue, al preguntar a ChatGPT sobre problemas de programación en la plataforma Stack Overflow (SO), 77% de los resultados incluyen palabras de sobra que entorpecen aplicar el código. Asimismo, 52% de las respuestas contienen información con falta de precisión y errores para trabajar con problemas informáticos.

No obstante, la investigación publicada en aiXiv, que se encuentra pendiente de revisión por la comunidad científica, señaló un panorama positivo para el uso de ChatGPT. Si bien la mitad de sus respuestas tiene elementos erróneos, 54% de sus resultados provienen de dificultades para entender los conceptos que buscan los usuarios de la plataforma.

Frente a la falta de precisión en los resultados de ChatGPT, el estudio de Indiana informó que la inteligencia artificial es más efectiva cuando se encuentra supervisada por humanos. Comparado con la idea de dichas herramientas como reemplazo de la mano de obra humana, los modelos de lenguaje de ChatGPT tienen la capacidad de incrementar la productividad en conjunto.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.