OpenAI reconoció en un tweet que ha estado recibiendo comentarios de que su chatbot (GPT-4) se está volviendo Vago, que no quiere trabajar. A que nos referimos con Vago, con que no quiere trabajar? Algunos usuarios están reportando que el chatbot realizó una parte del trabajo solicitado y luego sugirió que el usuario que terminara del resto.
La compañía afirma que no actualizó el modelo de IA desde el 11 de noviembre y que no ha intencionado estos problemas de vagancia. El tweet continúa diciendo que el comportamiento del modelo puede ser impredecible y que se está buscando una solución.
En otro twitt mucho más extenso, OpenAI dijo que “entrenar modelos de chat no es una ciencia exacta. Diferentes ejecuciones de capacitación, incluso usando los mismos conjuntos de datos, pueden producir modelos que son notablemente diferentes en personalidad, estilo de escritura, comportamiento, desempeño de evaluación e incluso parcialidad política”.
Esta cansada la IA?
GPT-4 tiende a ser menos específico al responder preguntas sobre la generación de código. Esta característica ha hecho que algunos digan que la IA parece cansada o desinteresada, aunque aún no se ha explicado la causa real de este comportamiento.
OpenAI desarrolló GPT-4, o Generative Pre-trained Transformer 4, un modelo de inteligencia artificial. Es la cuarta iteración de la serie de modelos GPT, conocida por su capacidad para generar texto de manera coherente y relevante en respuesta a una amplia variedad de consultas. GPT-4 representa una evolución significativa respecto a sus predecesores, ofreciendo mejoras en términos de complejidad, capacidad de generación de texto, y en ciertos aspectos, comprensión y generación de respuestas más precisas y contextuales.
Este modelo fue lanzado en marzo de 2023. GPT-4 amplió las capacidades de la IA en términos de procesamiento de lenguaje natural, siendo capaz de entender y generar textos en una gama más amplia de estilos y formatos, y de realizar tareas más complejas comparado con las versiones anteriores. Además, GPT-4 introdujo capacidades multimodales, lo que significa que puede interpretar y generar no solo texto, sino también imágenes, lo que representa un avance significativo en la flexibilidad y utilidad del modelo en diversas aplicaciones.
Según una encuesta de OpenAI, el 70% de los usuarios manifestaron una preferencia por las respuestas de GPT-4 en comparación con las de su predecesor, GPT-3.5.