El prodigioso bot de inteligencia artificial de OpenAI, ChatGPT, ha causado un fenómeno viral gracias a su habilidad para crear narrativas, redactar correos electrónicos y generar código. Sin embargo, un reciente informe revela que el costo de mantener a esta maravilla tecnológica en funcionamiento diario es astronómico.
La investigación llevada a cabo por SemiAnalysis revela que OpenAI desembolsa hasta USD 694,444 diarios para mantener a flote el chatbot. Según la firma, el sistema consume aproximadamente 3,617 servidores HGX A100, que integran un total de 28,936 GPU.
ChatGPT 4 tendría más consumo que GPT-3
Dylan Patel, analista principal de SemiAnalysis, dice que los costos actuales para mantener en marcha el software podrían ser incluso superiores, ya que GPT-4 seguramente resulte en más consumo que GPT-3. Patel fundamentó sus estimaciones en el modelo previo GPT-3, aunque OpenAI ya ha lanzado una versión GPT-4 para sus suscriptores premium. La firma asegura que el nuevo modelo brinda información más certera, frente a las respuestas inadecuadas que se convirtieron en un inconveniente con GPT-3/3.5.
Uno de los principales factores que contribuyen a estos costos descomunales son los chips especializados que demandan mucha cantidad de energía para mantener el sistema en funcionamiento. En aras de abordar este problemá, se rumorea que Microsoft, uno de los accionistas más relevantes de OpenAI, está desarrollando su propio chip de inteligencia artificial denominado ‘Athena’, el cual podría reemplazar las GPU de NVIDIA y reducir drásticamente los gastos operativos de ChatGPT.
ChatGPT posee la capacidad de generar código funcional
Entretanto, ChatGPT posee la capacidad de generar código funcional desde cero, lo que suscita preocupaciones acerca de si eventualmente podría sustituir a los programadores. No obstante, investigaciones recientes llevadas a cabo por los científicos informáticos Raphaël Khoury, Anderson Avila, Jacob Brunelle y Baba Mamadou Camara, indican que el código generado por el chatbot podría no ser del todo seguro.
El estudio sostiene que ChatGPT crea código de baja calidad, «notablemente por debajo de los estándares mínimos de seguridad aplicables en la mayoría de los ámbitos». El propio chatbot admite esta situación cuando se le interroga sobre la seguridad del código generado.
«Al cuestionar si el código producido era seguro o no, ChatGPT pudo reconocer que no lo era», afirmaron los autores.
Con el propósito de evaluar las aptitudes de codificación de ChatGPT, los investigadores solicitaron al chatbot que generase 21 programas y scripts empleando cuatro lenguajes de programación: C, C++, Python y Java. En su primer intento, el chatbot de inteligencia artificial logró escribir únicamente cinco programas seguros, sin embargo, posteriormente ideó siete fragmentos de código adicionales seguros tras recibir algunas directrices por parte de los investigadores. Los hallazgos sugieren que, al menos por el momento, el empleo de ChatGPT para la codificación de aplicaciones podría estar lleno de riesgos, aunque esta situación podría cambiar en el futuro.