Un grupo de destacadas figuras tecnológicas está recomendando a los investigadores de inteligencia artificial a detener de manera inmediata el avance del entrenamiento de sistemas avanzados, por lo menos por 6 meses. Esta gente recomienda que se utilice el tiempo libre para colaborar en la elaboración e implementación de protocolos de seguridad para el diseño avanzado de IA, los cuales serían supervisados por un equipo de expertos externos e independientes.
En una publicación en el sitio web del Instituto Future of Life, más de 1100 firmantes han expresado su inquietud por lo que describen como una carrera desenfrenada para crear y lanzar al mercado sistemas de inteligencia artificial cada vez más avanzados, que aún no comprendemos, no podemos predecir ni controlar de manera confiable.
- «¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades?
- ¿Deberíamos automatizar todos los trabajos, incluidos los que nos satisfacen?
- ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, engañarnos, dejarnos obsoletos y reemplazarnos?
- ¿Deberíamos arriesgarnos a perder el control? de nuestra civilización?»
La IA podría reemplazarnos
La declaración podría haber parecido material de ciencia ficción solo hace algunos años, pero para aquellos que siguen de cerca las novedades en tecnología, es evidente que los sistemas de inteligencia artificial, son cada vez más sofisticados y están siendo lanzados a un ritmo vertiginoso. Esto es tan fascinante, como alarmante.
Estos expertos en la industria creen que los sistemas de IA super poderosos solo deben desarrollarse una vez que tengamos una mejor comprensión de sus habilidades y estemos seguros de que las ventajas superarán las desventajas.
Como tal, el grupo aconseja a todos los laboratorios de IA a pausar su capacitación en sistemas superiores a GPT-4 durante un mínimo de seis meses. Este descanso debe ser transparente, involucrando a todos. Si no es posible implementar la suspensión rápidamente, el grupo recomienda que los gobiernos intervengan y hagan cumplir este tiempo, para un revisión.
Vale la pena reiterar que el grupo no está pidiendo una pausa en todo el desarrollo de IA, sino simplemente tomar un descanso, para comprender que factores y consecuencias podríamos tener al implementar sistemas impredecibles y de vanguardia.
Varias mentes tecnológicas de alto perfil ya han firmado la carta abierta, incluido el cofundador de Apple, Steve Wozniak, Elon Musk, el cofundador de Pinterest, Evan Sharp, el cofundador de Ripple, Chris Larsen, y Jaan Tallinn, cofundador de Skype.