OpenAI, en su momento prohibió el uso de su tecnología para uso militar, en actividades que impliquen un alto riesgo de daño físico, incluido el desarrollo de armas y las actividades militares. Esto fue hasta el 10 de enero, aunque continua el bloqueo para usos nocivos a humanos o uso de armas, la prohibición general para uso militar ha desaparecido.
Estos cambios en las política de uso, según la compañía, son para que el documento sea más claro y legible e incluye muchos otros cambios, según ellos importantes. Pero la consecuencia real de cambiar esta política no están claras. El año pasado, en una conferencia OpenAI se negó a responder preguntas sobre si haría cumplir su propia y clara prohibición de uso militar, ante el creciente interés del Pentágono y la comunidad de inteligencia estadounidense.
«Nuestro objetivo era crear un conjunto de principios universales que fueran fáciles de recordar y aplicar, especialmente porque nuestras herramientas ahora son utilizadas en todo el mundo de forma cotidiana.» «El principio de No dañar a otros es amplio, y fácilmente comprensible y relevante en muchos contextos. Además, decimos específicamente que no dejaremos que se utilice nuestra tecnología en armas o en dañar a otras personas,» dijo el portavoz de OpenAI, Niko Felix. Sin embargo, se negó a contestar si la prohibición de daño se aplica a cualquier uso militar.
Se utilizara la IA para matar?
«OpenAI es muy consciente de los riesgos y daños que podrían surgir del uso de sus tecnologías y servicios con fines militares», afirmó Heidy Khlaaf, experta en aprendizaje automático y seguridad de sistemas autónomos. En su opinión, la nueva política antepone el Estado de derecho a la seguridad: “Hay una clara diferencia entre las dos políticas: la primera establece claramente que el desarrollo de armas, así como las actividades militares y la guerra están prohibidos, mientras que la segunda enfatiza la flexibilidad y respeto a la ley”.
Klaaf cree que el desarrollo de armas y las actividades relacionadas con la guerra son legales en diversos grados y que las posibles implicaciones para la seguridad son muy probables.
“Dado el uso de sistemas de inteligencia artificial para atacar a civiles en la Franja de Gaza, es una decisión notable eliminar esta restricción de la política de uso de OpenAI”, dijo la directora del Instituto AI Now, Sarah Myers West.»
Aunque hoy en día la IA no se puede utilizar para la violencia directa y el asesinato, hay una gran cantidad de tareas relacionadas que la IA realiza para los militares. Personal militar, en todo el mundo, ya está utilizando la tecnología de OpenAI para acelerar varias tareas. La Agencia Nacional de Inteligencia Geoespacial, que ayuda directamente a Estados Unidos en operaciones de combate, declara abiertamente el uso de ChatGPT por parte de sus analistas. Incluso si las herramientas de OpenAI en el ejército se utilizan para tareas que no involucran violencia directa, aun así ayudan indirectamente a luchar y matar personas.
Fuente: Mashable