Wikipedia tiene ahora una nueva inteligencia artificial la cual trata de evitar el desorden que los usuarios hacen. El sistema, denominado Servicio de Evaluación y Revisión Objetiva (ORS, por sus siglas en Inglés), explorará los textos presentes en la enciclopedia y encuentra mensajes que parecen ser spam o Trolleadas.
El desarrollador de la IA es la Fundación Wikimedia, y de acuerdo con lo que dicen, el servicio actuará como una especie de gafas de rayos X, encontrando todo lo que parezca sospechoso.
Luego de que el texto se separa por la IA, pasa por las manos de un editor humano, en donde se aprobará o negará el cambio.
ORS puede diferenciar entre un error humano involuntario y lo que se llama “errores perjudiciales”.
Al hacer el anuncio de la herramienta, la Fundación Wikimedia ha dejado claro que esta no es la primera inteligencia artificial diseñada para ayudar a los editores humanos en vigilar el contenido de sus páginas web.
Sin embargo, la diferencia entre esas IA y ORS es que puede encontrar un error humano echo a propósito y marcarlo como tal o un error legitimo y marcarlo como tal.