La red social presentó dos nuevas herramientas de código abierto para detectar y evitar que las personas compartan contenidos dañinos, como propaganda terrorista, material de explotación infantil o videos en vivo de contenido sensible.
Por Antigone Davis, Responsable de Seguridad Global y Guy Rosen, VP de Integridad
Las plataformas que ofrece Facebook son recursos increíbles donde los jóvenes pueden conectarse, aprender y jugar. Por ello, nos preocupamos por mantener a las personas seguras y proteger a los niños de los peligros online. Sin embargo, la lucha contra la explotación infantil es muy grande para una sola empresa: requiere del trabajo de todos en la industria para compartir herramientas y mejores prácticas, para aumentar la seguridad en Internet.
Es por eso que hoy lanzamos tecnologías de código abierto que pueden detectar videos y fotos similares o casi idénticos. Estas son herramientas importantes para detectar y evitar que las personas compartan contenidos dañinos, como propaganda terrorista o videos en vivo de contenido sensible.
Estos algoritmos serán los primeros en su tipo de código abierto en GitHub para ser utilizados entre socios de la industria y organizaciones sin fines de lucro, con el fin de identificar y tomar medidas con mayor facilidad respecto al contenido que se haya identificado anteriormente, así como compartir funciones hash entre diferentes tipos de abusos. La tecnología de detección de coincidencia de fotos y videos se desarrolló en conjunto con el equipo de investigación de inteligencia artificial (FAIR) de Facebook y académicos de la Universidad de Módena y Reggio Emilia en Italia.
Estas tecnologías son parte del conjunto de herramientas que utilizamos en Facebook para detectar contenido de explotación infantil e impedir que sea difundido en nuestras plataformas. También, utilizamos Machine Learning e Inteligencia Artificial. Una vez que nuestro equipo detecta contenido dañino, reportamos las violaciones al Centro Nacional de Niños Desaparecidos y Explotados (NCMEC-por sus siglas en inglés), quienes por su lado están en contacto con los departamentos de policía de todo el mundo para ayudar a las víctimas.
Estamos anunciando estas tecnologías al mismo tiempo que ocurre nuestro cuarto hackathon anual de seguridad infantil, que se realiza en la sede de Facebook en Menlo Park, California. El evento, de dos días, reúne cerca de 80 ingenieros y científicos de datos de empresas asociadas a Technology Coalition y otros para desarrollar nuevas tecnologías que ayuden a proteger a los niños y niñas.
El evento de este año se centra en el desarrollo de nuevas herramientas para ayudar a nuestros socios, NCMEC y Thorn, en su trabajo. Nuestros socios pondrán su información a disposición de los ingenieros y científicos de datos participantes para que éstos los utilicen en el desarrollo de más de diez proyectos. El código abierto publicado hoy se pondrá a disposición de los equipos en el hackathon para desarrollar posibles usos adicionales. Los equipos también desarrollarán una función de prototipo que permitirá a las autoridades usar la herramienta de gestión de casos del NCMEC para buscar en las bases de datos de otras organizaciones las funciones hash conocidas y otra información clave para crear casos más sólidos contra los perpetradores.
Los hackathons son una forma de reunir a personas de diferentes organizaciones con experiencia muy diversa para crear herramientas que resuelvan la explotación sexual infantil en internet. Todos los códigos y prototipos desarrollados en el evento serán donados a nuestros socios y utilizados en sus esfuerzos por la seguridad infantil.