Con una comprensión más profunda y amplia del contenido, el software de inteligencia artificial contribuye en gran medida a eliminar los comentarios de odio. Aproximadamente el 95% de ellos se eliminan de las plataformas digitales de Facebook.

En una conferencia de prensa y en una publicación de blog, la compañía de Facebook informó mejoras significativas en la moderación del discurso de odio en sus plataformas. En 2019, se eliminaron el 80,5% de los mensajes dañinos. En 2017, esta cifra fue solo del 24%. Esta información proviene de Mike Schroepfer, CTO de Facebook.

Al centrar sus esfuerzos en la inteligencia artificial, la compañía ha hecho que el despliegue de tecnología de aprendizaje automático de vanguardia para proteger a los usuarios de contenido dañino sea un objetivo central. Facebook se ha esforzado por incorporar el aprendizaje automático en su estrategia.

Con esta tecnología, los algoritmos se mejoran automáticamente con la experiencia. Este es un impulso para los miles de moderadores de contenido que la empresa emplea en todo el mundo.

Mensajes nocivos, un gran desafío para Facebook

A pesar de los esfuerzos, los mensajes dañinos continúan. Y, sin embargo, ha aumentado la capacidad de Facebook, Twitter, YouTube y TikTok para controlar los insultos raciales y los ataques religiosos. La tarea ha sido particularmente difícil durante el caluroso año electoral de 2020 en los Estados Unidos. Facebook dijo que etiquetó más de 180 millones de publicaciones dañinas en el período previo a las elecciones presidenciales de 2020.

Para lidiar con eso, Facebook dice que ha implementado dos nuevas tecnologías de inteligencia artificial. El "Optimizador de integridad reforzado" es una solución que aprende de métricas y ejemplos reales en línea. "Linformer", que permite a la empresa utilizar modelos complejos de comprensión del lenguaje. Anteriormente, estas soluciones eran demasiado grandes y difíciles de manejar para una implementación a gran escala.

Facebook también afirma haber desarrollado una nueva herramienta para detectar deepfakes, videos generados por ordenador que parecen ser reales. En conjunto, todas estas innovaciones permiten que los sistemas de IA tengan una comprensión más profunda y amplia del contenido.