¿Cómo lo Estamos Haciendo en el Cumplimiento de Nuestras Normas de la Comunidad?

0
7

¿Cómo lo Estamos Haciendo en el Cumplimiento de Nuestras Normas de la Comunidad?

Por Guy Rosen, VICEPRESIDENTE de Gestión de Producto

la Gente sólo va a ser cómodo para compartir en Facebook si se siente seguro. Así que durante los últimos dos años, se’ve invertido fuertemente en la tecnología y las personas para eliminar con eficacia mal el contenido de nuestros servicios. Esta primavera, por primera vez, hemos publicado las directrices internas de nuestros equipos de revisión de utilizar para hacer cumplir las Normas de la Comunidad — para que nuestra comunidad pueda entender mejor lo que’s permitidos en Facebook, y por qué. Y en Mayo, publicamos los números, mostrando la cantidad de contenido que infrinja los hemos detectado en nuestro servicio, para que la gente pueda juzgar por sí mismos cuán bien lo estamos haciendo.

Hoy en día, se’re la publicación de nuestro segundo Informe sobre el Cumplimiento de las Normas de la Comunidad. Este segundo informe muestra nuestros esfuerzos de cumplimiento en nuestras políticas en contra de adulto de la desnudez y de la actividad sexual, cuentas falsas, el discurso del odio, spam, propaganda terrorista, y la violencia y el contenido gráfico, para los seis meses que de de abril de 2018 de septiembre de 2018. El informe también incluye dos nuevas categorías de datos — la intimidación y el acoso, y el niño de la desnudez y la explotación sexual de los niños.


Encontrar Contenido Que Infrinja Nuestras Normas

Estamos mejorando en forma proactiva en la identificación de violar el contenido antes de que alguien informes, específicamente para el discurso del odio y la violencia y el contenido gráfico. Pero todavía hay zonas donde tenemos más trabajo que hacer.

  • Desde nuestro último informe, la cantidad de odio que nos detectar de forma proactiva, antes de que alguien los informes, se ha más que duplicado, pasando del 24% al 52%. La mayoría de los puestos que tomamos hacia abajo para el discurso del odio son los puestos que le’cinco encontrado antes de que alguien los denunció ante nosotros. Esto es increíblemente importante labor y seguimos invirtiendo fuertemente en donde nuestro trabajo se encuentra en las primeras etapas — y para mejorar nuestro rendimiento en los idiomas menos utilizados.
  • Nuestra tasa de detección proactiva para la violencia y el contenido gráfico aumento de 25 puntos porcentuales — del 72% al 97%.

Eliminar Contenido y Cuentas Que incumplan Nuestras Normas

’re no sólo van a mejorar en la búsqueda de mal contenido, se’re también tomar más abajo. En el 3º trimestre de 2018, tomamos acción en 15,4 millones de piezas de violentos y el contenido gráfico. Esto incluye la eliminación de contenido, poniendo una pantalla de advertencia sobre ella, la desactivación de la cuenta infractora y/o la escalada de contenido para la aplicación de la ley. Esto es más de 10 veces la cantidad que tomó acción en el Q4 de 2017. Este incremento se debió a las continuas mejoras en nuestra tecnología que nos permite aplicar automáticamente la misma acción muy similar o idéntico contenido. También, tal y como anunciamos la semana pasada, hubo un aumento significativo en la cantidad de contenidos terroristas que hemos eliminado en la Q2 de 2018. Hemos ampliado el uso de nuestro sistema de emparejamiento de — la tecnología que puede detectar de manera proactiva las fotos que son muy similares a violar contenido ya en nuestra base de datos — para eliminar las viejas imágenes de la propaganda terrorista. Parte de este aumento se debe también a la fijación de un error que nos impide la eliminación de algunos de los contenidos que violan nuestras políticas.

también Nos llevó más cuentas falsas en Q2 y Q3, que en trimestres anteriores, 800 millones y 754 millones de euros, respectivamente. La mayoría de estas cuentas falsas, fueron el resultado de los motivos comerciales spam los ataques tratando de crear cuentas falsas en forma masiva. Debido a que son capaces de eliminar la mayoría de estas cuentas dentro de minutos de la inscripción, la prevalencia de cuentas falsas en Facebook se mantuvo estable en un 3% a un 4% de los usuarios activos mensuales según se informó en nuestro Q3 ganancias.

la Adición de Nuevas Categorías

Para las dos nuevas categorías que’cinco añadido a este informe — la intimidación y el acoso y el niño de la desnudez y la explotación sexual de los niños — los datos obtenidos servirán como punto de partida para que podamos medir nuestro progreso en estas violaciones a lo largo del tiempo.

la Intimidación y el acoso tienden a ser personal y de contexto específico, por lo que en muchos casos necesitamos a una persona para informar de este comportamiento a nosotros antes de que podamos identificar o eliminar. Esto se traduce en una menor tasa de detección proactiva de otros tipos de violaciones. En el último trimestre, se tomó acción 2.1 millones de piezas de contenido que infringe nuestras políticas para la intimidación y el acoso — la eliminación del 15% de ella antes de que se informó. Nos proactivamente descubierto este contenido, mientras que la búsqueda de otros tipos de violaciones. El hecho de que las víctimas suelen tener el informe de este contenido antes de que podamos tomar acción puede ser molesto para ellos. Estamos decididos a mejorar nuestra comprensión de estos tipos de abusos por lo que podemos mejorar en forma proactiva la detección de los mismos.

las Normas de Nuestra Comunidad de prohibición de la explotación infantil. Pero para evitar el potencial para el abuso, quitamos asexual de contenido como, por ejemplo, fotos inocentes de los niños en el baño — que en otro contexto podría fácilmente ser mal utilizados. En el último trimestre, hemos eliminado a 8,7 millones de piezas de contenido que violó a nuestro hijo a la desnudez o la explotación sexual de los niños de las políticas de — el 99% fueron identificados antes de que alguien los denunció. También recientemente se anunció una nueva tecnología para la lucha contra la explotación infantil en Facebook, que yo’m seguro nos ayudará a identificar más contenido ilegal aún más rápido.

en General, sabemos que tenemos mucho más trabajo que hacer cuando se trata de prevenir el abuso en Facebook. Aprendizaje automático y la inteligencia artificial continuará para ayudarnos a detectar y quitar el mal contenido. Medir nuestro progreso es también crucial, ya que mantiene a nuestro equipo centrado en el reto y responsables con nuestro trabajo. Para ayudarnos a evaluar nuestro proceso de datos y metodologías que hemos estado trabajando con la Transparencia de los Datos del Grupo Asesor de DTAG), un grupo de medición y de gobierno de los expertos. Vamos a seguir para mejorar estos datos a lo largo del tiempo, por lo que’s más precisa y significativa.

Usted puede ver la versión actualizada de Normas de la Comunidad Informe sobre el Cumplimiento y la información actualizada acerca de las peticiones del gobierno y la IP derribos aquí. Ambos informes estarán disponibles en más de 15 idiomas en los principios de 2019.

Facebook Commentarios