Hechos Acerca de la Revisión de Contenido en Facebook

0
12

Hechos Acerca de la Revisión de Contenido en Facebook

Ayer, El New York Times publicó un artículo acerca de la manera de moderar los contenidos en Facebook. We’cinco fueron acusados de ser “ad hoc, ” “desorganizado,” “reservado,” y hacer las cosas de “en el barato.” Esta no’t estar más lejos de la verdad.

damos la bienvenida a un debate acerca de cómo ayudar a mantener a Facebook un lugar seguro donde la gente puede expresar sus ideas. Pero ese debate debe basarse en hechos, no a las descripciones. Aquí’s donde no estamos de acuerdo con los Tiempos:

Nuestras políticas son públicas, no son “secreto” o “celebrada.”
Durante años, león publicado las Normas de nuestra Comunidad, la gran guía que describe lo que es y el isn y rsquo;t permitidos en Facebook. A principios de este año hemos ido un paso más allá y publicó las directrices internas que utilizamos para hacer cumplir esas normas. Cualquier persona puede verlos en facebook.com/communitystandards.

Nuestras políticas son consideradas cuidadosamente, no “ad hoc” de las respuestas.
Las Veces que se actualiza regularmente en nuestras políticas a la cuenta para siempre cambiante cultural y lingüística de las normas en todo el mundo. Pero el proceso está lejos de “ad hoc.” Hacemos cambios a nuestras políticas basadas en las nuevas tendencias que nuestros revisores ver, los comentarios de dentro y fuera de la empresa, así como inesperado, y a veces dramática, los cambios sobre el terreno. Y publicamos los cambios que realizamos cada mes.

Lo que los Tiempos se refiere a como una reunión de “durante el desayuno” entre “a los jóvenes ingenieros y abogados” es, de hecho, un foro mundial que se celebra cada dos semanas, donde se discuten los posibles cambios a nuestras políticas. Se incluye a expertos de todo el mundo con un profundo conocimiento de las leyes, la seguridad en línea, la lucha contra el terrorismo, operaciones de política pública, las comunicaciones, el producto y la diversidad. Sí, los abogados y los ingenieros están presentes, pero también lo son expertos en derechos humanos, personas que han estudiado el odio y organizaciones extremistas, ex cumplimiento de la ley y otros funcionarios públicos y académicos. Como parte de este proceso, se busca la opinión de la gente fuera de Facebook para que podamos entender mejor las múltiples perspectivas sobre la seguridad y expresión, así como el impacto de nuestras políticas en las diferentes comunidades.

el mes Pasado, se empezó a publicar las actas de estas reuniones, y a principios del próximo año planeamos incluir un registro de los cambios para que la gente pueda seguimiento de las actualizaciones de las Normas de nuestra Comunidad a lo largo del tiempo.

Las personas para el cumplimiento de nuestras políticas se centran en la precisión, no de las cuotas.
El equipo responsable de la seguridad en Facebook se compone de alrededor de 30.000 personas, alrededor de 15.000 de los cuales son de contenido revisores de todo el mundo, como los Tiempos actualizado su historia a la nota. Contrario a lo que la historia de informes, el contenido de los revisores don’t tiene cupos para la cantidad de informes que tienen que completar. Los revisores’ la indemnización no se basa en la cantidad de contenido que revisar, y nuestros revisores no’t espera que se basan en el traductor de Google ya que se suministran con el entrenamiento y los recursos de apoyo.

contratamos a los revisores por sus conocimientos de idioma y contexto cultural — revisamos el contenido en más de 50 idiomas — y les animamos a tomar el tiempo necesario para la revisión de los informes. Trabajan en más de 20 sitios de todo el mundo, que se asemejan a Facebook’s con oficinas propias, y proporcionar soporte 24/7. Como los Tiempos de las notas, que algunos críticos se basa en Marruecos y Filipinas, mientras que otros se basan en los Estados unidos, Alemania, Letonia, España y otros lugares de todo el mundo.

’ha tomado un enfoque cuidadoso en Myanmar basan en la opinión de expertos.
Cuando se habla de nuestros esfuerzos para reducir el discurso de odio en Myanmar, la de Veces incorrectamente afirma que un paperwork error que permitió que un grupo extremista para permanecer en el Facebook. De hecho, le había designado el grupo de – Ma Ba Tha – como el odio de la organización en abril de 2018, seis meses antes de Los Tiempos nos contactó por primera vez para esta historia. Si bien hubo una anticuada de formación de la cubierta en la circulación, de inmediato comenzó a quitar el contenido que representa, alabanzas o apoya a la organización en abril, – tanto a través de proactiva barridos de este contenido y sobre la recepción de los informes de usuario.

Este fue uno de los varios pasos que’ha tomado en Myanmar en 2018. Otro cubierto en la historia fue nuestra decisión de eliminar Facebook las cuentas pertenecientes a los altos oficiales militares de Myanmar sin notificar al gobierno. Hicimos esta basado en la guía de expertos de la sociedad civil, que nos advirtió en cuanto al potencial de reacciones por parte de los militares, la culpa de que podría ser colocado en el gobierno, y el riesgo para las personas’s de seguridad sobre el terreno.


Podemos jugar un papel importante en cómo la gente se comunica, y con eso viene una expectativa de’ll constantemente identificar maneras en que podemos hacer mejor. Que’s como debe ser. Y lo’s por eso que constantemente trabajo con expertos de todo el mundo para escuchar sus ideas y la crítica, y hacer cambios donde se’re garantizado. En todo el año 2018, se’ve introducido más transparencia en nuestras políticas y proporciona datos sobre cómo hacerlos valer. We’ve consiguió más en la tienda en 2019, y esperamos que la gente’s comentarios.

Facebook Commentarios