Se filtra el reglamento interno de Facebook sobre sexo, terrorismo y violencia.

Redes Sociales

El periódico The Guardian ha tenido acceso a más de 100 manuales internos de capacitación usados por Facebook para entrenar a su personal sobre cómo manejar temas relacionados con la violencia, publicaciones de odio, terrorismo, pornografía, racismo y la auto-mutilación. Incluso hay directrices sobre cómo tratar con temas sobre canibalismo o el arreglo de partidos deportivos.

Los Archivos de Facebook, como los llama The Guardian, muestran cómo el gigante de las redes sociales aplica políticas que en muchos casos son implementadas por la enorme presión que ejercen la Unión Europea y los Estados Unidos sobre la empresa.

«Facebook no puede mantener el control de todo el contenido que se publica. Ha crecido demasiado en muy poco tiempo”. Expresó un empleado de Facebook.

Uno de los documentos revela que los moderadores de Facebook revisan más de 6.5 millones de informes semanales relacionados con cuentas  potencialmente falsas, conocidas como FNRP (fake, not real person). Dentro de los documentos a los que tuvo acceso The Guardian se instruye a los moderadores:

  • Comentarios como «Alguien le disparó a Trump» deben ser borrados, porque como jefe de estado está en una categoría protegida. Pero puede ser permitido: «Para romper el cuello de una perra, asegúrate de aplicar toda tu fuerza en el centro de su garganta», o «jódete y muere» porque no se consideran como amenazas creíbles.
  • Videos de muertes violentas. Aunque sean marcados como perturbadores, no siempre tienen que ser borrados porque pueden ayudar a crear conciencia sobre temas como la enfermedad mental.
  • Algunas fotos de abusos físicos no-sexuales e intimidación de niños no tienen que ser borradas a menos que haya un elemento sádico o de celebración.
  • Fotos de abuso de animales pueden ser compartidas. Sólo las imágenes extremadamente gráficas pueden ser marcadas como «inquietante».
  • Todo arte «hecho a mano» mostrando desnudez o actividad sexual es permitido, pero el arte hecho con programas de computadora y mostrando actividad sexual no es permitido.
  • Se permiten videos de abortos, siempre y cuando no haya desnudez.

Facebook permite a la gente transmitir en vivo los intentos de auto-mutilación porque «no quiere censurar ni castigar a las personas con problema emocional».

Cualquier persona con más de 100.000 seguidores es designada como una figura pública. Esto hace que se les niege la protección completa dada a los particulares. Otros tipos de observaciones que pueden ser permitidos: «Esa niña debe controlarse antes de que su papá le rompa la cara», y «Espero que alguien te mate». Las amenazas de muerte se consideran genéricas o no-creíbles.

En uno de los documentos filtrados, Facebook reconoce que «la gente usa lenguaje violento para expresar frustración en línea» y se siente «seguro de hacerlo» en la página.

«Para nosotros el lenguaje violento no es creíble hasta que las especificaciones del mensaje nos den una base razonable para aceptar que ya no es simplemente una expresión de emoción sino una trama real. Desde esta perspectiva, frases como ‘Voy a matarte’ o ‘Jódete y muérete’ no son creíbles y son una expresión violenta de disgusto y frustración. La gente suele expresar desacuerdo amenazando o llamando a la violencia de una manera generalmente sin seriedad». Expresa el manual operativo en una de sus partes.

Facebook admitió que «no todo el contenido desagradable o perturbador viola los estándares de nuestra comunidad».

Monika Bickert, responsable de la gestión global de políticas de Facebook, dijo que la red social tenía casi 2 mil millones de usuarios y que era difícil llegar a un consenso sobre qué se puede permitir y qué no.

«Tenemos una comunidad global muy diversa y la gente va a tener ideas muy diferentes sobre lo que está bien compartir. No importa dónde dibujes la línea, siempre habrán algunas áreas grises. Por ejemplo, la línea entre la sátira y el humor y el contenido inapropiado es a veces muy gris. Es muy difícil decidir si algunas cosas pertenecen a la red o no.», expresó Bickert.

Nos sentimos responsables de mantener a nuestra comunidad segura. Es nuestra responsabilidad mantenernos al tanto de todo. Es un compromiso de la empresa. Seguiremos invirtiendo de manera pro-activa en mantener el sitio seguro, pero también queremos capacitar a la gente para que nos informe cualquier contenido que infrinja nuestros estándares «, expresó Bickert.

También agregó que algunos comentarios ofensivos pueden violar las políticas de Facebook en algunos contextos, pero no en otros.

Las políticas de Facebook sobre temas como la muerte violenta, imágenes de abusos físicos no-sexuales y crueldad animal muestran cómo el sitio trata de navegar por un campo minado.

Los archivos dicen: «Videos de muertes violentas son inquietantes pero pueden ayudar a crear conciencia. Para los videos, creemos que los menores necesitan protección y los adultos necesitan una opción. Marcamos como ‘inquietantes’ videos de las muertes violentas de humanos «.

Estas imágenes deben estar «escondidas de los menores de edad», pero no eliminadas automáticamente, ya que pueden «ser valiosas para crear conciencia sobre las aflicciones de auto-mutilación, enfermedades mentales, crímenes de guerra y otros asuntos importantes».

Respecto al abuso no-sexual de niños, Facebook dice: «No actuamos ante fotos de acción de abuso infantil. Marcamos como “inquietantes” los videos de abuso infantil. Eliminamos imágenes de abuso infantil si son compartidas con fines de sadismo o de celebración”.

Una diapositiva explica que Facebook no elimina automáticamente la evidencia de abuso infantil no-sexual para permitir que el material sea compartido para que «el niño pueda ser identificado y rescatado, pero agregamos protecciones para proteger al público». Esta “protección” por lo general es una advertencia en el video, informando que el contenido es preocupante.

Facebook confirmó que hay «algunas situaciones en las que permitimos imágenes de abuso no-sexual de un niño con el propósito de ayudar al niño».

Sarah Roberts, una experta en la moderación del contenido, dijo: «Es una cosa cuando eres una pequeña comunidad en línea con un grupo de personas que comparten principios y valores, pero cuando tienes un gran porcentaje de la población mundial y los incitas a compartir información sobre sí mismos, estás creando condiciones para el desastre”

Les mantendremos al tanto del progreso de esta investigación del periódico The Guardian a medida que vayamos procesando y traduciendo los documentos filtrados.

Fuente The Guardian

Creativo fascinado por el Diseño Industrial y la Psicología Social. He realizado estudios que van desde el Diseño Gráfico hasta la Ingeniería en Sistema y la Psicología. Seguidor, usuario y autodenominado experto en los videojuegos. Fanático del rock y la música electrónica. Gamer de toda la vida; hijo adoptivo de Cabarete.

Lost Password