La corte de Kenia despeja el camino para una demanda que alega que Facebook desempeñó un papel en el conflicto de Tigray en Etiopía

La corte de Kenia despeja el camino para una demanda que alega que Facebook desempeñó un papel en el conflicto de Tigray en Etiopía

Los etíopes que están demandando a Meta por no moderar adecuadamente el contenido que amplificó la violencia que dejó más de medio millón de muertos durante la guerra de Tigray han recibido luz verde para servir al gigante de las redes sociales fuera de Kenia. Es el último caso que busca obligar a Facebook a dejar de amplificar mensajes violentos, de odio y de incitación.

Un tribunal de Kenia permitió el jueves que los peticionarios notificaran a Meta en California, Estados Unidos, después de que no lograron ubicar la oficina local del gigante de las redes sociales. Se supo que aunque Meta tiene operaciones comerciales en Kenia, no tiene una oficina física ya que sus empleados locales trabajan de forma remota.

El fallo prepara el escenario para el inicio de una demanda presentada en diciembre pasado por el grupo de derechos humanos de Kenia Instituto Katiba y los investigadores etíopes Fisseha Tekle y Abrham Meareg. El padre de Meareg, el profesor Meareg Amare Abrha, fue asesinado durante la guerra de Tigray después de que las publicaciones de Facebook criticaran y llamaran a la violencia contra él.

Los peticionarios buscan obligar a Meta a terminar con el odio viral en Facebook, acelerar la revisión de contenido en el centro de moderación en Kenia y crear un fondo de compensación de $1.6 mil millones.

Los peticionarios alegan que el algoritmo de Facebook amplificó las publicaciones de odio e incitación que atrajeron más interacciones y mantuvieron a los usuarios conectados por más tiempo.

Afirman que Facebook no ha «invertido lo suficiente» en la revisión del contenido humano en el centro de Kenia, arriesgando vidas al ignorar, rechazar o actuar con lentitud para eliminar publicaciones que también violan sus Normas comunitarias.

LEER  Max Q: Umbra es un forastero de Silicon Valley, lo prefieren así

Meareg dijo que su familia tiene experiencia de primera mano de cómo la moderación defectuosa del contenido puede poner en peligro vidas y romper familias.

Afirma que su padre fue asesinado después de que Meta no cumpliera con las repetidas solicitudes de eliminación. mensajes dirigidos a él y a otros tigrayanos, mientras los llamados a una masacre contra el grupo étnico se difundieron en línea y fuera de línea. La guerra de Tigray, que duró dos años, estalló en noviembre de 2020 después de que el ejército etíope se enfrentara a las fuerzas de Tigray. dejando 600.000 muertos.

«A mi padre lo mataron porque las publicaciones de Facebook lo identificaron, lo acusaron falsamente, revelaron la dirección de su casa y pidieron su muerte», dijo Meareg, un ex estudiante de doctorado, y agregó que se vio obligado a huir del país y buscar asilo en los Estados Unidos. Unidos después de la muerte de su padre.

“El caso de mi padre no es un caso aislado. En el momento de las publicaciones y de su muerte, Facebook estaba saturado de publicaciones odiosas, incitantes y peligrosas… han ocurrido muchas otras tragedias como la nuestra”, dijo.

Meta se negó a comentar.

Meareg dice que informó las publicaciones que encontró, pero sus informes fueron descartados o ignorados. Afirma haber marcado varias publicaciones en 2021, incluida una que contenía cadáveres, y algunas de esas publicaciones todavía estaban en el sitio social cuando fue a la corte en diciembre pasado.

Criticó la revisión de contenido de Facebook y dijo que el centro en Kenia solo tenía 25 moderadores responsables del contenido en amárico, tigrinya y oromo, lo que descartó otros 82 idiomas sin personal para moderar.

LEER  Meta lanza Llama 2, un conjunto de plantillas de generación de texto más "útiles"

Meta le dijo anteriormente a TechCrunch que emplea equipos y tecnología para ayudarlo a eliminar el discurso de odio y la incitación, y que tiene socios y personal con conocimiento local para ayudarlo a desarrollar métodos para detectar contenido infractor.

“Se ha dejado crecer una laguna dentro de Facebook, convirtiéndolo en un arma para propagar el odio, la violencia e incluso el genocidio”, dijo Martha Dark, directora de Foxglove, una ONG de justicia tecnológica que respalda el caso. «Meta podría tomar medidas concretas hoy para detener la propagación del odio en Facebook».

Esta no es la primera vez que se acusa a Meta de fomentar la violencia en Etiopía. Lanzador de alertas Frances Haugen lo acusó previamente de “atentar literalmente la violencia étnica” en Etiopía, y una Investigación de testigos globales también señaló que Facebook no pudo detectar el discurso de odio en el idioma principal de Etiopía.

Actualmente, las plataformas de redes sociales, incluido Facebook, permanecen bloqueadas en Etiopía desde principios de febrero después de que los planes estatales para dividir la Iglesia Ortodoxa Etíope Tewhado desencadenaran protestas contra el gobierno.

Agregando a Meta problemas en Kenia

Meta enfrenta tres juicios en Kenia.

La empresa y su socio de revisión de contenido de África subsahariana, Sama, fueron demandados en Kenia en mayo pasado por explotación y represión sindical por parte de Daniel Motaung, ex moderador de contenido.

LEER  El padre de TikTok, ByteDance, contempla un nuevo capítulo en la publicación de libros

Motaung afirmó que Sama lo despidió por organizar una huelga en 2019 destinada a organizar a los empleados de Sama. Estaba demandando a Meta y Sama por trabajo forzoso, explotación, trata de personas, relaciones laborales injustas, ruptura de sindicatos y falta de provisión de salud mental y apoyo psicosocial «adecuados».

Meta trató de eliminar su nombre de la demanda, alegando que Motaung no era su empleado y que el tribunal de Kenia no tenía jurisdicción sobre él. Sin embargo, no pudo detener la demanda después de que el tribunal dictaminara que tenía un caso que responder porque aspectos de la forma en que la empresa opera en el país la hacen responsable. El gigante de las redes sociales ha apelado la decisión del tribunal.

A principios de este mes, Meta fue demandada junto con Sama y otro socio de revisión de contenido, Majorel, por 183 moderadores de contenido que alegaron que fueron despedidos ilegalmente y puestos en la lista negra. Los moderadores afirmaron que Sama los despidió ilegalmente después de que se eliminó su servicio de revisión de contenido, y que Meta le pidió a su nuevo socio con sede en Luxemburgo, Majorel, que incluyera en la lista negra a los ex moderadores de contenido de Sama.

Meta también pidió que se desestimara el caso, pero la semana pasada el tribunal de Kenia dijo que tenía jurisdicción sobre las disputas entre empleadores y empleados y «asuntos de presunto despido ilegal e injusto por motivo de despido» y que tenía el poder «para hacer cumplir las alegaciones de violación de los derechos humanos y las libertades fundamentales» de Meta, Sama y Majorel.

Más contenidos sobre empresas en América Latina

Deja una respuesta