[ad_1]

Cuando el moderador de Reddit, asantos3, hizo clic y encontró un hilo dentro del grupo r / Portugueses en diciembre Estaba lleno de comentarios racistas, no estaba exactamente sorprendido. El grupo suele albergar retórica nacionalista y nativista y, en este caso, los usuarios aquí reaccionaron con enojo a una nueva ley que permitía más libertad de movimiento entre países de habla portuguesa, incluidas naciones africanas como Mozambique y Angola. “Maravillosos negros estúpidos que me roban en la calle”, fue un comentario en portugués que recibió 19 me gusta. «Esta africanización de Portugal sólo puede llevar al país a un atraso del Tercer Mundo», dice en otro.
[time-brightcove not-tgx=”true”]

Así que asantos3, que modera el grupo r/Portugal, mucho más grande y más convencional, envió rápidamente un informe con un enlace al hilo al personal de Reddit. En cuestión de minutos, recibió una respuesta automática: «Después de nuestra investigación, determinamos que el contenido denunciado no violaba la política de contenido de Reddit».

La respuesta fue decepcionante, pero predecible para asantos3, quien ha sido moderador voluntario de contenido durante seis años. Como parte de sus funciones, elimina los comentarios que incluyen racismo, homofobia, sexismo y otras infracciones de las políticas, y envía informes de discursos de odio de grupos satélites más pequeños como r/Portugués a Reddit. Asantos3 habló con la condición de que solo sería identificado por su identificador de Reddit. Dice que sus deberes resultaron en que lo envenenaron, con información personal, incluidos sus perfiles de Instagram y LinkedIn publicados en línea, y lo amenazaron. Y asantos3 dice que la propia empresa ha ignorado repetidamente los informes de acoso de él y otros moderadores. “Principalmente dejamos de informar cosas porque no teníamos ningún comentario”, dice. «No tenemos idea de si está leyendo nuestros informes o si hay personas que hablen portugués en la empresa».

El problema de Reddit es global, dicen los moderadores actuales y anteriores. Incluya subreddits indios como r / chodi y r / DesiMeta islamófobo Publicaciones y pide el genocidio de los musulmanes. En subreddits sobre China como r/sino y r/genzedong, los usuarios atacar a los uigures y promover violencia contra ellos. Y los miembros de r/Portugués intercambian regularmente sentimientos anti-negros, anti-romaníes y anti-inmigrantes.

SIGUE LEYENDO: El subreddit / r / Collapse se ha convertido en la capital del desplazamiento de Internet. ¿Pueden sus usuarios liberarse?

«Para ser honesto, todo lo que está fuera de la anglosfera es prácticamente ignorado», dice 11th Dimension, un ex moderador de r/Portugal que renunció a su cargo debido a un agotamiento. «Es difícil lograr que la empresa transmita lo que es racista y lo que no lo es cuando los administradores están tan alejados de los detalles y las diferencias culturales».

TIME habló con 19 presentadores de Reddit de todo el mundo que compartieron historias e inquietudes similares sobre el. compartido con sede en san francisco la renuencia de la empresa a controlar el discurso de odio en sus foros en idiomas distintos del inglés. Casi todos los moderadores aceptaron hablar con la condición de que no se publicará su nombre real, ya que han recibido amenazas de muerte y otros ataques en línea por su trabajo.

Este cuerpo puramente voluntario de moderadores, de los cuales hay al menos decenas de miles, se está volviendo cada vez más importante para la empresa. Reddit anunció en diciembre que se haría público en stock en 2022. La empresa fue valorada recientemente en $ 10 mil millones y es una de las 25 sitios web mas visitados en el mundo según varios rastreadores y tiene su expansión internacional un Aspecto clave de su estrategia de crecimiento posterior a la salida a bolsa. Pero algunos de sus usuarios más leales -su no pagado Moderadores – argumentan que aunque la empresa es la «Primera página de Internet»“No ha invertido en la infraestructura para combatir el contenido desagradable que está muy extendido muchos de sus páginas en idiomas distintos del inglés.

Reddit ha admitido que su expansión a los mercados internacionales está dificultando el seguimiento de su plataforma, y ​​algunos moderadores dijeron que la empresa ha tomado medidas en los últimos meses para abordar sus problemas de larga data. «Cuando comenzamos a abrir en países de habla no inglesa, la moderación se vuelve más compleja», un Un portavoz de Reddit dijo en un comunicado a TIME. «Estamos invirtiendo ahora para desarrollar y contratar habilidades en idiomas distintos del inglés y agregar soporte para idiomas adicionales».

SIGUE LEYENDO: Facebook permite que florezca una teoría de conspiración islamófoba en India a pesar de las advertencias del personal

Estos problemas no se limitan solo a Reddit. Facebook, Twitter y YouTube lucharon por contener el discurso de odio y la información errónea a medida que penetraban en nuevos mercados en todo el mundo. Por ejemplo, los grupos y publicaciones de Facebook se han vinculado a la violencia de la vida real. India, las filipinas, Myanmar y otros países incluso como plataforma gasta miles de millones un año en seguridad. Este año, otras empresas de Silicon Valley observarán de cerca cómo Reddit se atreve a hacer un acto de equilibrio precario: ganar legitimidad y para generar Ventas manteniendo la estructura descentralizada y de ejecución libre. ¿Puede la empresa mantener la libertad de expresión mientras protege a sus usuarios? ¿Y su modelo de negocio esbelto con pocos empleados remunerados le permitirá adaptarse a la responsabilidad de albergar comunidades diversas y en crecimiento en todo el mundo?

Muchos moderadores y analistas se muestran escépticos. “Reddit tiene muy pocos incentivos para hacer algo con los problemas [in subreddits] porque lo ven como un problema autogestionado”, Adrienne Massanari, profesora asociada de American University que ha estudiado Reddit durante años y escribió un libro sobre sus iglesias, dice. «Están creando un modelo comercial muy exitoso al impulsar el trabajo de los moderadores y los usuarios que tienen que estar expuestos a cosas terribles».

Usar silbatos para perros para eludir las reglas

Steve Huffman, cofundador y director ejecutivo de Reddit Inc., observa durante una audiencia con los subcomités de Comunicaciones y Tecnología y Comercio Interno en Washington, DC el 16 de octubre de 2019. La audiencia analizó las medidas para promover una Internet más saludable y proteger a los consumidores.
Zach Gibson – Getty ImagesSteve Huffman, cofundador y director ejecutivo de Reddit Inc., observa durante una audiencia con los subcomités de Comunicaciones y Tecnología y Comercio Interno en Washington, DC el 16 de octubre de 2019. La audiencia analizó las medidas para promover una Internet más saludable y proteger a los consumidores.

Fundado en 2005, Reddit es esencialmente un tablero de mensajes, pero podría compararse con una feria de escuelas secundarias extracurriculares. El sitio tiene cientos de foros independientes clasificados según diferentes intereses, desde deportes hasta maquillaje, arte y mascotas. Si bien muchos de estos subreddits son inofensivos, no es ningún secreto que Reddit ha sido durante mucho tiempo un refugio para el comportamiento inapropiado. El CEO de Reddit, Steve Huffman, incluso declaró explícitamente en 2018 que el racismo no va en contra de las reglas de Reddit. resuelve eso «Habrá personas en Reddit que tendrán creencias diferentes a las tuyas, a veces extremas».

Sin embargo, a lo largo de los dos años, la empresa fue duramente criticada por su política de incitación al odio y acoso, incluso a raíz de la Asesinato de George Floyd—La compañía se ha alejado de su ethos original de fin en sí misma y ha trabajado arduamente para limpiar sus comunidades y tomar medidas contra el comportamiento nocivo y racista. Comunidades tóxicas como r / El_Donald fueron prohibidos; Se introdujeron herramientas impulsadas por IA para frenar el discurso de odio y el abuso; Se han habilitado canales de retroalimentación entre moderadores y empleados de la empresa.

SIGUE LEYENDO: Reddit está poniendo una «cuarentena» en The_Donald, su comunidad más grande de partidarios de Trump

Sin embargo, muchos moderadores que no hablan inglés dicen que la limpieza no se extendió a los sitios que estaban monitoreando. R / India es uno de los subreddits nacionales más grandes con 693.000 miembros. Allí, los usuarios generalmente encontrarán una mezcla bastante mansa de enlaces de noticias, memes y fotos locales. Esto se debe en parte al arduo trabajo de los moderadores no remunerados para eliminar el contenido islámico. un grupo de cinco Los moderadores de r / India que hablan con TIME a través de una llamada de Zoom dicen que pueden pasar varias horas al día respondiendo activamente a las consultas, eliminando el discurso de odio y prohibiendo las cuentas no autorizadas. (Los moderadores antiguos aprueban las nuevas solicitudes; los principales atractivos del concierto, según los moderadores, son la creación de comunidades y la capacidad de ayudar a dar forma a un discurso).

Ha sido moderador de r/India desde 2011, cuando había aún más laissez-faire. Los moderadores pronto se dieron cuenta de que un estilo revelador de moderación «no funcionaba porque permitía que las peores personas dominaran la conversación», dice. «Habría mucha gente que simplemente diría cosas como ‘los musulmanes deben morir'».

Cuando los moderadores comenzaron a bloquear a estos usuarios, algunos simplemente regresaron con una nueva cuenta y se burlaron de ellos, creando un interminable juego de topo. Los moderadores dicen que vieron a otros usuarios crear o unirse a grupos derivados que permitieron publicaciones más controvertidas.

La mayor de estas ramificaciones de r / India es actualmente r / Chodi, que se fundó en 2019 y tiene 90 000 miembros que crean cientos de publicaciones todos los días. R/ Chodi, que se traduce como jerga cruda en hindi, contiene numerosos ejemplos de nacionalismo hindú de extrema derecha que a menudo se convierte en discurso de odio e intolerancia sectaria. Docenas de publicaciones denigrando el Islam durante una semana, a menudo retratando musulmanes como ignorantes, violentos o incestuosos.

“Más pobres, más estúpidos, reproduciéndose como ratas. Lo tienes todo «, una contribución dice sobre los musulmanes en la India que todavía está en línea. «India debe deshacerse de ellos antes de que se levanten“Lea otro que ya ha sido eliminado. (La creciente popularidad de R / Chodi coincidió con una Fuerte aumento de los delitos de odio religioso En India.)

Como r / Chodi ha sido criticado por comunidades como r / AgainstHateSpeech, los propios moderadores del grupo se han apresurado a detener los ejemplos más evidentes de discurso de odio, incluida la creación de una lista de palabras prohibidas. Pero los carteles de r / Chodi simplemente cambiaron a palabras clave y una retórica cada vez más resbaladiza para eludir a los moderadores y los Reddits impulsados ​​​​por IA. Procesamiento natural del lenguaje Técnicas, según los moderadores de r/ India. Se hace referencia a los musulmanes utilizando un lenguaje codificado como «Abduls», «[email protected]», «K2as» o, burlonamente, «personas amantes de la paz». A los cristianos se les conoce como «xtianos»; mientras que Pakistán se llama «Porkistan».

Reddit dijo en un comunicado que la automatización y el aprendizaje automático «ayudan a los moderadores a eliminar el 99% del contenido de odio denunciado». Pero, Estudios han demostrado que la IA es mucho menos poderosa cuando opera fuera del lenguaje en el que fue desarrollada.

Los moderadores que hablaron con TIME dicen que intentaron mostrar estos insultos alternativos a los administradores de Reddit, empleados pagados que se encuentran principalmente en los EE. UU., pero que han sido ignorados en gran medida.

«He intentado 20 o 30 veces denunciar fácilmente estos comentarios», dice un segundo moderador de r/India. «Traté de juntar estas hojas y enviarles las traducciones, pero nunca hubo una respuesta».

En un comunicado en respuesta al reclamo del moderador, Reddit escribió que «el acoso, la intimidación y las amenazas de violencia o contenido que promueva el odio basado en la identidad o la vulnerabilidad» están prohibidos en la plataforma y que están «revisando y colaborando con las comunidades, que puede involucrarse”. tal comportamiento, incluido el subreddit en cuestión».

Los extremistas de todo el mundo utilizan palabras clave similares a las de los usuarios de r/Chodi. El usuario DubTeeDub – que modera r / AgainstHateSubreddits y escribió un ampliamente utilizado carta abierta el año pasado El racismo en la plataforma causando estragos y llamando al cambio — sdice que los administradores de Reddit no han podido mantenerse al día con los silbatos para perros en constante evolución de los racistas, como los neonazis que insertan nombres judíos corchetes triples para señalar su identidad.

«Es claramente un icono supremacista blanco, pero los administradores simplemente dirán: ‘Eso me parece bien’, y lo ignorarán», dice DubTeeDub.

Pero los moderadores de r / India creen que Reddit no solo permite que el discurso de odio se propague a r / Chodi y otros grupos similares, sino que también empuja activamente a los usuarios hacia el grupo. Ellos tienen Publicaciones de r / Chodi encontradas en r / India misma, algorítmico Sugerido como «publicaciones que te pueden gustar», dando al subreddit la apariencia de aprobación oficial tácita.

“Son subs muy odiosos y no queremos que nuestros suscriptores vayan ahí”, dice un segundo presentador de r/India. «Puedes verlos por ti mismo, pero eso no debería estar sucediendo en nuestro submarino».

Moderadores voluntarios de Reddit enfrentan amenazas

La tensa interacción entre r / India y r / Chodi es emblemática de los juegos del gato y el ratón que se desarrollan en subreddits en otras partes del mundo, especialmente cuando los grupos políticos de extrema derecha acumulan poder y legiones de simpatizantes en muchos países. .

En Portugal, r/Portugal (6.900 miembros) está lleno de anti-Roma y la retórica antisemita, Homofobia, y representaciones racistas de africanos. «Como es posible que a alguien le gustaría ver un lugar así lleno de africanos, brasileños, indios y no sé qué más”, posteó un comentarista junto a una idílica ilustración de una ciudad portuguesa.

Una captura de pantalla de la comunidad Reddit r/Portugués que a menudo presenta sentimientos contra los negros, los romaníes y los inmigrantes. “¿Cómo es posible que alguien quiera ver un lugar así lleno de africanos, brasileños, indios y no sé qué más?”, se lee en el titular portugués.

Los moderadores preocupados han intentado denunciar estas publicaciones y, por lo tanto, convertirse en blanco de abusos. Una de las tácticas más comunes es que los usuarios ávidos se unan y denuncien a los moderadores por motivos falsos para que los baneen o los administren desprevenidos. DubTeeDub dice que este tipo de táctica resultó en su suspensión al menos siete veces.

Pero los ataques a menudo se vuelven mucho más personales y maliciosos a medida que los trolls descubren información personal de los moderadores. Asantos3, el moderador de r/Portugal, dice que fue acosado en LinkedIn e Instagram. Un usuario ofreció Bitcoin a cualquiera que pudiera averiguar su dirección. «Es tan extraño, pero algunas de estas acciones son tan comunes que ahora las ignoramos», dice.

En Brasil, un estudiante y moderador de r/Brasil de São Paulo, que se llamó Tet, dijo que lo amenazaron y lo engañaron cuando él y otros moderadores intentaron reprimir el discurso de odio contra r/Brasilivre. (176.000 miembros)que los usuarios publican en transfobia, racismo contra los negros y homófobo insultos. “Sé inteligente porque te estamos observando. No crean que soy el único”, escribió un comentarista en portugués. «Los encontraré a cada uno de ustedes y los mataré lentamente». Otro usuario publicó la dirección y la cuenta personal de Facebook de Tet y escribió: «Simplemente dejen que el odio fluya y f-con ellos… traigan problemas a sus vidas». posters tiene cuentas más activas, y desde entonces Tet ha dejado de moderar el subreddit en parte debido al agotamiento.

Quizás no sea sorprendente que los moderadores, que a menudo se ven obligados a ver los peores aspectos de Reddit a diario, experimenten altos niveles de fatiga. Una moderadora de r/India le dice a TIME que las mujeres son particularmente vulnerables al acoso. «Sé que las mods femeninas son seguidas y atacadas regularmente, no se les da espacio: no es un lugar para identificarse como mujer», dice.

Cómo Reddit puede avanzar

Muchas otras plataformas de redes sociales luchan por equilibrar los ideales de la libertad de expresión con la difusión agresiva del discurso de odio y la desinformación en sus plataformas.

Este otoño, los documentos publicados por la denunciante Frances Haugen mostraron que Facebook dejó de priorizar esfuerzos Mitigar la desinformación. En julio se regalaron futbolistas negros para la selección de Inglaterra Corrientes de abuso racial en Facebook y Twitter después de la final de la Eurocopa de 2021 y provocó que el primer ministro británico, Boris Johnson, exigiera a las empresas de redes sociales que “actúen con urgencia”. En la India, Facebook permitió a los extremistas hindúes actuar abiertamente en tu Plataforma por mesesa pesar de que estaba bloqueado desde la plataforma.

En respuesta a las críticas, Facebook se comprometió a fortalecer su equipo y recursos de seguridad: ha 40.000 empleados trabajan en el área de seguridad solo. Reddit también promete intensificar sus esfuerzos, aunque su equipo es solo un esqueleto en comparación. El año pasado, la empresa aumentó su número de empleados de 700 a 1.300.

Un portavoz de Reddit dijo que la compañía abrió oficinas en Canadá, el Reino Unido, Australia y Alemania y «seguir expandiéndonos a otros países ”en un esfuerzo a acercarse a sus comunidades globales. Reddit creado como Consejos de modificación recibió comentarios de los moderadores el año pasado. También prueba un nueva función para proporcionar a los usuarios capacidades de bloqueo avanzadas limitar el poder de movilización de extremistas, abusadores y fanáticos. En En octubre de 2021, la empresa publicó un comunicado con estadísticas sobre sus esfuerzos para «internacionalizar la seguridad» y escribió, «Los datos muestran en gran medida que nuestra moderación de contenido escala y que las comunidades internacionales tienen un nivel saludable de informes y moderación».

Muchos moderadores de Reddit sienten que el sistema del sitio de usar moderadores voluntarios es menos sólido de lo que sugiere la compañía. «Hay mucha gente que sigue adelante», dice Jonathan Deans, presentador de r/worldnews con sede en Escocia. “Dicen: ‘Estoy harto de hacer esto. Simplemente eliminamos los comentarios de odio todo el día, ¿y qué hay para nosotros? No es realmente algo».

Massanari, el profesor de la Universidad Americana, argumenta que sin un esfuerzo interno concertado, los problemas de Reddit solo empeorarán. «La defensa de Reddit fue: ‘Si ignoras esos espacios, desaparecerán'», dice. «Pero los académicos y expertos que han estado estudiando el extremismo y el discurso de odio durante años han dicho claramente que cuanto más permites que continúe, más extremo te vuelves, más lo obtienes».

«Nos tomamos la seguridad muy en serio y estamos comprometidos a mejorar continuamente nuestras políticas y procesos para garantizar la seguridad de los usuarios y moderadores en nuestra plataforma», dijo Reddit en un comunicado. “Vemos algunos Mejoras haciendo frecuencia de contenido odioso como resultado de nuestros esfuerzos, y continuaremos invirtiendo en nuestras capacidades, herramientas y recursos de seguridad para moderadores».

Elena Pao, El ex director ejecutivo interino de Reddit y actual director ejecutivo de Project Include está de acuerdo en que el modelo de moderación no remunerado de la empresa tiene fuertes límites. Cuando dirigió la empresa entre 2014 y 2015, deshacerse de la pornografía de venganza y las fotos de desnudos no autorizados, y prohibir las comunidades tóxicas como la comunidad de vergüenza gorda, era una prioridad para Pao. r / gente gorda odialo que provocó una gran reacción de muchos de los usuarios más activos de Reddit. Pao dice que Silicon Valley ha marginado tales esfuerzos en el pasado a favor de su resultado final.

“Tienen estas plataformas que fueron iniciadas por hombres blancos que no experimentan los mismos niveles de toxicidad, acoso y daño a sí mismos, así que no ven ni entienden estos problemas y dejan que se enconen”, dice ella. «Es algo que podrías ignorar durante mucho tiempo».

Pao dice que contratar a más personas cuyos trabajos incluyan estos problemas es el primer paso. “Si realmente se preocupa por sus usuarios y realmente desea evitar el acoso y el daño, ¿por qué no asumir estos roles usted mismo?”, dice.

De vuelta en Portugal, el moderador asantos3 todavía pasa su tiempo libre limpiando subreddits en portugués. Después de recibir el mensaje automático en el hilo racista, envió un mensaje frustrado con más detalles a los administradores del personal de Reddit. Esta vez, un administrador respondió, algo raro en sí mismo. Pero la nota solo amplió la brecha entre él y la empresa: «Creo que algunas cosas se pierden en las traducciones aquí, pero me gustaría mirar de nuevo», escribió el administrador. «También sería útil si pudiera explicar algo más directamente. cómo el artículo vinculado fomenta el odio».

Asantos3 respondió con algunos detalles e informó en el hilo algunos comentarios más que afirmaban que la afluencia de africanos de habla portuguesa estaba causando «Reemplazo de población y genocidio”, «Secuestro y violación» y «furia violenta y posesiva de los simios». Pero recibió el mismo cierre de sesión automático y nunca supo de otra persona. El hilo completo todavía está en línea en el momento de la publicación.

«Estoy frustrado», dijo. «Supongo que no importa».

[ad_2]

Artículo anteriorPROHIBICIÓN | José Ramírez y su adjunto llevaron a los niños al HNSR. juguete
Artículo siguienteReportan este lunes 5.155 nuevos contagios y cero muertos por COVID-19.