Los planes de Elon Musk para crear un equipo que vigile X, una red social “tan tóxica que es casi irreconocible”

La promesa y los desafíos del plan de moderación de la plataforma, bajo el liderazgo del magnate tecnológico, están bajo la lupa de los expertos en confianza y seguridad

La semana pasada, casi un año después, la red social anunció un nuevo Centro de Excelencia en Confianza y Seguridad en Austin, Texas. El equipo de 100 personas de moderadores de contenido promocionado por un representante de X en un informe de noticias de Bloomberg es significativamente más pequeño que el equipo de 500 personas que se imaginó inicialmente, según un ex miembro del personal de confianza y seguridad. Y no está claro si la plataforma ha contratado a más de una docena de personas hasta ahora.

Aún así, en un momento en que los legisladores estadounidenses están aumentando la presión sobre las empresas de redes sociales por poner en peligro a los niños, el centro de seguridad de X en Austin tiene una clara visión sobre las relaciones públicas. El nuevo centro “traerá más agentes internos para acelerar nuestro impacto”, dijo la directora ejecutiva, Linda Yaccarino, en una audiencia en el Senado el miércoles.

Si bien algunos críticos tomaron nota del momento oportunista del anuncio, los detalles del plan Austin de X plantean una pregunta más importante sobre la plataforma propiedad de Musk:

¿Podría el enfoque poco convencional del magnate para la moderación de contenido superar el lamentable historial de seguridad en línea de la industria de las redes sociales, o ¿representa simplemente otro medio para reducir costos por parte de una organización con poco interés en decidir qué contenido es apropiado para sus usuarios?

Según varios expertos en moderación de contenido y miembros actuales o anteriores de X con los que habló Fortune, un equipo de especialistas internos podría proporcionar ventajas significativas en comparación con las normas actuales de la industria. Pero muchos también destacaron la importancia de una política subyacente coherente y de inversiones en herramientas y tecnología.

“X+100 es mejor que solo X, en términos de capacidad de moderación”, explicó una fuente familiarizada con la confianza y la seguridad en X. “La cantidad de humanos frente a las computadoras importa menos, en cierto modo, que tener políticas claras basadas en estrategias comprobadas de reducción de daños y las herramientas y sistemas necesarios para implementar esas políticas a escala; ambas cosas han sido desmanteladas desde finales de 2022″, agregó.

X no respondió a las solicitudes de entrevista ni de comentarios para esta historia.

La nueva iniciativa de X incorpora un equipo especializado interno esperando superar las dificultades históricas de la industria en la moderación de contenido (REUTERS/Aude Guerrucci)
La nueva iniciativa de X incorpora un equipo especializado interno esperando superar las dificultades históricas de la industria en la moderación de contenido (REUTERS/Aude Guerrucci)

Por qué X decidió incorporar la policía de contenidos a su empresa

La avalancha de contenido problemático sobre X se ha convertido en un tema frecuente de debate público (y disputas) desde que se cerró la adquisición de Musk por USD 44 mil millones en noviembre de 2022.

Después de que el Centro para Contrarrestar el Odio Digital publicara un informe afirmando que X no moderó el “discurso de odio extremo”, Musk demandó al grupo por causar daño calculado con “afirmaciones infundadas”.

Mientras tanto , según los informes, se han difundido ampliamente en la plataforma vídeos de abuso animal gráfico . Y apenas la semana pasada, contenido explícito generado por IA con Taylor Swift circuló sin control durante 17 horas hasta que la plataforma cerró la posibilidad de buscar su nombre.

X también se apoya en gran medida en su función Notas de la comunidad, que permite a los usuarios aprobados agregar una nota a las publicaciones con contexto adicional, para moderar a sus millones de usuarios activos, dijo el ex miembro del personal de confianza y seguridad.

Pero la persona enfatizó que esto es simplemente “una herramienta” que debe usarse para moderar. Es más, una investigación de Wired descubrió esfuerzos coordinados dentro de la función para propagar desinformación, destacando una falta de supervisión significativa por parte de la empresa.

Según algunas estimaciones, Musk ha recortado el 80% de los ingenieros dedicados a la confianza y la seguridad y ha reducido las filas de moderadores de contenido subcontratados cuyo trabajo es monitorear y eliminar contenido que viola las políticas de la compañía.

En julio, Yaccarino anunció al personal que tres líderes supervisarían varios aspectos de la confianza y la seguridad, como las operaciones de aplicación de la ley y las interrupciones de amenazas, informó Reuters. Sin embargo, según otra fuente de X, no está claro dónde se encuentra T&S dentro de la jerarquía de la organización, y señala que el grupo ya no parece estar “en el nivel superior”.

Sin embargo, dentro de la empresa de redes sociales de Musk, también hubo un esfuerzo por repensar cómo se hace el trabajo.

La nueva estrategia de moderación interna, aunque más reducida de lo esperado, marca un esfuerzo significativo por parte de X para abordar contenidos problemáticos en su plataforma (REUTERS/Dado Ruvic)
La nueva estrategia de moderación interna, aunque más reducida de lo esperado, marca un esfuerzo significativo por parte de X para abordar contenidos problemáticos en su plataforma (REUTERS/Dado Ruvic)

Cambio de planes: Bienvenidos a Austin

El nuevo centro de Austin en realidad comenzó como un centro del Área de la Bahía. La intención era establecer el centro en una ciudad como San Francisco, lo que ayudaría a reclutar talentos multilingües de primer nivel, algo crucial para contrarrestar a los trolls de Internet, ya que más del 80% de la base de usuarios de X no vive en los Estados Unidos, informó una fuente familiarizada en temas de confianza y seguridad a Fortune.

Dados los matices de los idiomas individuales y los modismos y expresiones únicos de cada uno, la idea era que alguien familiarizado con un idioma o cultura específica pudiera, por ejemplo, distinguir mejor una broma de una amenaza que un trabajador subcontratado generalista mal pagado sin habilidades especializadas.

“De hecho, comenzaron contratando gente en el Área de la Bahía para probar su nivel de calidad y determinar si funcionaría mejor que subcontratarlo”, dijo el ex empleado. “[X] contrató a un pequeño equipo de personas y probó su capacidad para tomar decisiones precisas”, añadió. El plan requería comenzar con 75 empleados y eventualmente ampliarlo a un equipo de 500 personas si daba resultados.

Sin embargo, Musk, en ese momento, se inclinó por una ubicación más rentable, favoreciendo a Austin, porque estaba seguro de su capacidad para atraer y potencialmente reubicar a personas competentes en varios idiomas. El cambio ha añadido algunas “arrugas” al proyecto.

“Tener que contratar a cientos de personas, ponerlas en funcionamiento y capacitarlas y todo eso es un proceso de aproximadamente dos o tres meses”, explicó el ex miembro del personal de X. “Luego comienzas a entrenar y, de manera realista, pasan tres, cuatro o cinco meses antes de formar un equipo. Eso supone que el mercado laboral es fantástico, ¿verdad? Y no es necesario reubicar a la gente y todas esas cosas divertidas”, añadió.

Según LinkedIn, una docena de reclutas se unieron a X como “agentes de confianza y seguridad” en Austin durante el último mes, y la mayoría parecía haberse mudado de Accenture, una firma que proporciona contratistas de moderación de contenido a empresas de Internet.

No está claro si X tiene un plan de contrato de contratación con Accenture, mediante el cual los trabajadores contratados por firmas consultoras como Accenture reciben roles de tiempo completo en una empresa cliente cuando hay una buena opción, pero la fuente confirmó que X ha utilizado Contratación de servicios de Accenture en el pasado.

Críticos cuestionan el tamaño y eficacia del nuevo equipo de moderación de X (AP/Czarek Sokolowski)
Críticos cuestionan el tamaño y eficacia del nuevo equipo de moderación de X (AP/Czarek Sokolowski)

El problema de hacer cumplir reglas que cambian constantemente

Hay muchas preguntas sobre en qué se centrará exactamente el equipo de Austin. ¿Se centrarán en contenidos que involucren sólo a menores o sólo en Estados Unidos? ¿Se centrarán en publicaciones individuales o realizarán investigaciones sobre explotación sexual?

“Cien personas en Austin serían un pequeño nodo en lo que debe ser una red global de moderación de contenido”, dijo a Fortune la ex integrante del consejo de confianza y seguridad de Twitter, Anne Collier . “100 personas en Austin, les deseo suerte”, agregó.

Cualquiera que sea su tarea, los expertos en moderación de redes sociales coinciden en que la empresa deberá realizar una inversión significativa en herramientas de inteligencia artificial para que el equipo sea más eficaz.

Facebook, por ejemplo, empleó alrededor de 15.000 moderadores en todo el mundo en 2020 cuando anunció que estaba “casando IA y revisores humanos para cometer menos errores totales”, informó Verge en ese momento. Snap opera de manera similar y afirmó en una publicación de blog que utiliza “una combinación de herramientas automatizadas y revisión humana para moderar”.

Según el ex informante de X, la empresa ha experimentado con la moderación de la IA. Y el último impulso de Musk hacia la tecnología de inteligencia artificial a través de X.AI , una startup de un año de antigüedad que desarrolló su propio modelo de lenguaje grande, podría proporcionar un recurso valioso para el equipo de moderadores humanos.

Un sistema de inteligencia artificial “puede decirle en aproximadamente tres segundos para cada uno de esos tweets, si están dentro o fuera de la política y, por cierto, tienen niveles de precisión de alrededor del 98%, mientras que con moderadores humanos, no”, comentó la fuente. “La empresa tiene un nivel de precisión mejor que el 65%”, explicó.

“Uno quiere ver al mismo tiempo en paralelo qué se puede hacer con la IA versus solo los humanos, por lo que creo que verán cuál es el equilibrio correcto”, concluyó el informante.

Pero no importa cuán buenas sean las herramientas de inteligencia artificial y los moderadores, el desempeño es tan bueno como la política que lo impulsa, y esa es un área en la que X ha tenido problemas bajo el gobierno de Musk.

Las políticas deben ser lo suficientemente flexibles para adaptarse a los contextos culturales, pero también deben ser lo suficientemente predecibles para que todos comprendan cuáles son las reglas, explicó la fuente familiarizada con la confianza y la seguridad en X.

Esto es especialmente importante cuando se modera contenido en una plataforma grande “donde cientos o incluso miles de moderadores tienen que comprender e interpretar un conjunto estable de reglas. No se pueden implementar reglas de manera consistente y precisa si cambian constantemente”, dijo la persona.

La flexibilización de las reglas y la consiguiente falta de claridad ha sido una constante en X bajo la dirección de Musk.

Después de la adquisición de Musk, restableció una serie de cuentas que fueron prohibidas por violar las políticas de la plataforma: la representante Marjorie Taylor Greene violó las políticas de desinformación de COVID-19, Babylon Bee publicó una historia transfóbica que violó la política de conducta de odio de Twitter, Andrew Tate (prohibido en Facebook, Instagram y TikTok) fue prohibido por decir que las mujeres deberían asumir “cierta responsabilidad” por haber sido agredidas sexualmente. Todas estas personas fueron reintegradas bajo la nueva gestión.

Algunos medios especularon que había un vínculo entre la salida de Ella Irwin, la última jefa de confianza y seguridad durante el mandato de Musk, y las críticas del magnate a la decisión del equipo de eliminar el transfóbico.

“¿Qué es una mujer?” de Matt Walsh, es un documental que cometió una violación de las reglas de X. A pesar de la violación de la política escrita de la red social, Musk insistió en que el documental se mantuviera en pie.

“Ya no me resulta obvio que X modere de acuerdo con sus políticas. Las reglas del sitio publicadas en línea parecen ser una cortina de humo pretextual para enmascarar que su propietario, en última instancia, toma las decisiones en cualquier forma que lo vea”, agregó la fuente familiarizada con la moderación de X.

Julie Inman Grant, ex miembro del consejo de seguridad y confianza de Twitter que ahora está demandando a la empresa por falta de transparencia en relación con CSAM, es más contundente en su evaluación: “No se puede simplemente volver a poner el dedo en el dique para detener un tsunami de niños, exposición sexual o una avalancha de pornografía deepfake que prolifera en la plataforma”, dijo.

“En mi experiencia en Twitter de 2014 a 2016, me tomó literalmente años desarrollar esta experiencia, y se necesitará mucho más que eso para realizar un cambio significativo en una plataforma que se ha vuelto tan tóxica que es casi irreconocible”, concluyó.


Entradas populares