Twitter está intentando cambios en la forma en que los usuarios informan los tweets que creen que pueden violar las reglas de Twitter.

Como la mayoría de las empresas de redes sociales, Twitter se ha basado durante mucho tiempo en los informes de los usuarios para marcar los tweets potencialmente en contra de las políticas. Pero en su rediseño de este sistema, estos informes proporcionarían a la empresa una imagen más completa del comportamiento en la plataforma en lugar de solo una forma de evaluar incidentes individuales de forma aislada.

Créditos de imagen: Gorjeo

Twitter está probando actualmente el nuevo sistema con un pequeño grupo de prueba de usuarios de EE. UU., Pero planea transmitirlo en una plataforma más amplia de la plataforma a partir de 2022. Este sistema reemplaza las indicaciones existentes que los usuarios de Twitter ven cuando ”. Eligen informar el contenido. en la plataforma.

Uno de los más grandes Los cambios son que ya no se les pedirá a los usuarios que especifiquen cuál de las políticas de Twitter creen que viola un tweet; en cambio, ofrecen información y Twitter utiliza sistemas automatizados para sugerir qué regla podría violar un tweet determinado.

El usuario que denunció un tweet puede aceptar esta sugerencia o decir que es incorrecta, comentarios que Twitter puede seguir utilizando para ajustar sus sistemas de informes. La compañía lo compara con la diferencia entre ir al médico y describir sus síntomas versus el autodiagnóstico.

LEER  DraftKings comparte planes para lanzar el mercado de coleccionables NFT

“Lo que puede ser frustrante y complejo acerca de los informes es que aplicamos en función de las infracciones de los Términos de servicio según lo definido por las reglas de Twitter”, dijo Renna Al-Yassini, gerente senior de UX del equipo. “La gran mayoría de lo que informa la gente cae en un espectro gris mucho más grande que no cumple con los criterios específicos para las violaciones de Twitter, pero aún así informan lo que están experimentando como profundamente problemático y muy perturbador”.

Twitter espera recopilar y analizar informes que caen en esta área gris, usándola para brindarle a la empresa información sobre el comportamiento problemático en la plataforma. Idealmente, Twitter puede identificar tendencias emergentes en acoso, desinformación, incitación al odio y otras áreas problemáticas a medida que surgen, en lugar de después de que ya se hayan afianzado. La compañía se negó a comentar sobre si los cambios requerirían la contratación de más moderadores humanos, y dijo que usaría una combinación de moderación humana y automatizada para procesar la información.

LEER  La plataforma de aprendizaje empresarial 360Learning recauda $ 200 millones - TechCrunch

La empresa también quiere mejorar el proceso de presentación de informes para los usuarios, “cerrar el círculo” y hacer que el proceso de presentación de informes sea más significativo, incluso si un tweet determinado no conduce a una acción de cumplimiento. El nuevo sistema tiene como objetivo abordar algunas quejas comunes que la compañía ha identificado a través de la investigación sobre cómo hacer que la plataforma sea más segura.

“Nos ayuda a lidiar con incógnitas desconocidas”, dijo Fay Johnson, directora de gestión de productos de Twitter en el equipo de salud. “… También queremos asegurarnos de que si surgen nuevos problemas, problemas para los que es posible que aún no tengamos reglas, exista un método para hacérnoslo saber”. “

¡Haz clic para puntuar esta entrada!
(Votos: Promedio: )