Facebook anunció el jueves que está realizando una prueba para dar a los usuarios un poco más de control sobre lo que ven en la plataforma.

Créditos de imagen: Facebook

La prueba se publicará en la aplicación de Facebook para usuarios de habla inglesa. Agrega tres submenús al menú de Facebook para administrar lo que aparece en las noticias: amigos y familiares, grupos y páginas, y figuras públicas. Los usuarios de prueba pueden optar por mantener la proporción de estas publicaciones en su feed en “normal” o cambiarla hacia arriba o hacia abajo, según sus preferencias.

Cualquiera en la prueba puede hacer lo mismo con los sujetos, señalando las cosas que les interesan o las cosas que prefieren no ver. En una publicación de blog, Facebook dice que la prueba afectará a “un pequeño porcentaje de personas” en todo el mundo antes de que la prueba se expanda gradualmente durante las próximas semanas.

Facebook también desarrollará una herramienta que permitirá a los anunciantes excluir su contenido de ciertas áreas temáticas, permitiendo que las marcas no aparezcan junto a “noticias y política”, “temas sociales” y “crimen y tragedia”. “Cuando un anunciante selecciona uno o más temas, su anuncio no se mostrará a las personas que recientemente cubrieron esos temas en sus noticias”, escribió la compañía en una publicación de blog.

LEER  Por qué Techstars está duplicando su financiación en Europa - TechCrunch

Se sabe que los algoritmos de Facebook promueven contenido inflamatorio y desinformación peligrosa. A la luz de esto, Facebook, y su nueva empresa matriz Meta, están bajo una presión regulatoria cada vez mayor para limpiar la plataforma y hacer que sus prácticas sean más transparentes. A medida que el Congreso reflexiona sobre las soluciones que podrían dar a los usuarios más control sobre lo que ven y eliminar parte de la opacidad en torno al contenido algorítmico, es probable que Facebook espere que todavía haya tiempo para regularse.

El mes pasado antes del Congreso, la denunciante de Facebook Frances Haugen llamó la atención sobre las formas en que los algoritmos opacos de Facebook pueden resultar peligrosos, especialmente en países más allá de los mercados más vistos del mundo.

Incluso en los Estados Unidos y Europa, la decisión de la compañía de priorizar el compromiso en sus sistemas de clasificación de noticias ha permitido que el contenido divisivo y las publicaciones políticamente inflamatorias se disparen.

LEER  Cómo 4 piscinas de Nueva Jersey se convirtieron en una startup recaudada por $ 10 millones - TechCrunch

“Una de las consecuencias de cómo Facebook selecciona este contenido hoy en día es que optimiza el contenido que provoca compromiso o reacción”, dijo Haugen en “60 Minutes” el mes pasado. “Pero su propia investigación muestra que el contenido que es odioso, que divide, que polariza, es más fácil inspirar a las personas con ira que con otras emociones”.

¡Haz clic para puntuar esta entrada!
(Votos: Promedio: )