¿Por qué las plataformas de redes sociales se vuelven tan polarizadas? Y, ¿pueden ser solucionados alguna vez? Estas dos preguntas están en el corazón de un nuevo experimento en la Universidad de Amsterdam.
Los investigadores simularon una plataforma de redes sociales, la poblaron por completo con los chatbots de IA y luego lo modificaron para ver qué sucedió. Lamentablemente, sus hallazgos ofrecieron poca sugerencia de que las redes en las que pasamos tanto tiempo desplazándonos se volverán más agradables en el corto plazo.
‘Efectos disfuncionales’
Para ver si podrían evitar que su plataforma simulada se “convirtiera en un paisaje infernal polarizado”, los expertos intentaron “seis estrategias de intervención específicas”, dijo Futurismo. Estos incluían “cambiar a noticias cronológicas, aumentar los diversos puntos de vista, ocultar estadísticas sociales como los recuentos de seguidores y eliminar el BIOS de la cuenta”.
La semana
Escapa de tu cámara de eco. Obtenga los hechos detrás de las noticias, más el análisis desde múltiples perspectivas.
Suscribir y guardar
Regístrese para los boletines gratuitos de la semana
Desde nuestra sesión informativa de noticias matutinas hasta un boletín semanal de buenas noticias, obtenga lo mejor de la semana entregue directamente a su bandeja de entrada.
Desde nuestra sesión informativa de noticias matutinas hasta un boletín semanal de buenas noticias, obtenga lo mejor de la semana entregue directamente a su bandeja de entrada.
Pero, decepcionantemente, solo algunas de las seis estrategias “mostraron efectos modestos” y otras en realidad “empeoraron la situación”, dijo ARS Technica. Cuando ordenaron la alimentación de noticias cronológicamente, se redujo la “desigualdad de atención”, pero condujo a la “amplificación del contenido extremo”. Aumentar la diversidad de puntos de vista para “ampliar la exposición de los usuarios a las opiniones políticas opuestas” no tuvo ningún impacto significativo.
La estrategia de “puentes algoritmos para elevar el contenido que fomenta la comprensión mutua en lugar de la provocación emocional” disminuyó significativamente el vínculo entre el “partidismo y el compromiso” pero la “diversidad del punto de vista ligeramente mejorada”, al tiempo que amplía la “desigualdad de atención”.
En common, los resultados estuvieron “lejos de alentar” y ninguno de los métodos implementados pudo “interrumpir completamente los mecanismos fundamentales que producen los efectos disfuncionales” de las plataformas de redes sociales.
‘Cosas malvadas’
Los investigadores entraron en el proyecto preguntándose si los problemas con las redes sociales son “las plataformas que hacen cosas malvadas con algoritmos” o los usuarios “eligieron que queremos un mal entorno”, dijo a ARS Technica, uno de los coautores del informe, Petter Törnberg.
Pero descubrieron que la respuesta tampoco tiene que ser porque “a menudo los resultados involuntarios” provienen de interacciones “basadas en reglas subyacentes”. “No es necesariamente porque las plataformas son malvadas” o porque las personas “quieren estar en entornos tóxicos y horribles”, pero más que el “mecanismo que produce estos resultados problemáticos es realmente robusto y difícil de resolver”. Se scale back a la estructura básica de las plataformas.
Los hallazgos “no hablan exactamente” de los humanos, dijeron Gizmodo, considerando que los chatbots estaban destinados a clonar cómo interactuamos. Entonces, parece que las redes sociales pueden ser ilógicas para nosotros “navegar sin reforzar nuestros peores instintos y comportamientos”.
Es “un espejo de la casa divertido para la humanidad” que “nos refleja, pero de las maneras más distorsionadas”. Y podría ser que no hay lentes “lo suficientemente fuertes” como para “corregir cómo nos vemos en línea”.