¿Están preparados los moderadores de contenido para los chats de voz?

Un nuevo tipo de chat está ganando popularidad en el que las personas hablan en lugar de escribir. Startups como Clubhouse, Rodeo, Chalk y Spoon permiten a los usuarios crear salas de chat de voz donde pueden chatear con amigos y extraños, o simplemente entrar y escuchar conversaciones. El ambiente resultante es un híbrido entre una llamada grupal y un podcast en vivo en el que puedes participar.

Aunque son relativamente nuevas, estas empresas han atraído mucho dinero de los inversores y están causando revuelo. Es fácil ver la lógica de esto: el chat de voz puede ser una nueva forma de comunicarse mientras se queda en casa durante una pandemia.

Pero antes, estas aplicaciones tendrán que superar el obstáculo al que se enfrentan todas las plataformas sociales: hacerse con el control de la moderación de contenidos.

Recientemente, este desafío volvió a surgir cuando los usuarios de Clubhouse se quejó sobre comentarios antisemitas en el programa. La empresa, que recaudó 100 millones de dólares de inversores a principios de este año, anunció nuevas características de seguridad contestar.

Este episodio plantea preguntas importantes: ¿cómo pueden las plataformas sociales respaldar un entorno seguro que funciona con audio en vivo cuando no sabes lo que saldrá de la boca de alguien? ¿Es incluso posible moderar de manera efectiva el contenido que es a la vez invisible y efímero?

Que los chats de voz se conviertan en una moda pasajera o en un modo estándar para comunicarse con amigos en el futuro puede depender de la capacidad de la industria para resolver el rompecabezas.

LeerPor qué la fricción es la clave para un mejor ecosistema de redes sociales

La voz es más difícil que el texto.

Estas nuevas aplicaciones de audio son el resultado de plataformas sociales exitosas como Discord, que permite a los usuarios unirse a comunidades temáticas para comunicarse en chat de texto y voz, y Twitch, donde los usuarios se unen a los canales e interactúan con el texto cuando el anfitrión transmite una transmisión de video en vivo. . Moderar tales comunidades requiere un enfoque fundamentalmente diferente al que usaría para moderar plataformas como Facebook y Twitter.

Por ejemplo: en las comunidades basadas en la voz, tan pronto como se dice algo, desaparece. En los chats de texto, la moderación «se basa en el requisito previo de que se debe eliminar algo», dijo Aaron Jiang, Ph.D. Un candidato de la Universidad de Colorado-Boulder que está investigando la moderación de contenido, dijo Built In. “Una voz en tiempo real cambia esa suposición, la arroja al fuego”.

Frente al chat de voz en tiempo real, muchas páginas del tutorial de moderación de contenido quedan desfasadas de repente. «Todo el panorama de la moderación está cambiando muy rápido y seguirá cambiando al menos tan rápido o incluso más rápido que ahora», agregó Jiang.

«Todo el panorama de la moderación ha cambiado muy rápido y cambiará al menos tan rápido o incluso más rápido».

El tema de la documentación es probablemente el más difícil. Es difícil reunir evidencia material de comentarios dañinos de un mal actor: no hay nada en la captura de pantalla.

Grabar audio (y tener una forma de identificar diferentes oradores) es una forma de evitar esto, dijo Jiang. Pero esto es poco frecuente y plantea una serie de preguntas sobre el consentimiento y la retención de datos.

«Cómo probar que alguien hizo algo mal o rompió la regla es definitivamente un problema de un millón de dólares», dijo Jiang. «Depende casi por completo de los informes de la comunidad».

Prevención del abuso

En las comunidades de texto, la prevención del abuso es posible (hasta cierto punto). En Twitch, por ejemplo, los streamers pueden configurar filtros para que cuando un usuario ingrese una palabra abusiva, el backend la detecte y bloquee el comentario. (Aunque los usuarios pueden ser muy creativos con la forma en que imprimen las cosas). Sin embargo, cuando se trata de audio en vivo, no es algo que pueda controlar en absoluto.

Por lo tanto, la moderación en las comunidades vivas está más enfocada en qué hacer después abuso o acoso. Las principales herramientas del moderador para las comunidades de chat incluyen la capacidad de silenciar, descargar, bloquear y prohibir a las personas que infringen las reglas, todo ad hoc decisión.

Entonces, los pasos importantes que las comunidades pueden tomar son prepararse para reaccionar cuando ocurran violaciones y establecer estándares y normas claros para que “no siempre intentes apagar incendios, organices las cosas para que despidan a Yvette Vaughn, profesor asociado en el Instituto de Tecnología de Nueva Jersey, dijo Built In.

«Solo deja que la gente sepa lo que es aceptable y lo que no».

Investigación Se centra en el papel de los algoritmos y las interacciones sociales en la retransmisión en directo, los deportes electrónicos y las redes sociales. Ella cree que es importante que las plataformas sociales dejen de abusar tanto como sea posible, haciendo que los principios de la comunidad sean extremadamente visibles y claros. Esto significa no solo los términos de servicio que los usuarios firman imprudentemente, sino también las reglas que todos deben ver y aceptar seguir al unirse.

«Suena muy intuitivo», agregó Vaughn. «Incluso reglas muy simples. Solo deja que la gente sepa lo que es aceptable y lo que no».

También alienta a las comunidades que usan voz a considerar agregar canales de comentarios de texto. Según ella, asignar este espacio adicional fuera del foro de voz principal puede ser útil para la educación. Los canales inversos pueden ayudar, por ejemplo, en los casos en los que los usuarios quieren hablar entre sí para discutir un comportamiento insensible, o para que los moderadores expliquen al usuario por qué su comentario fue inaceptable.

“La gente puede optar por hablar con Discord u otras redes sociales”, dijo Vaughn. «Pero creo que si lo incorpora a su plataforma, será realmente rentable».

Más herramientas de moderador

Wohn también recomienda que las plataformas sociales proporcionen a los moderadores herramientas técnicas sofisticadas para que les resulte más fácil cumplir con los estándares de la comunidad.

Ella cita a Twitch como un ejemplo que los programas de voz jóvenes pueden querer seguir. La plataforma, que tiene 15 millones de usuarios activos diariamente, ha permitido a desarrolladores externos crear herramientas de moderador que pueden usar transmisiones. Más tarde lanzó un conjunto de herramientas de moderación que incluían algunas de las funciones más populares que ofrecen las herramientas de terceros, dijo Vaughn.

Permitir que los desarrolladores externos sean creativos puede ser más rentable y más fácil que comenzar desde cero, lo que puede retrasar la moderación de contenido a gran escala.

Una herramienta útil es que los moderadores de Twitch hagan clic en un usuario y vean su historial de moderación. De esta forma, los moderadores podrán ver si el usuario es un infractor reincidente o si es la primera vez que alguien reporta un problema con él. El contexto agregado puede ayudar a los moderadores a tomar una mejor decisión sobre si prohibir a un usuario por completo o alejarlo y recordarle los estándares de la comunidad.

¿Puede ayudar la inteligencia artificial?

Won no ve ninguna oportunidad, si es que la hay, para que la inteligencia artificial evite el abuso en las plataformas de audio-sociales. Pero no por la falta de habilidades de IA; es simplemente imposible predecir que alguien dirá algo dañino. Sin embargo, en su opinión, la inteligencia artificial puede tener un impacto, ayuda a las personas-moderadores a tomar decisiones.

Por ejemplo, si alguien hace un comentario racista en una plataforma de audio, los participantes generalmente no se detienen y esperan a que el moderador tome medidas; la conversación continúa. Por lo tanto, el moderador debe decidir rápidamente cómo intervenir.

Según los datos de capacitación anteriores, el aprendizaje automático puede identificar comentarios verbales ofensivos como tales, marcarlos para el moderador y proporcionarles actualizaciones en tiempo real sobre cómo se han manejado comentarios similares en el pasado. Esto puede ayudar al moderador a tomar una decisión rápida y consistente.

Por supuesto, esto no niega ningún daño causado por el comentario. Este es un pequeño paso para garantizar que la comunidad de audio haga cumplir sus estándares, en lugar de ser atrapados desprevenidos y dejar a los usuarios afectados preguntándose quién llevará a los perpetradores ante la justicia.

«Necesitamos estas herramientas para facilitar las cosas, pero en términos de moderación, siempre debe haber una persona», dijo Vaughn. «Porque estás tratando con otras personas creativas».

Leer¿Qué pasó con Xfire, una de las primeras redes sociales para jugadores?

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *