La plataforma de descubrimiento social Yubo implementa tecnología de moderación de audio para mejorar la seguridad del usuario

Yubo está dando un paso más hacia la moderación de las transmisiones de audio para mejorar la seguridad del usuario.

Cuando se trata de las redes sociales, todos sabemos que además de los muchos beneficios que brinda al facilitar las conexiones, también puede haber ciertos riesgos y peligros que conlleva la interacción en línea, especialmente para los jóvenes.

Yubo, la aplicación de descubrimiento social en vivo más utilizada por la Generación Z, anunció que su tecnología de moderación de audio de transmisión en vivo se está expandiendo a sus mercados más grandes, a saber, Estados Unidos, Reino Unido, Australia y Canadá.

Yubo


La importancia de la moderación del contenido

Moderar contenido en línea es un trabajo difícil de hacer. Hemos visto esto con Facebook, Twitter, Instagram, etc. Entre insultos, comentarios de odio o incluso, a veces, violencia o autolesiones, la moderación es muy importante para mantener estas plataformas seguras y sus usuarios protegidos. 

Bueno, Yubo continúa demostrando que está haciendo todo lo posible para ayudar a prevenir esto, especialmente porque su base de usuarios es mucho más joven. Según Yubo, el 99% de su base de usuarios son Generación Z de 13 a 25 años. Si bien el acoso en línea no es agradable de soportar para nadie, puede ser particularmente dañino para los adolescentes.

Cómo funciona la moderación de audio de Yubo

A partir de mayo de 2022, Yubo inició una fase de prueba de su tecnología de moderación de audio en varias áreas de los Estados Unidos. Ahora, la siguiente fase incluye la mayoría de las regiones de habla inglesa donde Yubo tiene una gran base de usuarios para permitir que la empresa obtenga una mejor visión de su nueva herramienta de seguridad.

La tecnología que implementó Yubo funciona grabando y transcribiendo fragmentos de audio de 10 segundos en transmisiones en vivo de 10 o más personas. El texto es analizado inmediatamente por inteligencia artificial para detectar cualquier palabra o frase que viole las Pautas de la comunidad de la aplicación.

Espera, no se detiene aquí. Si bien la inteligencia artificial puede ser excelente para detectar tales cosas, todavía está lejos del punto en el que puede diferenciar entre usos problemáticos reales y banderas falsas.

Las banderas falsas pueden ser, por ejemplo, canciones que se reproducen de fondo o lenguaje lúdico que no tiene malas intenciones.

Si la transmisión en vivo está perfectamente bien, no se revisan las transcripciones ni se guardan más allá de un límite de 24 horas, por lo que todo permanece privado; o tan privado como puede ser una transmisión en vivo con más de 10 personas.

Sin embargo, si los algoritmos detectan amenazas violentas, discursos de odio o autolesiones, por ejemplo, las transcripciones se almacenan hasta por un año. Esta es, por supuesto, una medida de seguridad para la empresa en caso de que las fuerzas del orden requieran la información o la propia empresa necesite los detalles para futuras investigaciones internas.

Fuente: este post proviene de Cristian Monroy, donde puedes consultar el contenido original.
¿Vulnera este post tus derechos? Pincha aquí.
Creado:
¿Qué te ha parecido esta idea?

Esta idea proviene de:

Y estas son sus últimas ideas publicadas:

Recomendamos