Google tiene un grave problema con el spam y los contenidos inapropiados en YouTube. Lo pudimos comprobar hace unos meses con el descubrimiento de perturbadores vídeos en YouTube Kids, y desde entonces la empresa ha tratado de enmendar el camino.
Ese trabajo, dicen en Google, comienza a dar sus frutos. Un nuevo informe trimestral informará del cumplimiento de las políticas de la comunidad, y nos deja datos interesantes: se han eliminado más de 8 millones de vídeos inapropiados en la plataforma, y los sistemas de aprendizaje automático (machine learning) son cada vez más importantes en esta tarea.
Los usuarios como moderadores
Tanto es así que de los 8,3 millones de vídeos retirados del servicio YouTube —los resultados se centran en el servicio principal, no en YouTube Kids—, el 81% (6,7 millones) fueron detectados por esos sistemas de inteligencia artificial. Cuidado: detectados, que no borrados, porque tras marcar estos contenidos como inapropiados, todos ellos necesitan de una revisión por parte del equipo de moderadores humanos.
En Google y YouTube hacen uso extensivo del aprendizaje automático para detectar vídeos inapropiados antes incluso de que los usuarios puedan verlos (un 76% ni siquiera tenían visitas cuando fueron eliminados), pero a esa labor se suman un conjunto de profesionales —Google promete tener un equipo de 10.000 personas moderando contenido antes de que acabe 2018— y de usuarios que ayudan en esas tareas.
Esos usuarios entran en dos categorías: los usuarios convencionales como tú o como yo que pueden marcar un vídeo como inapropiado desde las opciones de la página de YouTube, o los moderadores de confianza de Google, usuarios que desempeñan esa labor de forma especializada. Estos últimos fueron responsables de detectar 1,1 millones de vídeos inapropiados, el 14% del total.
En Google no obstante destacan la labor de los usuarios convencionales, que detectaron 402.000 vídeos inapropiados en el cuartro trimestre de 2017. En realidad marcaron como inapropiados muchos más vídeos —9,3 millones en total—, aunque si éstos no violan las políticas de la comunidad no se eliminan del sistema.
La inteligencia artificial ayuda, pero sigue siendo insuficiente
Entre los aspectos que llevan a los usuarios humanos a marcar un vídeo como inapropiado están sobre todo los que tienen contenido sexual explícito (30%), son engañosos o son spam (27%), tratan de abusos u odio (16%) o son violentos o repulsivos (14%).
En Google explicaban cómo para reforzar esta tarea han puesto a dispositión de todos los usuarios un panel de transparencia en el que se mostrará a los usuarios el resultado de la actividad de los usuarios al marcar como inapropiados vídeos que han visto en YouTube. Ese panel ya estaba disponible para los moderadores autorizados, y ahora lo estará para el resto de usuarios.
La inversión en personas que logren ayudar a filtrar esos contenidos y eliminar aquellos no apropiados sigue en marcha, aunque en Google esperan que algún día esa labor se pueda realizar de forma autónoma por parte de sistemas de inteligencia artificial.
Por ahora esos sistemas aún están en pleno desarrollo y necesitan del juicio humano para decidir si el contenido es realmente negativo, y según los responsables de Google pasará aún tiempo hasta que hayan podido entrenar a estos sistemas para poder realizar esta tarea de forma autónoma.
Publicidad en vídeos extremista en YouTube, otro paso atrás
Mientras Google presentaba sus novedades en esas tareas de moderación de contenidos en YouTube, una investigación de CNN sacudía de nuevo al servicio.
Según esa información, la publicidad de más de 300 empresas ha aparecido en canales de YouTube que promocionan la pedofilia, la supremacía blanca, a los nazis, las teorías de la conspiración o la propaganda norcoreana.
Entre esas empresas estaban gigantes como Amazon, Adidas, Facebook, LinkedIn, Netflix o Cisco, que como revelan en esa investigación podrían haber ayudado sin querer a esos canales y a sus responsables a financiarse.
Muchas de las empresas implicadas han indicado que no tenían conocimiento de que su publicidad apareciese en dichos canales, y algunas como Under Armour ha detenido sus campañas en YouTube.
No es la primera vez que la empresa se encuentra con este tipo de problemas: en marzo de 2017 YouTube perdió millones de dólares en campañas publicitarias cuando varias empreas detectaron que sus anuncios se publicaban en vídeos que fomentaban el odio o el racismo.
Las críticas a los contenidos extremistas han ido incrementándose además con casos como el escándalo de Logan Paul, y tanto en este suceso como en esa nueva aparición de publicidad en vídeos que deberían no tenerla (y ser eliminados) queda patente que aunque Google haya comenzado a mover ficha, queda aún mucho camino por recorrer.
La empresa anunció a principios de 2018 que la política publicitaria cambiaba: solo canales con un mínimo de 1.000 suscriptores y 4.000 horas de visualización en los últimos 12 meses podrían formar parte del Programa de Partners de YouTube. Eso debería complicar las cosas a canales minoritarios, pero no parece solucionar el problema de los contenidos extremistas ni la publicidad que aparece en ellos.
Como señalan en CNN, algunos de los canales en los que se detectó la publicidad —como el canal pro-nazi de Brian Ruhe— han sido eliminados. Entre esos anuncios estaban los de la productora 20th Century Fox Film, y uno de sus portavoces indicó que "YouTube ha fallado una vez más a la hora de filtrar correctamente los canales para nuestras operaciones de marketing".
YouTube responde a las críticas
Por su parte los responsables de YouTube han indicado que "nos hemos asociado con nuestros anunciantes para realizar cambios significativos en la forma en que enfocamos la monetización en YouTube con políticas más estrictas, mejores controles y una mayor transparencia". El portavoz de esta empresa explicaba además que aun cuando los vídeos cumplen con las pautas de los anunciantes, "no todos los vídeos son apropiados para las marcas".
Según Google, entre los canales detectados por la CNN hay varios que son "simplemente comentarios políticos de derecha o sátira política de derecha. Estos canales no infringen las políticas de la comunidad y son apropiados para algunos anunciantes".
También aclaran que las ganancias acumuladas en la gran mayoría de vídeos mencionados en el reportaje son de menos de 5 dólares, y la mayoría de canales mencionados tienen ganancias acumuladas inferiores a los 100 dólares, lo que según ellos hace que estos "no sean ejemplos de los anunciantes que "financian" a los creadores detrás de estos vídeos y canales".
En Xataka | He mirado todos los datos que Google tiene sobre mí, y confirmo que es el Gran Hermano definitivo
Ver 12 comentarios