La frecuente narrativa de una máquina capaz de pensar como un humano se convirtió desde hace no mucho en una realidad con la llegada de la inteligencia artificial (IA). Sin embargo, si le asignáramos una edad a esta innovación probablemente tendría entre 0 a 9 años o el mismo nivel de pensamiento de un niño de ese rango etario, que es cuando recién se desarrollaría la capacidad de entender la ironía, o al menos eso indica el Instituto de Tecnología de Massachussets (MIT).
Quizás por eso YouTube, una de las redes sociales que más se ha aventurado a incorporar IA como estrategia de moderación de contenidos tóxicos, ha tenido que dejar de lado la idea de valerse principalmente de esta tecnología para detectar la desinformación y el odio.
En un año complicado para esta y todas las plataformas de social media, la red de videos del gigante Google apostó este año a la inteligencia artificial por encima del ojo humano, a fin de limitar la creciente ola de desinformación y el lenguaje del odio dentro de su entorno, lo que finalmente tuvo que recular porque su IA no supo diferenciar entre un contenido irónico de uno falso.
Asimismo, el uso de la IA para combatir la circulación de contenidos tóxicos resulta irónico en esta red social. Puesto que su algoritmo ha sido cuestionado por especialistas del sector, como el ex programador de YouTube Guillaume Chaslot, quien explica que esta compañía se se vale de una tecnología de aprendizaje profundo que procesa billones de sesiones de usuario e identifica los videos con mayor posibilidad de mantener conectadas a las personas por más tiempo.
Chaslot, quien fundó la organización Algo Transparency para alertar sobre como lo algoritmos de YouTube, al basarse en el «watchtime» (que se calcula en base al promedio de número de clicks, de la visualización de los videos y del tiempo que los usuarios pasan en esta plataforma) priorizan y recomiendan aquellos contenidos más eficaces para retener a la audiencia por más tiempo, lo que garantiza mayor activación publicitaria e ingresos. Y para el ex ejecutivo de Google los contenidos extremistas o que polarizan son los que más éxito tienen en esta tarea, lo que puede favorecer la radicalización.
Por ejemplo, un reciente estudio del investigador brasileño Manoel Horta Ribeiro, que visualizó más de 330 mil videos y recogió más 72 millones de comentarios en Youtube, encontró evidencia de que existe una migración desde la alt-lite o derecha suave a la extrema derecha en esta red social, aunque no se precisa que se deba solo al sistema de recomendación de esta plataforma.
Por ello, ante tantos cuestionamientos sobre su algoritmo y el sistema de recomendaciones, a inicios del 2020, YouTube aplicó algunos ajustes a los mismos, una estrategia de combate amparada fuertemente en la IA y estableció unas reglas para aminorar y/o eliminar la circulación de contenidos límite (cercano a vulnerar sus políticas de publicación).
EN AIKA Educación hemos analizado estos cambios, los que han partido de tres contextos, como son la campaña electoral estadounidense, la crisis del coronavirus y el crecimiento de la desinformación y el discurso del odio, los que desarrollamos en este artículo.
Nuevos ajustes algorítmicos contra la maquinaria tóxica electoral
La campaña electoral estadounidense ha concentrado varios de los esfuerzos de Youtube para construirse como una plataforma que promueva un debate equilibrado. El antecedente de Cambridge Analytica si bien afectó más a Facebook, también sentó un precedente para que las redes sociales se preocupen por filtrar contenidos tóxicos con potencial de influir en estas elecciones.
Por ello, en febrero, la compañía de videos del conglomerado Alphabet, que aglutina a las compañías de Google, como YouTube, hizo un especial esfuerzo para eliminar las publicaciones manipuladas técnicamente o adulteradas y las afirmaciones falsas relacionadas sobre los políticos. También se anularon canales de usuarios impostores y eliminaron cuentas para aumentar artificialmente el número de likes, comentarios u otras métricas.
En razón a ello, en agosto YouTube favoreció la eliminación del contenido con información pirateada sobre los procesos democráticos y los que alientan a interferir en este contexto; y como parte de este mecanismo de prevención, se impulsó y empoderó el acceso de los usuarios a contenido electoral autorizado para opacar la circulación de información errónea o dudosa.
De igual manera, en el mismo mes, la plataforma amplió el uso de paneles informativos de verificación de hechos a los Estados Unidos, mientras que en septiembre hizo lo propio en Alemania y Reino Unido. Tal herramienta fue incorporada por esta red social el año pasado en India y Brasil y se lanzó a fin de brindar más información a los usuarios, como artículos comprobados por terceros (por ejemplo, organización de verificación de contenidos falsos), a los que se prioriza por encima de los resultados de búsqueda.
Es importante precisar que este ajuste en el algoritmo de YouTube funciona con palabras específicas de búsqueda para que los resultados sean más precisos pensando en el usuario. El uso de paneles se vale de una red abierta de editores y organizaciones de Fact-Checking que funcionan bajo el Código de Principios de la Red Internacional de Verificación de Datos (IFCN).
La fallida medicina contra el covid-19 de YouTube es la IA
El coronavirus no solo afectó la salud de la humanidad entera, sino que también generó la mayor infodemia o circulación de contenidos falsos de la historia. Por lo cual, también se constituyó en un reto para YouTube, aunque también en este intento, se generaron algunos reveses.
Usuarios se las ingenian para burlar controles de detección de términos asociados a teorías conspiratorias en YouTube, que fueron prohibidas en abril
En marzo, cuando la crisis del covid-19 ya empezaba a recruderse, YouTube lanzó una de sus medidas más temerarias. Priorizó el uso de la inteligencia artificial para detectar y eliminar los videos que generaban desinformación sobre el tema, concentrando la acción del equipo humano en revisar la idoneidad del primer filtro robot en el caso de que los usuarios sientan que la moderación automatizada censuró su contenido pese a ano haber roto las reglas de la plataforma.
Como la propia YouTube avizoró se cayó en este error. Y es que esta tecnología, si bien es más rápida que cualquier humano, no ha alcanzado aún de desarrollar un nivel de análisis semántico similar al de una persona, que le permita distinguir un contenido límite o falso de un mensaje irónico o sarcástico.
Así, entre abril y junio, los robots de esta plataforma eliminaron 11,4 millones de videos por considerarlos tóxicos; sin embargo, más de 160 mil de estos tuvieron que ser reinstaurados por la plataforma dado que no incumplían las políticas de publicación de la misma, por lo que Neal Mohan, gerente de producto en YouTube anunció en una entrevista concedida a Financial Times que se apoyaría en el equipo humano para controlar la desinformación.
De igual forma, en marzo, se reforzó el monitoreo y evaluación de los contenidos difundidos en la plataforma live streaming, provocando la remoción de videos, el ocultamiento de estos en la búsqueda o la página de inicio o recomendaciones.
Por otro lado, abril fue el mes en el que YouTube le cortó las alas a las teorías conspiratorias, que relacionaban a la aparición del coronavirus con el 5G, entre otras; así como, de aquellas que proponían métodos de curación falsos o no sustentados sobre el covid-19 o contradecían en este sentido, las afirmaciones de la Organización Mundial de la Salud (OMS).
En especial, la prohibición contra los videos conspiratorios se hizo después de increpársele por haber permitido la emisión de una entrevista al teórico de la conspiración David Icke, quien afirmó ante una audiencia de más de 65 mil personas que el coronavirus tenía una relación con el 5G, además de que señaló sin sustento otras teorías más, en un programa que duró más de dos horas en un canal de YouTube.
Las medidas tomadas por la plataforma en el primer trimestre en sí se centraron en limitar el acceso a videos que promocionan el uso de sustancias dañinas para la salud o alientan a no acceder a tratamientos médicos y también a eliminarlos.
Paneles y recomendaciones para luchar contra los contenidos falsos
La desinformación también se ha convertido en una plaga que corroe el entorno de YouTube, razón por la cual sus últimos cambios incluyeron ajustes para frenar la difusión de contenidos falsos y engañosos. Para este fin, se valió del uso de paneles de verificación de información, los que se han empleado tanto en el contexto del coronavirus como el proceso electoral estadounidense.
Un concepto, fuertemente apoyado en el sistema de recomendaciones, que YouTube empezó a desarrollar en el 2018 para empoderar los enlaces o videos de fuentes autorizadas sobre un tema, como enciclopedias o autoridades sanitarias, a fin de brindar información contextual al respecto. Mas, este 2020, la plataforma incluyó los artículos relevantes dentro de los paneles, dándoles también mayor relevancia que a los resultados más populares de búsqueda.
Si bien la popular red de videos ha dado pasos interesantes, lo cierto es que sus avances no han podido frenar, como en los demás casos, la circulación de contenidos falsos. Esto sería, porque según expertos como la investigadora Becca Lew, quien fue entrevistada por Wired, a estas alturas le es difícil a la plataforma controlar la dispersión de contenidos falsos, porque muchos de los creadores de estos mensajes han construido sus audiencias no solo en base a recomendaciones sino a sus redes, en donde se promocionan entre ellos mismos.