En este momento estás viendo La inteligencia artificial en la moderación de contenidos
chatbot with robot and people communicate with modern flat isometric style vector illustration

La inteligencia artificial en la moderación de contenidos

Para hablar de moderación de contenidos en redes sociales y plataformas de internet, iniciaremos revisando algunos puntos sobre la libertad de emitir opiniones. De acuerdo con el artículo 19 de la declaración Universal de los Derechos Humanos y el Pacto Internacional de Derechos Civiles y Políticos en sus artículos 18 y 19, todas la personas tenemos derecho a expresarnos libremente, así lo expresan: “nadie podrá ser molestado a causa de sus opiniones” así como también que toda persona gozará del derecho a “buscar, recibir y difundir informaciones e ideas de toda índole” sin consideración de fronteras o “procedimiento” que elija.  

Los Tratados reconocen que el derecho a la libre expresión puede tener restricciones marcadas por las leyes para asegurar el respeto a los derechos o la reputación de los demás, así como para proteger la seguridad nacional, el orden público, la moral o la salud de las otras personas.  Una vez que las redes sociales se han convertido en un medio para expresarse, difundir contenidos e, incluso, dar a conocer opiniones, preferencias; la cantidad cada vez creciente de contenidos que se difunden por internet, pueden tomar diversas modalidades, que en ocasiones rebasan los límites del respeto a la integridad de las personas.

La inteligencia artificial, IA, ha ayudado a tomar ciertas medidas para evitar contenidos nocivos mediante reconocimiento de fake news, deepfakes, tendencias y comentarios que no solamente se quedan en el ámbito de lo privado, sino que van al público en general, dentro y fuera de las fronteras, por parte de cualquier ciudadano y con diversas finalidades. 

¿Cómo es que la inteligencia artificial puede participar de esta actividad?

El grupo que determina los algoritmos que deberá aprender, genera un proceso de aprendizaje para que el sistema pueda determinar qué contenido sí puede circular y cuál no, de ahí que podamos decir que la inteligencia artificial no se determina por sí sola, sino que hay un equipo técnico humano que lo hace, y que hasta en ciertos momentos continúa con la tarea de la propia inteligencia artificial cuando esta se ve sobrepasada. 

La automatización puede utilizarse en las fases relacionadas de la detección proactiva de contenidos potencialmente problemáticos y la evaluación automatizada para aplicar la decisión de eliminar, etiquetar, desmonetizar, degradar o priorizar contenidos. Tres actividades que puede seguir el proceso, sean en orden, solamente uno o dos de estos, y con solo IA o combinados con participación humana, son: 

  1. La detección de un contenido nocivo o problemático, ya sea de forma automática o por reporte de otros usuarios.   
  2. Evaluación de los contenidos, ya sea con inteligencia artificial, revisión humana o ambas en combinación.  
  3. Decisión sobre el contenido o la cuenta.  

Estos procesos pueden darse igual de manera reactiva o proactiva. La inteligencia artificial puede obedecer a los criterios de las plataformas, por ejemplo Twitter revisa el texto del tweet, los elementos multimedia que se incluyen, el perfil de la cuenta y los sitios web enlazados. 

Facebook utiliza el aprendizaje de algoritmos en la inteligencia artificial para quitar de las cuentas contenidos que infrinjan sus normas comunitarias o políticas publicitarias, asimismo, reducir la distribución de noticias falsas y contenidos no auténticos. 

¿A qué se refiere “contenidos nocivos” en redes sociales y plataformas de internet? 

A aquel contenido que tenga que ver con mensajes de odio, terrorismo, explotación infantil, la trata, la pornografía o la motivación a realizarse autolesiones; asimismo, pueden ser aquellos mensajes que inciten a la discriminación, motiven a la violencia o, en su defecto, que la glorifiquen, mensajes que por su falsedad o tendencia pueden afectar el buen desarrollo de vida pública o causen alarma generando situaciones de pánico o de conflicto, como las fakenews, y, en casos especiales, también pueden incluirse aquellos mensajes que violan las reglas de las empresas o las organizaciones, como los secretos de sus finanzas, patentes, datos de su personal u otras informaciones que pueden ser de uso privado o reservado. 

Por otro lado, hay contenidos que no entran en esta categoría porque no representan una molestia mayor a las personas, ni les son traumáticas, como puede ser el spam o publicaciones no señaladas como profundamente riesgosas.      

Otro aspecto que puede detectarse a través de la moderación de contenidos con inteligencia artificial en la redes sociales es cuando puede asociarse a publicaciones qué estén difundiendo información falsa o distorsionada, para ello, el sistema puede realizar un proceso de verificación que determine si puede permanecer o no en internet.

Esta observancia de los contenidos puede recaer tanto en textos escritos como en sonidos e imágenes, incluso, puede hacerse un rastreo o determinación sobre los llamados deepfakes, que se refieren a imágenes generadas que parecen tan reales que pueden engañar al ojo humano. Y es aquí cuando entra la inteligencia artificial a la detección y bloqueo o remoción de contenidos nocivos, muchas veces evitando su viralización y la violación de las reglas.   

Igualdad y expresión en el uso de IA la moderación de contenidos

Algunos de los primeros sistemas de moderación automática de contenidos se basaban en el filtrado de palabras clave para bloquear publicaciones. El filtrado de palabras clave es notoriamente excesivo y poco inclusivo, ya que bloquea palabras independientemente de su contexto o significado y no filtra contenidos no especificados en la lista de términos prohibidos. Actualmente, el procesamiento del lenguaje natural (PLN) es un campo de estudio que pretende permitir a los ordenadores analizar el texto de una manera más completa, más cercana a la realidad, más cercana a la forma en que un humano entendería el texto.

Las herramientas de PNL pueden ser entrenadas para predecir si un texto expresa una emoción positiva o negativa (análisis de sentimiento) y para clasificarlo como perteneciente o no a alguna categoría.

Algunos analistas2 hablan de que el uso de algoritmos predictivos llevan a una reflexión no humana sobre los contenidos, incluso algunas publicaciones pueden salir de contexto y ser interpretadas fuera del sentido que tienen, por lo que puede haber una remoción automática de contenidos en línea que vulnera la libertad de expresión o lo que otros llaman como un proceso de censura. 

Esto se ha cuestionado basándose en la Convención Interamericana de Derechos Humanos y el Tratado Europeo de Derechos Humanos en que se encuentra lo siguiente: «sólo es admisible la restricción a la libre expresión mediante el dictado de una ley necesaria que persigue un fin legítimo y que guarde proporcionalidad con el derecho que se intenta proteger. «

Cabe aclarar que el proceso de moderación de contenidos en las redes sociales usando inteligencia artificial, no es totalmente lineal, sin embargo, cuando esta tecnología detecta algún contenido que todavía puede ser objeto de un análisis, puede pasar a un equipo de personas que hacen una segunda revisión a fin de que se determine con mayor precisión si el contenido realmente requiere requiere ser bloqueado retirado o sancionado.  

Así, los contenidos pueden ser divididos en no violatorios y los que deben darse de baja, mediante dos esquemas, uno reactivo y uno proactivo.

Por su parte, respecto a la moderación de contenidos por medio de la inteligencia artificial, la ONU tiene dos visiones una con posibilidades positivas y otra que tiene consecuencias negativas. Entre los beneficios de la inteligencia artificial señala que “aumenta la posibilidad de que cada persona en línea encuentre rápidamente la información que solicita, y que lo puede hacer confrontando distintas ideas y opiniones, no importa que sean de orden político, religioso o social, en este caso, la segmentación de contenidos es útil y eficaz porque puede reforzar algunas creencias individuales; en cuanto al otro extremo, señala que puede exacerbar los contenidos violentos o la desinformación con el solo el fin de mantener al usuario activo”.  

La Unión Europea menciona que la inteligencia artificial puede generar en torno nuestro una burbuja informativa basada en nuestras preferencias o búsquedas y que lo que debe facilitarse es que la información nos llegue de forma democrática y que no se afecte nuestra libertad de expresión, además de que en los contenidos  no haya limitación por nuestros usos idiomáticos o aspectos culturales propios.  

Se trata de que la inteligencia artificial no bloquee o remueva información por interpretaciones o programaciones erróneas. Un mal uso podría llevar a tener una sociedad desinformada, polarizada o manipulada. Para mayor información sobre el uso de la tecnología en internet asociada al Derecho conocida como legaltech y las implicaciones legales que pudieran derivarse de ello, contacta los especialistas en justicia digital de ÏO Justice.

Fuentes: 

  1. Seminario “Discurso redes y pluralidad. Impactos diferenciados en la moderación de contenidos”, https://fb.watch/eQ_a-QQOxR/
  2. Manuel Ernesto Larrondo y Nicolás Mario Grandi, Universidad Nacional de la Plata, https://www.redalyc.org/journal/4761/476165932008/html/
  3. https://www.un.org/es/about-us/universal-declaration-of-human-rights
  4. https://m.facebook.com/help/1584908458516247?locale2=es_LA&_se_imp=1CXKiaDRSSN1ZRfAl
  5. https://www.circuito.digital/entiende/la-moderacion-de-contenidos-en-accion
  6. https://laboratoriodeperiodismo.org/inteligencia-artificial-para-ayudar-a-moderar-comentarios/

Deja una respuesta

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.