Moderación de contenidos: ¿plataformas digitales menos nocivas?

MANUEL ALEJANDRO GUERRERO. EL SOL DE MÉXICO  

En febrero de este año, en cumplimiento por lo dispuesto en el Código de Prácticas sobre Desinformación de la Unión Europea, las mayores plataformas digitales entregaron sus primeros reportes sobre los resultados de sus acciones internas para controlar y reducir la desinformación (los reportes se pueden consultar aquí: https://disinfocode.eu/reports-archive/?years=2023). Por desinformación debemos entender aquella información falsa creada y distribuida con el propósito explícito de engañar, ya sea con fines políticos o económicos. Al respecto, en sus reportes las plataformas indican con detalle el número de cuentas falsas y bots han sido desactivados, los temas sobre los que hay más desinformación registrada y el grado de cumplimiento de una serie de criterios sobre sus procesos y prácticas internas, entre otros aspectos.

Desde las plataformas digitales, una de las estrategias más visibles para contener cierto tipo de información falsa y engañosa y otras formas de contenidos nocivos, como discursos de odio explícitos y contenidos ilegales, como pornografía infantil, es la aplicación de políticas y criterios de moderación. La moderación de contenidos se refiere a la práctica que cotidianamente llevan a cabo las plataformas digitales de monitoreo y detección de este tipo de contenidos y la aplicación de criterios prestablecidos para determinar si dichos contenidos deben mantenerse publicados, o no. Esto se realiza tanto a través de procesos automatizados con modelos que reconocen patrones de esos tipos de contenidos, como mediante el trabajo de grupos de personas contratadas para revisar, valorar y determinar su permisibilidad con base en el contexto y las circunstancias de publicación.

A pesar de ello, la revisión de los reportes referidos, indica que, en las plataformas digitales, los contenidos nocivos y engañosos siguen publicándose y distribuyéndose entre los usuarios en temas y circunstancias que pueden acarrear consecuencias negativas. Desde luego que los formatos, intensidad y alcance de estos contenidos varían por tipo de plataforma y características de los usuarios. Asimismo, debemos señalar que no toda la información falsa tiene la potencialidad de ser nociva, como, por ejemplo, cuando hablamos del humor o de la sátira en los memes, de opiniones con datos equivocados sobre historia musical, deportes, o cómo lavar unos pantalones de mezclilla, e incluso de noticias que equivocan el nombre de algún entrevistado o citan mal alguna fuente o dato. Sin embargo, en ciertas condiciones, como por ejemplo situaciones de riesgo a la salud o los procesos electorales—la información falsa sí puede tener consecuencias graves.

Ante estos retos, las plataformas digitales han respondido de distinta forma, mientras que unas han intentado generar acciones coordinadas con autoridades de salud o electorales locales (como Facebook o Google), otras han dejado de impulsar acciones específicas de contención (como Twitter). Sin embargo, en general, el grueso de las plataformas apuesta a los mecanismos de moderación, sobre todo los automatizados que emplean tecnología basada en Inteligencia Artificial, en donde recae el mayor peso de la moderación. El problema, como dicen algunos expertos, es que los modelos de lenguaje sobre los que están basados presentan serias limitaciones y sesgos en términos de que funcionan mejor en inglés, francés o español, pero no necesariamente en otros idiomas, o de que no pueden contextualizar la información, o señalar atenuantes (o agravantes) ante contenidos que requieren conocimiento de culturas específicas. Y es aquí donde se hace muy necesaria la moderación humana.

El tema es que los grupos de moderadores humanos no operan ni en todas las regiones, ni tampoco cubren todos idiomas en los que cada día se intercambian millones de contenidos en el mundo. Más aún, en la gran mayoría de los casos, las plataformas subcontratan a empresas que prestan servicios de moderación que no necesariamente consideran otorgar a sus empleados –las personas que trabajan frente a las pantallas por largas horas mirando contenidos de todo, absolutamente todo tipo– ni las mejores condiciones laborales, ni sueldos adecuados, ni entrenamiento o cuidado psicológico necesarios. Por si esto fuera poco, el reciente despliegue de programas que utilizan Inteligencia Artificial generativa de formas cada vez más sofisticadas, con todo lo bueno y positivo que ello pueda significar en muchos campos, también conlleva el riesgo de incrementar de forma exponencial los contenidos maliciosos y de desinformación en coyunturas y contextos específicos, como los de una crisis sanitaria o un proceso electoral competitivo.

Una adecuada respuesta a estos retos no es sencilla. Varias plataformas buscan ofrecer respuestas a través de desarrollos de Inteligencia Artificial más robustos para detectar contenidos potencialmente nocivos, sin embargo, también es urgente que asuman una mayor responsabilidad para fortalecer las condiciones de profesionalización de sus moderadores humanos. Si bien las plataformas no pueden responsabilizarse necesariamente por las condiciones que las empresas intermediarias ofrecen a sus empleados, sí podrían establecer criterios básicos que éstas deben cumplir en términos de prestaciones, sueldos y condiciones de trabajo, además de desarrollar en conjunto políticas y acciones de entrenamiento y asistencia psicológica, de capacitación especializada en ciertos temas por región y en garantizar que existan formas de cubrir el mayor número de idiomas que se empleen en las regiones. Es cierto que todo esto implica mayores costos económicos a las grandes plataformas, pero quizá sea tiempo de reducir utilidades a cambio de espacios digitales menos nocivos.