Auditing Platform Content Moderation: así vigilan a TikTok

Auditing Platform Content Moderation analiza reportes a TikTok y detecta fallas en la remoción de contenido que viola sus reglas.

febrero 23, 2026
Auditing Platform Content Moderation: así vigilan a TikTok
Auditing Platform Content Moderation: así vigilan a TikTok

El Hub de Negocios.- El programa Auditing Platform Content Moderation impulsa una revisión directa sobre cómo las plataformas digitales aplican sus propias normas. Este proyecto analiza, documenta y mide la respuesta de empresas tecnológicas ante contenidos que violan sus reglas. La iniciativa busca fortalecer la transparencia y mejorar la calidad del entorno digital, así lo detalla Richard Rogers, profesor de Nuevos Medios y Cultura Digital de la Universidad de Ámsterdam.

El investigador responsable explicó que desarrolla tres proyectos centrales, pero destaca especialmente Auditing Platform Content Moderation por su impacto regulatorio. Este estudio identifica videos que rompen las reglas de TikTok y activa un proceso sistemático de reporte. El objetivo consiste en comprobar si la plataforma actúa conforme a sus lineamientos públicos.

“El equipo detecta contenidos que infringen las políticas de TikTok y documenta cada caso con rigor metodológico. Luego los reportamos a TikTok y vemos la extensión a la que TikTok remueve el contenido o demuestra el contenido. Este procedimiento permite medir la coherencia entre normas y acciones concretas, indica Rogers en entrevista con El Hub de Negocios.

Los hallazgos resultan preocupantes, ya que el estudio muestra que TikTok no retira una parte significativa del contenido que claramente viola sus propias reglas. Esta situación genera dudas sobre la eficacia de los sistemas internos de moderación y sobre el compromiso real con la seguridad digital.

Te invitamos a leer: Datos olvidados: la amenaza que abre la puerta a ciberataques

Asimismo, la Escuela de Humanidades y Educación del Tecnológico de Monterrey recibió en su campus a Richard Rogers, el cual señala que el proyecto opera bajo encargo de autoridades europeas y mantiene coordinación con instancias gubernamentales.

La investigación aporta evidencia para debates regulatorios en la Unión Europea y en gobiernos nacionales. Con datos verificables, el programa ofrece herramientas para exigir mayor responsabilidad a las plataformas.

Además de este eje, el investigador trabaja en el análisis del sistema Community Notes de X. Este mecanismo permite que usuarios agreguen contexto o verifiquen publicaciones. El equipo estudia cómo mejorar su funcionamiento y cómo lograr que notas útiles sí lleguen al público.

Los expertos analizan casos en los que la comunidad considera valiosa una nota, pero el sistema no la publica. A través de experimentos controlados, proponen ajustes al algoritmo para priorizar aportaciones relevantes. Así buscan fortalecer la verificación colaborativa y reducir la desinformación.

El tercer proyecto se enfoca en datos sintéticos generados por modelos de lenguaje. Estas herramientas producen información que imita patrones reales de comportamiento social. Los investigadores evalúan si estos datos pueden apoyar estudios académicos sin sustituir la recolección tradicional.

Síguenos en Instagram: @elhubdenegocios

Auditing Platform Content Moderation apuesta por la IA

El análisis también aborda el papel de la inteligencia artificial en la promoción de contenido beneficioso. Los modelos de lenguaje se entrenan con grandes volúmenes de información de internet, que incluye material de baja calidad. Por ello, los desarrolladores deben integrar sistemas de valores claros en los chatbots que funcionan como interfaz.

“Empresas como Anthropic han publicado documentos extensos para definir principios de comportamiento en sus sistemas. Estas guías buscan orientar las respuestas hacia estándares éticos y responsables. El reto consiste en equilibrar protección, libertad de información y experiencia del usuario”, menciona el también fundador de la Digital Methods Initiative.

Te invitamos a leer: 33% de los latinoamericanos nunca cambia sus contraseñas en el trabajo

Los investigadores señalan que los antiguos sistemas basados solo en reglas generaron respuestas rígidas y paternalistas. El nuevo paradigma apuesta por modelos que aprendan del contexto y adapten valores según la interacción. Este enfoque intenta crear una experiencia más empática sin perder criterios de seguridad.

En este escenario, Auditing Platform Content Moderation representa una herramienta clave para vigilar a las plataformas y exigir coherencia. El programa no solo detecta fallas, también impulsa mejoras estructurales. Con evidencia concreta, la investigación abre la puerta a un ecosistema digital más transparente, responsable y orientado al bienestar colectivo.

Síguenos en Facebook:  @elhubdenegocios



Israel Pantaleón

Israel Pantaleón

Más del autor