Tumblr, la histórica plataforma de microblogging, vuelve a ser centro de críticas en 2025 por el uso defectuoso de inteligencia artificial para la moderación de contenido.
Esta vez, los usuarios denuncian que publicaciones inocentes, desde GIFs de gatos hasta obras de arte y contenido LGBTQ+, están siendo marcadas erróneamente como “contenido para adultos”.
La falla ha desatado una ola de frustración en la comunidad, que ya había vivido un episodio similar en 2018 con la polémica prohibición del contenido sexual en la plataforma.
¿La IA está fuera de control? Los algoritmos de Tumblr etiquetan mal contenido inofensivo
Usuarios de Tumblr reportan que la plataforma marca erróneamente publicaciones seguras como material sensible o para adultos.
Las víctimas más frecuentes incluyen:
- GIFs de gatitos
- Dibujos artísticos
- Publicaciones LGBTQ+
- ️ Imágenes inocentes como manos, zapatos o collares
El problema parece estar relacionado con una actualización en la app de Android, que introdujo una nueva capa automatizada de filtrado.
Aunque Tumblr no ha confirmado directamente el uso de IA en esta función, los usuarios apuntan a los algoritmos como responsables de esta nueva ola de falsos positivos.
Censura selectiva: el impacto desproporcionado en la comunidad LGBTQ+
Esta no es la primera vez que el sistema de moderación de Tumblr entra en conflicto con su audiencia LGBTQ+.
En 2017 y 2018, funciones como el “modo seguro” y la prohibición del contenido para adultos marcaron injustamente contenido queer como inapropiado, provocando un éxodo masivo de usuarios.
En 2022, la Comisión de Derechos Humanos de Nueva York forzó a Tumblr a revisar sus algoritmos y capacitar a sus moderadores humanos tras una investigación que concluyó que las políticas de moderación afectaban desproporcionadamente a la comunidad LGBTQ+.
A pesar de estos compromisos, el problema persiste: publicaciones queer siguen siendo censuradas, mientras la plataforma intenta mantener un balance entre seguridad y libertad de expresión.
¿Moderación automática o censura algorítmica? El dilema técnico de la IA
La controversia de Tumblr pone en evidencia un problema central en el uso de IA para moderar plataformas sociales: la dificultad para entender el contexto.
Los sistemas automatizados enfrentan una tensión técnica entre:
- Reducir los falsos negativos (contenido dañino que no se detecta)
- Minimizar los falsos positivos (contenido inofensivo que se censura)
En la práctica, cuando se optimiza un lado, se sacrifica el otro.
Esto ha llevado a una situación donde imágenes absurdamente inocentes, como un pollo asado o una caricatura de Garfield, han sido censuradas como si se tratara de pornografía explícita.
Tumblr repite errores del pasado: ¿podrá recuperar la confianza del usuario?
A pesar de los avances tecnológicos, los sistemas de moderación con inteligencia artificial aún no logran comprender matices culturales ni contextos. El resultado: moderación excesiva, experiencias frustrantes y daño a la reputación de la marca.
Los usuarios ya bautizaron esta ola como #TooSexyForTumblr, recordando la viralidad de la censura absurda en años anteriores.
La confianza del público sigue en declive, especialmente entre los artistas, activistas y creadores queer que una vez fueron el alma de la plataforma.