Meta obligada a restaurar contenido lésbico tras sentencia de supervisión
La Junta de Supervisión de Meta determinó que eliminó posts lésbicos incorrectamente. ¿Qué significa esto para los derechos de moderación?
Foto: Redacción RainbowNews
La Junta de Supervisión de Meta falló que eliminó contenido lésbico de Instagram de forma incorrecta. La junta dijo que las eliminaciones violaban las reglas propias de Meta. Meta debe restaurar los posts y revisar sus sistemas. La decisión se publicó a finales de abril de 2026.
La Junta de Supervisión es un órgano independiente. Revisa decisiones difíciles sobre contenido tomadas por Meta. Sus fallos son vinculantes para posts individuales. El consejo político no es vinculante, pero Meta responde generalmente en 60 días.
De qué se trataba el caso
El caso implicaba varios posts de Instagram de usuarias lésbicas. Los posts usaban palabras como dyke y lesbian de forma positiva. Los sistemas automatizados de Meta marcaron el contenido como discurso de odio. Moderadores humanos confirmaron luego las eliminaciones.
Las usuarias apelaron las decisiones. Dijeron que las palabras se usaban como autodescripción, no como insultos. La Junta de Supervisión estuvo de acuerdo. Según el fallo, Meta no reconoció el lenguaje reclamado. El lenguaje reclamado es cuando un grupo usa un antiguo insulto positivamente.
La junta escribió que las eliminaciones limitaban la libertad de expresión. También dijo que la moderación afectó la visibilidad de usuarias lésbicas. La política propia de Meta permite palabras reclamadas cuando quien las usa pertenece al grupo.
Antecedentes: cómo funciona la moderación
Meta usa herramientas automatizadas y revisores humanos. Los sistemas automatizados analizan miles de millones de posts diarios. Buscan palabras e imágenes que pueden violar las reglas. Los posts marcados van a moderadores o se eliminan directamente.
El sistema tiene problemas conocidos. Las herramientas automatizadas a menudo pierden el contexto. Una palabra puede ser ofensiva en un post y solidaria en otro. Los grupos LGBTQ+ se quejan de esto desde años. Dicen que su contenido se elimina más frecuentemente.
En 2021, el grupo de derechos humanos GLAAD informó sobre tasas altas. Meta dijo que trabajaba en el problema. Varios informes desde entonces muestran que continúa.
Qué significa el fallo en la práctica
Meta debe restaurar los posts específicos del caso. La empresa debe explicar qué cambiará. La Junta de Supervisión pidió a Meta que:
- Mejore la detección del lenguaje reclamado
- Capacite moderadores sobre contexto LGBTQ+
- Sea más transparente sobre razones de eliminación
- Ofrezca opciones de apelación más claras
Las recomendaciones de la junta no son legalmente vinculantes. Pero Meta ha acordado responder públicamente. En casos anteriores, Meta aceptó la mayoría del consejo.
Marco legal en Europa
El fallo llega en un momento importante. La Ley de Servicios Digitales de la UE está ahora completamente activa. La ley requiere que plataformas manejen contenido de forma justa. Las plataformas deben explicar eliminaciones. Los usuarios deben tener un proceso claro de apelación.
El artículo 17 de la ley establece que usuarios reciben razones al eliminar. El artículo 20 requiere un sistema interno de reclamaciones. El artículo 21 da derecho a solución externa de disputas.
La Comisión Europea puede multar a plataformas hasta 6 por ciento de ingresos globales. Meta está bajo supervisión directa de la UE.
Reacciones de ambos lados
Los grupos LGBTQ+ celebraron el fallo. ILGA-Europa dijo que demuestra que la moderación falla. El grupo pidió reglas más claras en todas las plataformas. GLAAD dijo que Meta debe actuar más rápido.
Meta aceptó el fallo sobre los posts individuales. Un portavoz dijo que estudiará las recomendaciones más amplias. Meta señaló que elimina millones de posts semanalmente. La empresa dijo que pueden ocurrir errores a esa escala.
Algunos grupos de libertad de expresión también comentaron. Dijeron que el fallo muestra riesgos de reglas estrictas. Quieren que plataformas eliminen menos contenido, no más. Otros grupos dijeron que Meta aún hace muy poco contra el odio real.
Qué pueden hacer los usuarios
Los usuarios que creen que su contenido se eliminó incorrectamente tienen varias opciones. El primer paso es el botón de apelación en la aplicación. Meta debe responder en tiempo establecido.
Si la apelación falla, usuarios de la UE pueden recurrir a organismos certificados. Estos organismos aparecen en el sitio de la Comisión. El servicio es gratuito o de bajo costo. Las decisiones no son vinculantes pero tienen peso.
Los usuarios pueden presentar una reclamación ante su coordinador nacional. En los Países Bajos, es la Autoridad para Consumidores y Mercados. En Alemania, es la Bundesnetzagentur.
Contexto más amplio
El caso es uno de varios sobre contenido LGBTQ+ en línea. A principios de año, la Junta falló sobre posts trans. La junta también encontró reglas poco claras. TikTok y YouTube enfrentan quejas similares.
Investigadores de la Universidad de Ámsterdam estudiaron 10.000 posts LGBTQ+ en 2024. Encontraron que 14 por ciento fueron eliminados o ocultados incorrectamente. El mismo estudio encontró tasas de error menores en otro contenido.
Perspectivas futuras
Meta tiene 60 días para responder a las recomendaciones. La Junta de Supervisión publicará esa respuesta. La Comisión Europea también observa el caso. Puede usar los hallazgos en sus propias revisiones.
Por ahora, el fallo marca un límite claro. Las plataformas deben considerar el contexto. El lenguaje reclamado no es discurso de odio. Cómo Meta lo aplica se verá en los próximos meses.