La red social Bluesky ha anunciado una actualización significativa en su sistema de moderación, con el objetivo de adaptarse al rápido crecimiento de su comunidad internacional, que ya supera los 40 millones de usuarios.
Este avance busca ofrecer herramientas más precisas para reportar contenido inapropiado, facilitar el trabajo de los moderadores y brindar mayor transparencia a quienes infringen las normas.
Uno de los cambios más relevantes es la ampliación del catálogo de motivos para denunciar publicaciones.
La plataforma pasa de 6 a 39 opciones, permitiendo que los reportes sean más específicos y detallados. Entre las nuevas categorías se incluyen acoso, intimidación juvenil, contenido relacionado con trastornos alimentarios y situaciones vinculadas a trata de personas.
Esta diversificación pretende mejorar la calidad de la moderación y agilizar la respuesta ante problemas emergentes en distintas regiones del mundo.
El sistema también introduce mejoras para los usuarios que han cometido infracciones.
A partir de ahora, todas las faltas se registrarán en un solo panel, en lugar de aparecer separadas por cada política quebrantada.
Con ello, los infractores podrán conocer con claridad qué norma violaron, el nivel de gravedad, cuántas infracciones han acumulado y cuánto falta para que se tomen medidas en su contra.
En caso de suspensión, también se indicará de manera explícita la duración y la fecha en que se hace efectiva.
Estas modificaciones buscan proporcionar una moderación más clara, justa y eficiente tanto para los usuarios como para el equipo que revisa los reportes.
“Nuestro objetivo es garantizar una aplicación coherente y responsable de las normas, mientras atendemos a nuestra creciente comunidad global”, señaló la compañía en un comunicado.
Con este ajuste, Bluesky continúa fortaleciendo su estructura interna para mantener un entorno seguro y transparente en medio de su acelerada expansión mundial.
