Miércoles 18 de junio de 2025
Tecnología

Instagram suspende por error cuentas tras acusarlas de contenido sexual infantil

La teoría que más peso está ganando entre los afectados es que Instagram ha empezado a utilizar un sistema de inteligencia artificial para detectar infracciones automáticamente

Instagram suspende por error cuentas tras acusarlas de contenido sexual infantil
Foto: referencial
Facebook Twitter Whatsapp Telegram

En las últimas semanas, una oleada significativa de suspensiones y baneos en Instagram ha prendido las alarmas de miles de usuarios en todo el mundo. Lo más curioso de esto es que la mayoría afirma que no hicieron nada que violara las políticas de la red social. Usuarios de Reddit, X, foros como Wilders Security y plataformas como Discord están reportando que, de buenas a primeras, sus cuentas fueron bloqueadas, aparentemente sin violar ningún término de servicio ni política interna.

La situación se ha salido tanto de control que ya no se trata de casos aislados: son cientos, quizás miles de perfiles afectados en distintos países. Algunos cuentan con años de historial sin una sola infracción. Y sin embargo, han recibido notificaciones que los acusan de conductas graves, en particular de haber publicado contenido relacionado con explotación infantil, una acusación que puede tener consecuencias irreparables incluso fuera de la plataforma.

No se trata solo de perder fotos o seguidores: muchos creadores de contenido, influencers y dueños de pequeños negocios que usan Instagram como su principal canal de ventas están viendo afectadas sus fuentes de ingreso. Como decía un usuario en X: “Mi cuenta de fotografía fue suspendida sin explicación. No hice nada. Es mi trabajo. Es mi ingreso”.

¿Culpable? Una IA sin filtro humano

La teoría que más peso está ganando entre los afectados es que Instagram ha empezado a utilizar un sistema de inteligencia artificial para detectar infracciones automáticamente, sin una revisión humana previa. Esto habría provocado una serie de falsos positivos, donde cuentas legítimas han sido etiquetadas como violadoras de las normas más delicadas.

Esto ha causado un descontento generalizado. Muchos intentan apelar mediante los canales oficiales, enviando incluso documentos de identidad, pero aseguran que no hay respuesta humana detrás del sistema de soporte. Se sienten ignorados, como si sus apelaciones cayeran en un buzón automático sin retorno.

Algunos sospechan que la IA de Meta está siendo entrenada con modelos muy estrictos y que cualquier imagen ambigua puede ser malinterpretada como contenido sensible, especialmente si se combinan señales de otras publicaciones, comentarios o incluso interacciones con terceros.

Aunque Meta no ha confirmado oficialmente el uso de esta IA para moderación de contenido sensible, el hecho de que muchos usuarios estén siendo acusados de lo mismo sin razón aparente y sin contexto sugiere que hay un sistema automatizado detrás de todo esto. Y lo peor: las consecuencias no son reversibles fácilmente.

Impacto real y reacciones crecientes de usuarios

El efecto dominó de esta situación ya está siendo visible en el mundo real. Una petición en Change.org acumula más de 4,000 firmas pidiendo que Meta tome cartas en el asunto. Algunos usuarios, especialmente de Estados Unidos, están organizando una demanda colectiva (class action) para exigir una revisión más justa y responsable del proceso.

Además, ciertos bufetes legales ya están investigando si estas suspensiones pueden considerarse como daño reputacional o económico. En algunos casos, las cuentas afectadas fueron bloqueadas durante semanas, dejando a sus propietarios sin acceso a contactos, mensajes, contenido valioso o clientes.

Un caso relatado en foros especializados señala que un usuario que compartía fotos de su automóvil fue acusado de subir contenido prohibido. La suspensión de su cuenta de Instagram se extendió también a su cuenta personal de Facebook, al estar ambas vinculadas. Tras insistir durante semanas, logró que le devolvieran el acceso, pero describió el proceso como “horrible, automatizado y deshumanizante”.

“Una acusación como esa puede arruinar tu reputación, tu trabajo, tu vida. Instagram no puede confiar solo en máquinas para tomar decisiones así de graves”, escribió otro afectado.

Y la preocupación es válida: una etiqueta de “contenido sexual infantil” puede tener implicaciones legales, sociales y laborales graves, especialmente si no hay forma sencilla de revertir el error.

Lee también: Así Instagram detectará contenido con inteligencia artificial

Noticia al Día/Información de La Opinión

Noticias Relacionadas