Australia denuncia el escaso compromiso de las tecnológicas frente al abuso infantil en línea

[responsivevoice_button voice="Spanish Latin American Male" buttontext="Escuchar Noticia"]
Compartir en

En un nuevo informe emitido por la Comisión de eSafety de Australia, se critica duramente a gigantes tecnológicos como Apple, Google (YouTube), Meta, Microsoft, WhatsApp, Discord y Skype por ofrecer “esfuerzos mínimos” en la lucha contra el abuso sexual infantil en línea.

Principales hallazgos del informe:

  • Apple y YouTube no registran la cantidad de denuncias recibidas ni informan sobre el tiempo de respuesta a estas denuncias.
  • Ninguna plataforma utiliza detección de transmisiones en vivo de abuso sexual infantil, ni implementa el bloqueo de enlaces a contenido ilegal de forma sistemática.
  • Apple, Discord, Google y Microsoft no usan hash‑matching en todos sus servicios para identificar contenido previamente reportado y peligroso.
  • Solo firmas como Discord, Microsoft y WhatsApp han incrementado el uso de tecnologías como hash‑matching y detección automática en ciertos servicios, aunque esos avances aún son insuficientes.

La comisionada Julie Inman Grant enfatizó que, pese a comunicarse con estas empresas desde 2022 y 2023, no se han observado mejoras tangibles ni un real compromiso con la seguridad de niños y adolescentes en línea .

Medidas regulatorias y contexto legal

Australia obliga a estas plataformas a presentar informes cada seis meses sobre las acciones que implementan bajo la Online Safety Act de 2021, con multas de hasta aproximadamente A$800 000 por día en casos de incumplimiento. Recientemente, también incorporó YouTube en la lista de plataformas prohibidas para menores de 16 años, revirtiendo una excepción inicial debido a las deficiencias detectadas .

Además, una corte federal australiana rechazó el recurso de X Corp. (antes Twitter), reafirmando que las empresas siguen sujetas a las obligaciones de informar y responder a las autoridades, incluso tras rebranding.

¿Qué implica todo esto?

El informe subraya una disonancia entre los recursos disponibles y los resultados en materia de protección infantil. A pesar de tecnologías prometedoras como la IA, las plataformas muestran una falta de transparencia y lentitud en sus mecanismos internos, lo que incrementa la exposición de menores a dinámicas de grooming, extorsión sexual y distribución de contenido ilegal.

La comisionada advierte que sigue siendo imprescindible mantener la presión sobre estas empresas para que cumplan con su responsabilidad social y legal: proteger a los usuarios más vulnerables.


Compartir en

Te Puede Interesar