Tecnología

Australia impone medidas estrictas para combatir 'deepfakes' y abuso infantil en línea

Published November 19, 2023

Australia está a la vanguardia de una iniciativa mundial única destinada a combatir el abuso sexual infantil en línea y el contenido proterrorista en los servicios de tecnología y redes sociales. Gigantes tecnológicos como Apple, Google y Meta tendrán que esforzarse más por eliminar este contenido ilícito de sus plataformas, siguiendo los estándares de la industria impuestos por la Comisionada de eSafety de Australia, Julie Inman Grant. Estas medidas no solo buscan erradicar el contenido abusivo existente, sino también hacer frente a la creación de pornografía infantil 'deepfake' mediante inteligencia artificial generativa.

Definiendo las Nuevas Normas

Tras más de dos años de trabajo y el rechazo de códigos preliminares propuestos por la industria tecnológica, los nuevos lineamientos afectarán servicios de almacenamiento en la nube como iCloud de Apple, Google Drive y Microsoft OneDrive, además de servicios de mensajería como WhatsApp. Estos servicios deberán intensificar sus esfuerzos para limpiar sus plataformas de contenido ilícito sin que por ello tengan que vulnerar su propio cifrado de extremo a extremo, una característica presente en varias de estas aplicaciones.

Impacto y Alcance de las Intervenciones

Si bien las grandes plataformas tecnológicas cuentan con políticas que prohíben el material de abuso sexual infantil en sus servicios públicos, Inman Grant señala que no se ha hecho lo suficiente para supervisar sus propias plataformas. El monitoreo de señales de comportamiento inusual y la inspección de partes no cifradas de servicios de mensajería son algunos ejemplos de las medidas adoptadas. WhatsApp, por ejemplo, genera más de un millón de informes de explotación y abuso sexual infantil cada año utilizando este tipo de métodos.

Además, los estándares también buscan regular el material de abuso y propaganda terrorista generado con software de código abierto y AI generativa. Un ejemplo alarmante es la creación de pornografía 'deepfake' de compañeros de clase por parte de estudiantes australianos que luego se comparte en entornos escolares.

Consultas Públicas y Próximos Pasos

La Comisionada de eSafety ha iniciado un período de consulta pública sobre los estándares propuestos, el cual durará 31 días. Una vez finalizado este proceso, los estándares finales serán presentados ante el parlamento federal y entrarán en vigor seis meses después de su registro. Este marco regulatorio pionero relacionado con la inteligencia artificial, en particular cierra el paso a abusos potenciales en la fase de diseño de las plataformas y aplicaciones.

La Responsabilidad de las Grandes Corporaciones

En el marco de estas nuevas regulaciones, se insta a las compañías tecnológicas a contar con el personal y recursos adecuados de confianza y seguridad, y a no hacer oídos sordos frente a 'escenas de crimen en vivo' en sus plataformas. La omisión de responsabilidad en esta área quedó evidenciada cuando la empresa X, anteriormente conocida como Twitter, se negó a pagar una multa impuesta por la Comisionada de eSafety por no abordar adecuadamente el material de explotación infantil. La disputa entre la empresa y la comisionada continúa ahora en la corte.

tecnología, seguridad, regulación