24 de ago. de 2021

Apple já está a verificar os e-mails à procura de material de abuso de crianças

 A Apple quer mesmo remover do seu ecossistema qualquer material que seja relacionado com abuso de crianças. Esta ação levou já à deteção e acusação de um utilizador que tinha mais de 2 mil imagens e vídeos na sua conta iCloud.

Apesar de só agora se estar a abordar mais o tema, porque é um sistema que será incluído no iOS 15 e iPadOS 15, a Apple já o utilizava no iCloud Mail.

Imagem iCloud Mail

Muitos fãs Apple ficaram aborrecidos com o plano da empresa de começar a monitorizar os uploads de fotografias para o iPhone e iPad, no iOS 15, de material relacionado com abusos de crianças (CSAM). Contudo, a Apple já o fazia no iCloud, mais concretamente no serviço de email.

A empresa já tinha o sistema ativo para detetar pornografia infantil no correio eletrónico do iCloud, apesar de não o fazer no iCloud Fotografias ou no iCloud Drive.

Aliás, foi justamente com o serviço ativo que a empresa detetou que um médico guardava mais de 2 mil imagens e vídeos na sua conta iCloud.

Imagem iCloud Mail da Apple com CSAM

Quando começou a Apple a usar o sistema de deteção CSAM?

Muito embora só agora a empresa tenha anunciado com mais detalhe a utilização do sistema que irá monitorizar os uploads de imagens para os iPhone e iPad, a Apple já o usava há algum tempo.

Segundo o que foi revelado na CES em janeiro de 2020, o sistema de deteção Child Sexual Abuse Material ou CSAM, começou a ser usado no iCloud Mail em 2019. Diz a gigante de Cupertino que as contas que tenham conteúdo CSAM violam os seus termos e condições, e serão desativadas.

Depois do anúncio recente, houve um coro de vozes de discordância do novo sistema. No entanto, é de total interesse dos responsáveis que avance o rastreio.

 

O sistema preserva a privacidade dos utilizadores?

A Apple assegura que todos os utilizadores terão total privacidade e segurança. O novo sistema de deteção de material de abuso sexual infantil (CSAM) utiliza a aprendizagem automática para analisar anexos de imagem e determinar se uma foto é sexualmente explícita.

funcionalidade é concebida de modo a que a Apple não tenha acesso às imagens.

Apesar da explicação da Apple, os defensores da privacidade não gostam deste sistema. Alguns dos próprios funcionários da Apple manifestaram as suas preocupações a este respeito.

As organizações de direitos têm exortado Tim Cook a matá-lo antes mesmo de começar a chegar aos iPhones e iPads nos Estados Unidos. Contudo, a monitorização CSAM não é novidade na Apple.

Tal como os filtros de spam no correio eletrónico, o nosso sistema utiliza assinaturas eletrónicas para encontrar suspeitas de exploração infantil. Validamos cada correspondência com análise individual.

Contas com conteúdo de exploração infantil violam os nossos termos e condições de serviço, e quaisquer contas que encontrarmos com este material serão desativadas.

Referiu a empresa de Cupertino.

Ilustração abuso de crianças CSAM

 

A Apple aumenta a monitorização de material CSAM

As razões por detrás da decisão da Apple de expandir a digitalização CSAM ainda não são completamente claras. Mas de acordo com uma conversa entre funcionários da Apple em 2020, descoberta como parte das alegações na batalha legal em curso entre a Apple e a Epic Games, o responsável anti-fraude Eric Friedman descreveu a Apple como "a maior plataforma para a distribuição de pornografia infantil".

Apesar desta afirmação, acredita-se que o número total de casos CSAM descobertos pela Apple no iCloud Mail em cada ano é "medido às centenas". Isso não parece tão significativo - embora apenas um seja totalmente inaceitável - considerando que milhares de milhões de dispositivos Apple são utilizados a nível mundial.

A expansão poderá sim ter algo a ver com o facto de alguns dos rivais da Apple, incluindo a Microsoft, estarem também a procurar conteúdo CSAM. A Apple pode ter sentido que não fica bem "na fotografia" se não avançar como outras plataformas estão a fazer.

Fonte: Pplware.