6 de ago. de 2021

Apple lança a segunda beta do firmware AirPods Pro com Conversation Boost

 Há pouco mais de uma semana, a Apple lançou o primeiro firmware beta dos AirPods Pro para programadores. Agora está disponível a segunda versão. Basicamente, permite aos programadores testar novas funcionalidades nos AirPods Pro, incluindo o Conversation Boost, Redução de Ruído Ambiente, e áudio espacial no FaceTime.

Esta é a beta versão 4A362b e o processo de instalação segue o mesmo método da primeira versão.

Imagem AirPods Pro

De acordo com o site de programadores da Apple, esta nova

atualização traz-nos suporte para Conversation Boost,

um novo recurso do iOS 15 que utiliza os dois

microfones com tecnologia beamforming para aumentar

o volume nas conversas, algo muito útil para quando

estamos em ambientes com muito barulho.

 

Como podemos instalar esta versão?

A Apple prometeu que o firmware beta dos AirPods Pro estaria disponível em algum momento deste verão, na WWDC deste ano, e esta semana lançou a segunda versão beta disponível nos downloads do site de Developers.

Segundo a Apple:

Instalado nos seus AirPods Pro, o software beta não

 

pode ser removido. A sua unidade continuará a

 

executar este software até que uma versão não

 

beta atualizada do software seja lançada.

 

Nesse ínterim, o utilizador receberá

 

automaticamente quaisquer atualizações

 

de software beta adicionais, desde que

 

tenha ativado os seus AirPods Pro para

 

recebê-las usando as etapas abaixo.

Antes de mais, e já lá vamos aos requisitos, tenham em

atenção que para os seus AirPods instalarem e

usarem este novo firmware é preciso de ter um 

Mac com o Xcode 13 beta, um iPhone com o iOS 15 

beta 4 e um conjunto de AirPods Pro totalmente

carregado.

Primeiro, precisará de instalar um perfil de configuração no iPhone, em seguida, emparelhar os AirPods Pro com o iPhone e, depois, usar o Xcode para permitir que os AirPods Pro recebam atualizações de software beta.

Então, o processo que a Apple exige é o seguinte:

  • Ligue o seu iPhone ao Mac.
  • Inicie o Xcode 13 beta 4 no seu Mac.
  • No iPhone, vá para Definições > Programador e escolha Firmware Beta de Pré-lançamento.
  • Encontre os seus AirPods Pro na lista de dispositivos emparelhados e escolha-os para ativar as atualizações automáticas de software beta.
  • Leia e siga as instruções no ecrã para receber atualizações de software beta. Por favor, seja paciente; pode levar até 24 horas para receber e instalar estas atualizações.

Tal como foi já referido em cima, esta primeira versão beta traz Áudio Espacial para FaceTime e Redução de Ruído Ambiental.

O Áudio espacial no FaceTime: cria um campo sonoro que ajuda as conversas a fluir com a mesma facilidade com que o fazem frente a frente. As vozes dos seus amigos são espalhadas para soar como se estivessem a vir da direção em que estão posicionados na chamada.

A Apple explica todo o processo num PDF que disponibiliza na área de download do perfil do firmware para AirPods Pro.

Fonte: Pplware.

Apple promove apps que vão contra as suas próprias regras da App Store

 Não há dúvida nenhuma que a App Store é a loja de aplicações mais rígida e seletiva que existe. É conhecida pelos seus requisitos apertados e regras bastante restritas. Mas, será que é mesmo assim para todas as apps?

De acordo com alguns relatos, parece que a App Store da Apple tem promovido aplicações que vão contra as suas próprias regras.

App Store promove apps que vão contra as suas regras

Ao analisarmos com alguma atenção as Diretrizes de Revisão da App Store, podemos ler que, segundo a Apple, "não distribuiremos apps e itens de compra na app que sejam claramente fraudulentos. Rejeitaremos aplicações caras que tentam enganar os utilizadores com preços irracionalmente altos".

No entanto, segundo alguns utilizadores, parece que a loja de aplicações da maçã está a infringir as suas próprias leis. O alerta foi dado por vários utilizadores australianos que indicam que a Apple tem promovido apps duvidosas na App Store, As queixas indicam que, no geral, tratam-se de apps de relaxamento onde se pagam assinaturas com valores exorbitantes.

Segundo as informações, há aplicações que podem estar a levar os utilizadores a pagar cerca de 679 dólares australianos (~423 euros) por ano. O utilizador Beau Nouvelle indica que algumas apps têm uma subscrição semanal a rondar os 10 dólares (~8,5 euros).

App 'Jelly: Slime simulator' é um dos exemplos

O programador Simeon, a app "Jelly: Slime simulator, ASMR" é uma das indicadas, onde o objetivo é dar a sensação de que se está a manipular slimes através do ecrã do smartphone. Esta aplicação conta com um teste gratuito ao longo de três dias, mas após esse período cobra 9,64 dólares (~8,17 euros) por semana.

Segundo escreveu Simeon na sua conta da rede social Twitter:

Como programador que não quer enganar as pessoas (não quero o seu dinheiro acidentalmente! Nem quero cobrar quantias obscenas por coisas triviais). Isto torna difícil para alguém confiar em nós e na App Store.

Já Nouvelle refere que a loja da Apple já promoveu anteriormente estas apps e, segundo descreve "uma delas nem fazia nada".

Para já a Apple não comentou a situação.

Fonte: Pplware.

Como funciona o novo sistema da Apple para verificação de conteúdo de pornografia infantil

 A Apple revelou ontem uma série de três medidas destinadas a proteger as crianças de várias maneiras. Um sistema triplo de mais informações através da Siri, uma monitorização do conteúdo do iCloud Fotografias para detetar pornografia infantil e um sistema de prevenção contra imagens explícitas na app Mensagens (iMessage) para utilizadores menores de 13 anos.

Estas medidas chegarão com iOS 15, iPadOS 15 e macOS 12 Monterey e vão ampliar as proteções para crianças sempre com total respeito pela privacidade de todos os dados. Então, como vai funcionar a verificação nas aplicações referidas?

Imagem sistema da Apple contra abuso de crianças e pornografia infantil

Apple aplica medidas no combate à pornografia infantil

Apple deixou 3 medidas e vamos explicar com mais detalhe como vão funcionar. Sobretudo, vamos entender como funciona a deteção de imagens de menores nas fotos do iCloud e as medidas de segurança da app Mensagens (iMessage) contra fotos explícitas.

As tecnologias visam a privacidade dos utilizadores, mas, sobretudo, a proteção dos menores.

 

1 - Segurança na comunicação de Mensagens

Conforme refere a Apple no seu site, o novo sistema de segurança de comunicações iMessage detetará e bloqueará imagens explícitas recebidas em conversas de crianças menores de 13 anos.

Esta é uma configuração opcional que os pais podem ajustar se desejarem e cuidará de ocultar as imagens inadequadas das conversas.

Exemplo da ferramenta de proteção às crianças contra a pornografia infantil

No entanto, a criança terá a opção de ver a imagem. O sistema atua ocultando a imagem e se esta for clicada a criança recebe uma mensagem a alertar que tal imagem pode ser sensível e explica a situação em três pontos:

  1. que as fotos sensíveis mostram partes do corpo que estão cobertas por fato de banho/roupa interior;
  2. que essas imagens podem ser usadas para prejudicar a sensibilidade;
  3. que a pessoa que aparece neles pode não querer ser vista.

Após esta explicação, o sistema permite à criança clicar nas opções "Agora não" ou "Tenho certeza".

Ao clicar na segunda opção, o sistema avisa que os pais "querem ter a certeza de que está bem", pelo que receberão uma notificação.

Também alerta a criança para não partilhar nada que não queira mesmo partilhar e para falar com alguém em quem confie se se sentir pressionada, e finalmente, oferece ajuda, afirmando que não está sozinha em certas situações. Depois oferece "Não ver a foto" ou "Ver a foto".

Conforme referimos, este sistema está concebido apenas para crianças menores de 13 anos, desde que os seus pais o considerem apropriado para o ativar.

A forma como a informação é comunicada, embora na língua das crianças, é muito clara e revela uma operação muito simples: se uma imagem explícita for detetada, é bloqueada, é dada a opção de escolher e os pais são avisados se for vista.

Este sistema funciona graças à aprendizagem automática no próprio dispositivo que analisa as imagens recebidas e também enviadas através do iMessage para apresentar avisos apropriados. Uma vez que todo o processamento ocorre localmente no dispositivo, ninguém, nem mesmo a Apple, tem acesso às mensagens, mantendo a segurança da app Mensagens em que confiamos.

 

2 - Deteção de imagens de menores no iCloud

A outra medida que a Apple irá implementar é a deteção de imagens de menores de idade em bibliotecas de fotografia no iCloud. Um sistema que, mantendo a privacidade de todos os utilizadores, permitirá informar os organismos competentes caso sejam detetadas imagens que violem a lei. Como, por exemplo, pornografia infantil, entre outros abusos a crianças.

Em vez de monitorizar as imagens na cloud, com a consequente deterioração da privacidade, a Apple propõe um sistema que compara imagens de dispositivos com uma base de dados local. Esta base de dados é armazenada de forma segura no dispositivo e contém versões em hash das imagens relatadas pelas agências responsáveis, de modo a que o seu conteúdo seja completamente ilegível.

Estes hashes são concebidos de tal forma que não só representam a imagem original, mas também permitem variações da imagem original, tais como transformar a imagem em preto e branco ou cortar partes da mesma. Desta forma, versões da mesma imagem podem ser detetadas.

O sistema funciona de tal forma bem que antes de uma imagem ser carregada no iCloud Fotografias o dispositivo gera um hash da imagem e compara-a localmente com hashes de imagem relatados. O resultado desta verificação é ilegível a partir do dispositivo, em vez de ser aí analisado, o sistema envia um vouchers encriptado que é carregado para iCloud Fotografias junto com a imagem.

Então, é aqui que entra em jogo outra tecnologia, chamada threshold shared secretcy. Simplificando, a chave para decifrar o conteúdo dos vouchers cifrados é dividida em X fragmentos. Quando existem vouchers suficientes numa conta, a Apple recebe todos os pedaços da chave completa e pode decifrar o conteúdo destes vouchers, com as imagens que foram carregadas, revendo-as manualmente.

Imagem com o exemplo de validação de conteúdo encriptado de imagens

O limiar do voucher é estabelecido de forma a garantir que existe apenas uma hipótese em mil milhões por ano de marcar incorretamente determinado conteúdo.

Uma vez ultrapassado o limiar do voucher, a Apple recebe um relatório que pode decifrar e verificar manualmente. Se for confirmado que as imagens carregadas correspondem às da base de dados, a Apple suspende a conta e informa as autoridades. No entanto, oferece um sistema de recurso para restabelecer a conta se o utilizador considerar que foi cometido um erro.

Este mecanismo, que funcionará enquanto o dispositivo tiver o iCloud Fotografias ativado, foi concebido para proteger totalmente a nossa privacidade e, ao mesmo tempo, permitir-nos detetar imagens ilegais no sistema.

 

3 - Expandir a orientação na Siri e na Pesquisa

Por último, mas não menos importante, a Apple também está a expandir a orientação na Siri e na Pesquisa, fornecendo recursos adicionais para ajudar crianças e pais a se manterem seguros online e obter ajuda em situações inseguras.

Por exemplo, os utilizadores que perguntam à Siri como podem relatar Material de Abuso Sexual Infantil (CSAM) ou exploração infantil serão direcionados a recursos sobre onde e como registar uma denúncia.

Imagem da Siri da Apple a alertar sobre conteúdo abusivo

A Siri e a Pesquisa também estão a ser atualizadas para intervir quando os utilizadores realizam pesquisas para consultas relacionadas ao CSAM. Estas intervenções irão explicar aos utilizadores que o interesse neste tópico é prejudicial e problemático, fornecendo recursos de parceiros para obter ajuda sobre este assunto.

Estas atualizações para a Siri e Pesquisa serão lançadas no final deste ano numa atualização para iOS 15, iPadOS 15, watchOS 8 e macOS Monterey.

Em resumo, estas novas ferramentas nos mais recentes sistemas operativos da Apple visam combater a pornografia infantil e outros atos abusivos perpetrados às crianças.

Fonte: Pplware.