A Apple está a tomar medidas para melhorar a privacidade do áudio recolhido pelo seu assistente de voz Siri, nos saltos de folga em torno de um programa que permitem que os empreiteiros ouvir conversas Siri.
Na quarta-feira, o gigante do telefone se desculpou por violar a privacidade dos usuários através do programa, que foi implementado a fim de melhorar a precisão de áudio, um processo que a Apple chama de “classificação”. Avançando, a Apple disse que os clientes terão agora a opção de optar por sair do processo de “nivelamento”, e que ele irá mover o programa em casa (versus antes, quando estava contratando empreiteiros de terceiros para ouvir o áudio).
“Sabemos que os clientes estão preocupados com relatos recentes de pessoas ouvindo gravações de áudio Siri como parte do nosso processo de avaliação de qualidade Siri-que chamamos de classificação”, disse a Apple em um post de quarta-feira. “Ouvimos suas preocupações, imediatamente suspendeu a classificação humana dos pedidos de siri e iniciou uma revisão minuciosa de nossas práticas e políticas. Decidimos fazer algumas alterações no Siri como resultado. “
No início de agosto, a Apple suspendeu o programa depois de um antigo empreiteiro para a Apple detalhado no Guardian como empreiteiros regularmente ouvir gravações de voz íntima-incluindo negócios de drogas ou gravações de casais fazendo sexo. Enquanto os clipes são anônimos e não se conectam a nomes ou IDs de indivíduos, eles podem conter informações confidenciais, tais como dados financeiros, levando a uma chuva de folga sobre as implicações de privacidade do programa.
A Apple na quarta-feira disse que o programa vai retomar no Outono com novas melhorias voltadas para a privacidade.
Para um, os usuários terão a opção de optar por sair do programa, de modo que as amostras de suas solicitações de áudio não serão incluídas no processo de “nivelamento”. “
A Apple também não manterá as gravações de áudio das interações Siri por padrão e, em vez disso, confiará em transcrições geradas por computador para os esforços para melhorar a Siri (para aqueles que não optarem pelo programa). As gravações de áudio serão armazenadas somente para usuários que optarem pela classificação – elas não serão armazenadas por padrão, a menos que os usuários optem por.
E, se os usuários optarem por aderir ao programa, apenas os funcionários da Apple – não contratados – serão autorizados a ouvir as amostras de áudio de interação Siri, disse a Apple.
“Esperamos que muitas pessoas escolherão ajudar a Siri a melhorar, sabendo que a Apple respeita seus dados e tem controles de privacidade fortes no lugar”, disse a Apple. “Aqueles que optarem por participar serão capazes de recusar a qualquer momento.”
Ao mesmo tempo, de acordo com um relatório no Guardian, a Apple também encerrou contratos para centenas de trabalhadores contratados como parte do programa de “nivelamento”.
Os processos têm aumentado o escrutínio em torno de quanto os dados estão sendo coletados por assistentes de voz, o que esses dados são, quanto tempo ele está sendo mantido e quem acessa-lo. Amazon encontrou-se recentemente na água quente sobre uma edição similar do empregado-escuta e da gravação, por exemplo.
Tanto o Google Home quanto o Amazon Alexa enfrentaram sua própria folga em torno do processo de empreiteiros ouvindo gravações para a precisão do áudio: em abril, a Amazônia foi empurrada para o centro das atenções por uma razão semelhante, depois que um relatório revelou que a empresa emprega milhares de auditores para ouvir as gravações de voz dos usuários do Echo. O relatório constatou que os revisores da Amazon Sift Heads através de até 1.000 Alexa clipes de áudio por turno-ouvindo em tudo, desde conversas mundanas para as pessoas cantando no chuveiro, e até mesmo gravações que são perturbador e potencialmente criminoso, como uma criança gritando por socorro ou agressão sexual. A Amazônia também enfrenta ações judiciais de pais que dizem que Alexa registra seus filhos sem consentimento.
E em julho, os alto-falantes inteligentes do Google Home e o assistente virtual do Google Assistant foram capturados sem permissão — capturando e gravando áudio altamente pessoal de violência doméstica, chamadas comerciais confidenciais — e até mesmo alguns usuários pedindo seus alto-falantes inteligentes para jogar pornografia em seus dispositivos móveis conectados.