header-logo

Comunicações de marketing orientadas por inteligência artificial

iCrowdNewswire Portuguese

Apple atualiza políticas de privacidade após a gravação de áudio Siri Backlash

Sep 14, 2019 6:54 AM ET

O processo de “nivelamento” da Apple, que escuta as gravações de voz da Siri, será agora em casa e tem uma opção para os usuários optarem por sair.

A Apple está a tomar medidas para melhorar a privacidade do áudio recolhido pelo seu assistente de voz Siri, nos saltos de folga em torno de um programa que permitem que os empreiteiros ouvir conversas Siri.

Na quarta-feira, o gigante do telefone se desculpou por violar a privacidade dos usuários através do programa, que foi implementado a fim de melhorar a precisão de áudio, um processo que a Apple chama de “classificação”. Avançando, a Apple disse que os clientes terão agora a opção de optar por sair do processo de “nivelamento”, e que ele irá mover o programa em casa (versus antes, quando estava contratando empreiteiros de terceiros para ouvir o áudio).

“Sabemos que os clientes estão preocupados com relatos recentes de pessoas ouvindo gravações de áudio Siri como parte do nosso processo de avaliação de qualidade Siri-que chamamos de classificação”, disse a Apple em um post de quarta-feira. “Ouvimos suas preocupações, imediatamente suspendeu a classificação humana dos pedidos de siri e iniciou uma revisão minuciosa de nossas práticas e políticas. Decidimos fazer algumas alterações no Siri como resultado. “

No início de agosto, a Apple suspendeu o programa depois de um antigo empreiteiro para a Apple detalhado no Guardian como empreiteiros regularmente ouvir gravações de voz íntima-incluindo negócios de drogas ou gravações de casais fazendo sexo. Enquanto os clipes são anônimos e não se conectam a nomes ou IDs de indivíduos, eles podem conter informações confidenciais, tais como dados financeiros, levando a uma chuva de folga sobre as implicações de privacidade do programa.

A Apple na quarta-feira disse que o programa vai retomar no Outono com novas melhorias voltadas para a privacidade.

Para um, os usuários terão a opção de optar por sair do programa, de modo que as amostras de suas solicitações de áudio não serão incluídas no processo de “nivelamento”. “

A Apple também não manterá as gravações de áudio das interações Siri por padrão e, em vez disso, confiará em transcrições geradas por computador para os esforços para melhorar a Siri (para aqueles que não optarem pelo programa). As gravações de áudio serão armazenadas somente para usuários que optarem pela classificação – elas não serão armazenadas por padrão, a menos que os usuários optem por.

E, se os usuários optarem por aderir ao programa, apenas os funcionários da Apple – não contratados – serão autorizados a ouvir as amostras de áudio de interação Siri, disse a Apple.

“Esperamos que muitas pessoas escolherão ajudar a Siri a melhorar, sabendo que a Apple respeita seus dados e tem controles de privacidade fortes no lugar”, disse a Apple. “Aqueles que optarem por participar serão capazes de recusar a qualquer momento.”

Ao mesmo tempo, de acordo com um relatório no Guardian, a Apple também encerrou contratos para centenas de trabalhadores contratados como parte do programa de “nivelamento”.

Os processos têm aumentado o escrutínio em torno de quanto os dados estão sendo coletados por assistentes de voz, o que esses dados são, quanto tempo ele está sendo mantido e quem acessa-lo. Amazon encontrou-se recentemente na água quente sobre uma edição similar do empregado-escuta e da gravação, por exemplo.

Tanto o Google Home quanto o Amazon Alexa enfrentaram sua própria folga em torno do processo de empreiteiros ouvindo gravações para a precisão do áudio: em abril, a Amazônia foi empurrada para o centro das atenções por uma razão semelhante, depois que um relatório revelou que a empresa emprega milhares de auditores para ouvir as gravações de voz dos usuários do Echo. O relatório constatou que os revisores da Amazon Sift Heads através de até 1.000 Alexa clipes de áudio por turno-ouvindo em tudo, desde conversas mundanas para as pessoas cantando no chuveiro, e até mesmo gravações que são perturbador e potencialmente criminoso, como uma criança gritando por socorro ou agressão sexual. A Amazônia também enfrenta ações judiciais de pais que dizem que Alexa registra seus filhos sem consentimento.

E em julho, os alto-falantes inteligentes do Google Home e o assistente virtual do Google Assistant foram capturados sem permissão — capturando e gravando áudio altamente pessoal de violência doméstica, chamadas comerciais confidenciais — e até mesmo alguns usuários pedindo seus alto-falantes inteligentes para jogar pornografia em seus dispositivos móveis conectados.

Contact Information:

threatpost.com
Keywords:  afds, afdsafds

Tags:  Latin America, News, North America, Portuguese, Press Release, South America, United States, Wire