header-logo

Comunicações de marketing orientadas por inteligência artificial

iCrowdNewswire Portuguese

Google "corrigiu" o seu algoritmo racista, removendo gorilas da tecnologia de marcação de imagem

Jan 19, 2018 8:00 AM ET

Nearly three years after the company was called out, it hasn’t gone beyond a quick workaround

De volta em 2015, o engenheiro de software Jacky Alciné apontou que os algoritmos de reconhecimento de imagem no Google Photos classificavam seus amigos negros como “gorilas”. O Google disse que estava “consternado” com o erro, pediu desculpas a Alciné e prometeu resolver o problema. Mas, como um novo relatório dos shows da Wired , quase três anos e o Google não corrigiu nada. A empresa simplesmente bloqueou seus algoritmos de reconhecimento de imagem de identificar gorilas completamente – preferindo, presumivelmente, limitar o serviço ao invés de arriscar outra categorização incorreta.

Wired diz que realizou uma série de testes no algoritmo do Google Photos, carregando dezenas de milhares de imagens de vários primatas para o serviço. Babuínos, gibões e sagüis estavam todos corretamente identificados, mas gorilas e chimpanzés não eram. A publicação também descobriu que o Google restringiu o seu reconhecimento AI em outras categorias raciais. Procurando por “homem negro” ou “mulher negra”, por exemplo, apenas retornou fotos de pessoas em preto e branco, ordenadas por gênero, mas não de raça.

 
PnSmM_normal.jpg “/> Jacky Alciné @jackyalcine
 

Google Fotos, todos fodidos. Meu amigo não é um gorila.

 

Um porta-voz do Google confirmou à Wired que as categorias de imagens “gorila”, “chimpanzé”, “chimpanzé” e “macaco” permaneceram bloqueadas no Google Fotos após o tweet da Alciné em 2015. “A tecnologia de rotulagem de imagem ainda é cedo e, infelizmente, está perto de perfeito “, disse o representante. As categorias ainda estão disponíveis em outros serviços do Google, no entanto, incluindo a Cloud Vision API que vende para outras empresas e o Assistente do Google.

Pode parecer estranho que a Google, uma empresa que geralmente é vista como o precursor da IA ​​comercial, não conseguiu encontrar uma solução mais completa para este erro. Mas é uma boa lembrança de quão difícil pode ser para treinar o software AI para ser consistente e robusto. Especialmente (como se poderia imaginar que aconteceu no caso do erro Google Photos) quando esse software não foi treinado e testado por um grupo diversificado de pessoas.

Não é claro, neste caso, se o algoritmo Google Photos permanece restrito dessa maneira porque o Google não conseguiu solucionar o problema, não queria dedicar os recursos para fazê-lo, ou simplesmente mostra uma superabundância de cautela. Mas é claro que incidentes como este, que revelam a cultura do Vale do Silício, muitas vezes insular, que se encarregou de construir algoritmos de abrangência mundial, precisam de mais do que soluções rápidas.

See Campaign: https://www.theverge.com/2018/1/12/16882408/google-racist-gorillas-photo-recognition-algorithm-ai
Contact Information:
James Vincent

Tags:
, Wire, Artificial Intelligence Newswire, United States, Portuguese

image


Keywords:  afds, afdsafds

Tags:  News