Google Brain - Google Brain

Google Brain
Comercial? sim
Tipo de projeto Inteligência artificial e aprendizado de máquina
Localização Mountain View , Califórnia
Local na rede Internet ai .google / brain-team /

O Google Brain é uma equipe de pesquisa em inteligência artificial de aprendizado profundo sob a égide do Google AI , uma divisão de pesquisa do Google dedicada à inteligência artificial. Formado em 2011, o Google Brain combina pesquisa de aprendizado de máquina aberta com sistemas de informação e recursos de computação em grande escala. A equipe criou ferramentas como o TensorFlow , que permitem que redes neurais sejam usadas pelo público, com vários projetos de pesquisa de IA internos. A equipe tem como objetivo criar oportunidades de pesquisa em aprendizado de máquina e processamento de linguagem natural .

História

O projeto Google Brain começou em 2011 como uma colaboração de pesquisa em tempo parcial entre o colega do Google Jeff Dean , o pesquisador do Google Greg Corrado e o professor da Universidade de Stanford Andrew Ng . Ng estava interessado em usar técnicas de aprendizado profundo para resolver o problema da inteligência artificial desde 2006 e, em 2011, começou a colaborar com Dean e Corrado para construir um sistema de software de aprendizado profundo em grande escala, DistBelief , no topo da infraestrutura de computação em nuvem do Google. Google Cérebro começou como um Google X projeto e tornou-se tão bem sucedida que se formou de volta ao Google: Astro Teller disse que o Google Cérebro pago para todo o custo de Google X .

Em junho de 2012, o New York Times relatou que um cluster de 16.000 processadores em 1.000 computadores dedicados a imitar alguns aspectos da atividade cerebral humana treinou-se com sucesso para reconhecer um gato com base em 10 milhões de imagens digitais tiradas de vídeos do YouTube . A história também foi coberta pela Rádio Pública Nacional .

Em março de 2013, o Google contratou Geoffrey Hinton , um pesquisador líder no campo do aprendizado profundo , e adquiriu a empresa DNNResearch Inc. chefiada por Hinton . Hinton disse que dividiria seu futuro tempo entre a pesquisa universitária e o trabalho no Google.

Equipe e localização

O Google Brain foi inicialmente estabelecido pelo Google Fellow Jeff Dean e o professor visitante de Stanford Andrew Ng . Em 2014, a equipe incluiu Jeff Dean, Quoc Le, Ilya Sutskever , Alex Krizhevsky , Samy Bengio e Vincent Vanhoucke. Em 2017, os membros da equipe incluem Anelia Angelova, Samy Bengio, Greg Corrado, George Dahl, Michael Isard, Anjuli Kannan, Hugo Larochelle, Chris Olah, Salih Edneer, Vincent Vanhoucke, Vijay Vasudevan e Fernanda Viegas . Chris Lattner , que criou a linguagem de programação Swift da Apple e depois dirigiu a equipe de autonomia da Tesla por seis meses, juntou-se à equipe do Google Brain em agosto de 2017. Lattner deixou a equipe em janeiro de 2020 e se juntou à SiFive .

Em 2021, o Google Brain é liderado por Jeff Dean , Geoffrey Hinton e Zoubin Ghahramani . Outros membros incluem Katherine Heller, Pi-Chuan Chang, Ian Simon, Jean-Philippe Vert, Nevena Lazic, Anelia Angelova, Lukasz Kaiser, Carrie Jun Cai, Eric Breck, Ruoming Pang, Carlos Riquelme, Hugo Larochelle, David Ha. Samy Bengio deixou a equipe em abril de 2021 com Zoubin Ghahramani assumindo suas responsabilidades.

O Google Research inclui o Google Brain e tem sede em Mountain View, Califórnia . Também possui grupos de satélites em Acra , Amsterdã , Atlanta , Pequim , Berlim , Cambridge (Massachusetts) , Israel , Los Angeles , Londres , Montreal , Munique , Nova York , Paris , Pittsburgh , Princeton , São Francisco , Seattle , Tóquio , Toronto e Zurique .

Projetos

Sistema de criptografia desenvolvido por inteligência artificial

Em outubro de 2016, o Google Brain projetou um experimento para determinar se as redes neurais são capazes de aprender criptografia simétrica segura . Neste experimento, três redes neurais foram criadas: Alice, Bob e Eve. Seguindo a ideia de uma rede adversária geradora (GAN), o objetivo do experimento era que Alice enviasse uma mensagem criptografada a Bob para que Bob pudesse descriptografar, mas o adversário, Eva, não. Alice e Bob mantinham uma vantagem sobre Eve, pois compartilhavam uma chave usada para criptografar e descriptografar . Ao fazer isso, o Google Brain demonstrou a capacidade das redes neurais de aprender a criptografia segura .

Melhoria de imagem

Em fevereiro de 2017, o Google Brain determinou um método probabilístico para converter imagens com resolução de 8x8 para uma resolução de 32x32. O método construído sobre um modelo probabilístico já existente chamado pixelCNN para gerar traduções de pixels.

O software proposto utiliza duas redes neurais para fazer aproximações para a composição de pixels de imagens traduzidas. A primeira rede, conhecida como “rede de condicionamento”, reduz as imagens de alta resolução para 8x8 e tenta criar mapeamentos da imagem 8x8 original para essas imagens de alta resolução. A outra rede, conhecida como “rede anterior”, usa os mapeamentos da rede anterior para adicionar mais detalhes à imagem original. A imagem traduzida resultante não é a mesma imagem em resolução mais alta, mas sim uma estimativa de resolução de 32x32 com base em outras imagens de alta resolução existentes. Os resultados do Google Brain indicam a possibilidade de redes neurais aprimorarem as imagens.

Google Tradutor

A equipe do Google Brain contribuiu para o projeto Google Translate , empregando um novo sistema de aprendizado profundo que combina redes neurais artificiais com vastos bancos de dados de textos multilíngues . Em setembro de 2016, foi lançado o Google Neural Machine Translation ( GNMT ), uma estrutura de aprendizado de ponta a ponta, capaz de aprender com um grande número de exemplos. Anteriormente, a abordagem da tradução automática baseada em frases do Google Translate (PBMT) analisava estatisticamente palavra por palavra e tentava combinar as palavras correspondentes em outros idiomas sem considerar as frases ao redor da frase. Mas em vez de escolher uma substituição para cada palavra individual no idioma desejado, o GNMT avalia os segmentos de palavras no contexto do resto da frase para escolher substituições mais precisas. Em comparação com os modelos PBMT mais antigos, o modelo GNMT obteve uma melhoria de 24% na semelhança com a tradução humana, com uma redução de 60% nos erros. O GNMT também mostrou melhorias significativas para traduções notoriamente difíceis, como chinês para inglês .

Embora a introdução do GNMT tenha aumentado a qualidade das traduções do Google Translate para os idiomas piloto, foi muito difícil criar tais melhorias para todos os seus 103 idiomas. Resolvendo esse problema, a equipe do Google Brain conseguiu desenvolver um sistema GNMT multilíngue , que estendeu o anterior permitindo traduções entre vários idiomas. Além disso, permite Zero-Shot Translations, que são traduções entre duas línguas que o sistema nunca viu explicitamente antes. O Google anunciou que o Google Translate agora também pode traduzir sem transcrever, usando redes neurais. Isso significa que é possível traduzir a fala de um idioma diretamente para o texto em outro idioma, sem primeiro transcrevê-lo para texto. De acordo com os pesquisadores do Google Brain, essa etapa intermediária pode ser evitada usando redes neurais. Para que o sistema aprendesse isso, eles o expuseram a muitas horas de áudio em espanhol junto com o texto em inglês correspondente. As diferentes camadas de redes neurais, replicando o cérebro humano, foram capazes de vincular as partes correspondentes e, posteriormente, manipular a forma de onda de áudio até que fosse transformada em texto em inglês. Outra desvantagem do modelo GNMT é que ele faz com que o tempo de tradução aumente exponencialmente com o número de palavras na frase. Isso fez com que a equipe do Google Brain adicionasse mais 2.000 processadores para garantir que o novo processo de tradução ainda fosse rápido e confiável.

Robótica

Com o objetivo de melhorar os algoritmos tradicionais de controle da robótica, onde novas habilidades de um robô precisam ser programadas à mão , os pesquisadores de robótica do Google Brain estão desenvolvendo técnicas de aprendizado de máquina para permitir que os robôs aprendam novas habilidades por conta própria. Eles também tentam desenvolver formas de compartilhamento de informações entre robôs para que os robôs possam aprender uns com os outros durante seu processo de aprendizagem, também conhecido como robótica em nuvem . Como resultado, o Google lançou a Google Cloud Robotics Platform para desenvolvedores em 2019, um esforço para combinar robótica , IA e nuvem para permitir a automação robótica eficiente por meio de robôs colaborativos conectados à nuvem.

A pesquisa de robótica no Google Brain tem se concentrado principalmente em melhorar e aplicar algoritmos de aprendizado profundo para permitir que os robôs concluam tarefas aprendendo com a experiência, simulação, demonstrações humanas e / ou representações visuais. Por exemplo, os pesquisadores do Google Brain mostraram que os robôs podem aprender a escolher e jogar objetos rígidos em caixas selecionadas, experimentando em um ambiente sem ser pré-programado para isso. Em outra pesquisa, os pesquisadores treinaram robôs para aprender comportamentos como despejar o líquido de um copo; robôs aprenderam com vídeos de demonstrações humanas gravadas de vários pontos de vista.

Os pesquisadores do Google Brain colaboraram com outras empresas e instituições acadêmicas na pesquisa de robótica. Em 2016, a equipe do Google Brain colaborou com pesquisadores da X em uma pesquisa sobre o aprendizado da coordenação olho-mão para a preensão robótica. Seu método permitiu o controle do robô em tempo real para agarrar novos objetos com autocorreção. Em 2020, pesquisadores do Google Brain, Intel AI Lab e UC Berkeley criaram um modelo de IA para robôs para aprender tarefas relacionadas à cirurgia, como sutura de treinamento com vídeos de cirurgia.

Reconhecimento de alto-falante interativo com aprendizado por reforço

Em 2020, a equipe do Google Brain e a Universidade de Lille apresentaram um modelo de reconhecimento automático de alto-falante, que chamaram de reconhecimento interativo de alto-falante. O módulo ISR reconhece um alto-falante de uma determinada lista de alto-falantes apenas solicitando algumas palavras específicas do usuário. O modelo pode ser alterado para escolher segmentos de fala no contexto do Text-To-Speech Training. Também pode prevenir geradores de voz maliciosos para proteger os dados.

TensorFlow

TensorFlow é uma biblioteca de software de código aberto com tecnologia do Google Brain que permite que qualquer pessoa utilize o aprendizado de máquina, fornecendo as ferramentas para treinar sua própria rede neural. A ferramenta tem sido usada por agricultores para reduzir a quantidade de trabalho manual necessária para classificar sua produção, treinando-a com um conjunto de dados de imagens classificadas por humanos.

Magenta

Magenta é um projeto que usa o Google Brain para criar novas informações na forma de arte e música, em vez de classificar e ordenar os dados existentes. O TensorFlow foi atualizado com um pacote de ferramentas para os usuários orientarem a rede neural para criar imagens e música. No entanto, a equipe da Valdosta State University descobriu que a IA luta para replicar perfeitamente a intenção humana na arte , semelhante aos problemas enfrentados na tradução .

Aplicações Médicas

Os recursos de classificação de imagens do Google Brain têm sido usados ​​para ajudar a detectar certas condições médicas, buscando padrões que os médicos humanos podem não perceber para fornecer um diagnóstico antecipado. Durante o rastreamento do câncer de mama, descobriu-se que esse método tinha um quarto da taxa de falsos positivos de patologistas humanos, que requerem mais tempo para examinar cada foto e não podem dedicar todo o seu foco nessa tarefa. Devido ao treinamento muito específico da rede neural para uma única tarefa, ela não consegue identificar outras aflições presentes em uma foto que um humano poderia facilmente detectar.

Outros produtos do Google

Os projetos do Google cérebro da tecnologia é actualmente utilizada em vários outros produtos do Google, como o sistema operacional Android do sistema de reconhecimento de voz , busca de fotos para o Google Fotos , a resposta inteligente no Gmail , e recomendações de vídeo no YouTube .

Recepção

O Google Brain recebeu cobertura na Wired Magazine , National Public Radio e Big Think . Esses artigos contêm entrevistas com os principais membros da equipe Ray Kurzweil e Andrew Ng e se concentram em explicações sobre os objetivos e aplicações do projeto.

Controvérsia

Em dezembro de 2020, o especialista em ética da IA Timnit Gebru deixou o Google. Embora a natureza exata de sua desistência ou demissão seja contestada, a causa da saída foi sua recusa em retratar um artigo intitulado "Sobre os perigos dos papagaios estocásticos: os modelos de linguagem podem ser grandes demais?" Este documento explorou os riscos potenciais do crescimento da IA, como o Google Brain, incluindo impacto ambiental, distorções nos dados de treinamento e a capacidade de enganar o público. O pedido de retirada do papel foi feito por Megan Kacholia, vice-presidente do Google Brain. Em abril de 2021, quase 7.000 funcionários atuais ou ex-funcionários do Google e apoiadores da indústria assinaram uma carta aberta acusando o Google de “censura de pesquisa” e condenando o tratamento de Gebru na empresa.

Em fevereiro de 2021, o Google demitiu uma das líderes da equipe de ética de IA da empresa, Margaret Mitchell. O comunicado da empresa alegou que Mitchell violou a política da empresa ao usar ferramentas automatizadas para encontrar suporte para a Gebru. No mesmo mês, engenheiros fora da equipe de ética começaram a se demitir, citando como motivo o desligamento “indevido” da Gebru. Em abril de 2021, o cofundador do Google Brain Samy Bengio anunciou sua renúncia da empresa. Apesar de ser gerente de Gebru, Bengio não foi notificado antes de sua rescisão e postou online em apoio a ela e Mitchell. Embora o anúncio de Bengio se concentrasse no crescimento pessoal como motivo de sua saída, fontes anônimas indicaram à Reuters que a turbulência dentro da equipe de ética da IA ​​desempenhou um papel em suas considerações.

Veja também

Referências