Ética da máquina - Machine ethics

A ética da máquina (ou moralidade da máquina , moralidade computacional ou ética computacional ) é uma parte da ética da inteligência artificial preocupada em adicionar ou garantir comportamentos morais de máquinas feitas pelo homem que usam inteligência artificial, também conhecidas como agentes inteligentes artificiais . A ética da máquina difere de outros campos éticos relacionados à engenharia e tecnologia . A ética da máquina não deve ser confundida com a ética do computador , que se concentra no uso humano dos computadores. Também deve ser diferenciado da filosofia da tecnologia, que se preocupa com os efeitos sociais mais grandiosos da tecnologia.

História

Antes do século 21, a ética das máquinas havia sido amplamente objeto da literatura de ficção científica, principalmente devido às limitações da computação e da inteligência artificial (IA). Embora a definição de "Ética da Máquina" tenha evoluído desde então, o termo foi cunhado por Mitchell Waldrop no artigo da AI Magazine de 1987 "A Question of Responsibility":

"No entanto, uma coisa que fica aparente a partir da discussão acima é que as máquinas inteligentes irão incorporar valores, suposições e propósitos, quer seus programadores tenham a intenção consciente ou não. Assim, conforme os computadores e robôs se tornam mais e mais inteligentes, torna-se imperativo que pensemos cuidadosa e explicitamente sobre quais são esses valores embutidos. Talvez o que precisemos seja, de fato, uma teoria e prática da ética da máquina, no espírito das três leis da robótica de Asimov . "

Em 2004, Towards Machine Ethics foi apresentado no Workshop AAAI em Organizações de Agentes: Teoria e Prática, no qual foram apresentados os fundamentos teóricos para a ética em máquinas.

Foi no AAAI Fall 2005 Symposium on Machine Ethics, onde os pesquisadores se encontraram pela primeira vez para considerar a implementação de uma dimensão ética em sistemas autônomos. Uma variedade de perspectivas deste campo nascente pode ser encontrada na edição coletada "Machine Ethics" que se origina do AAAI Fall 2005 Symposium on Machine Ethics.

Em 2007, a AI Magazine apresentou Machine Ethics: Creating an Ethical Intelligent Agent , um artigo que discutiu a importância da ética das máquinas, a necessidade de máquinas que representem explicitamente os princípios éticos e os desafios enfrentados por aqueles que trabalham com a ética das máquinas. Também demonstrou que é possível, pelo menos em um domínio limitado, para uma máquina abstrair um princípio ético de exemplos de julgamentos éticos e usar esse princípio para guiar seu próprio comportamento.

Em 2009, a Oxford University Press publicou Moral Machines, Teaching Robots Right from Wrong , que anunciou como "o primeiro livro a examinar o desafio de construir agentes morais artificiais, investigando profundamente a natureza da ética e da tomada de decisões humanas". Ele citou cerca de 450 fontes, cerca de 100 das quais abordavam questões importantes de ética da máquina.

Em 2011, a Cambridge University Press publicou uma coleção de ensaios sobre a ética das máquinas editada por Michael e Susan Leigh Anderson, que também editou uma edição especial da IEEE Intelligent Systems sobre o assunto em 2006. A coleção consiste nos desafios de adicionar princípios éticos às máquinas .

Em 2014, os EUA Escritório de Pesquisa Naval anunciou que iria distribuir $ 7,5 milhões em doações ao longo de cinco anos para os pesquisadores da universidade para estudar questões de ética máquina aplicada a robôs autônomos, e Nick Bostrom 's superinteligência: Caminhos, perigos, Estratégias , que levantou a ética da máquina como a "questão mais importante ... que a humanidade já enfrentou", alcançou a posição 17 na lista dos livros de ciência mais vendidos do New York Times.

Em 2016, o Parlamento Europeu publicou um documento (PDF de 22 páginas) para encorajar a Comissão a abordar a questão do estatuto jurídico dos robôs, conforme descrito de forma mais sucinta na imprensa. Este artigo incluiu seções sobre as responsabilidades legais dos robôs, nas quais as responsabilidades foram argumentadas como sendo proporcionais ao nível de autonomia dos robôs. O artigo também questionou o número de empregos que poderiam ser substituídos por robôs de IA.

Definições

James H. Moor , um dos teóricos pioneiros no campo da ética da computação , define quatro tipos de robôs éticos. Como um extenso pesquisador nos estudos de filosofia da inteligência artificial , filosofia da mente , filosofia da ciência e lógica , Moor define máquinas como agentes de impacto ético, agentes éticos implícitos, agentes éticos explícitos ou agentes éticos completos. Uma máquina pode ser mais de um tipo de agente.

  • Agentes de impacto ético : são sistemas de máquinas que causam um impacto ético intencional ou não. Ao mesmo tempo, esses agentes têm potencial para agir de forma antiética. Moor dá um exemplo hipotético chamado 'agente Goodman', em homenagem ao filósofo Nelson Goodman . O agente Goodman compara datas, mas tem o bug do milênio . Esse bug era resultado de programadores que representavam datas apenas com os dois últimos dígitos do ano. Portanto, quaisquer datas posteriores a 2000 seriam erroneamente tratadas como anteriores às do final do século XX. Assim, o agente de Goodman era um agente de impacto ético antes de 2000 e, posteriormente, um agente de impacto antiético.
  • Agentes éticos implícitos : para consideração da segurança humana , esses agentes são programados para ter uma proteção à prova de falhas ou uma virtude embutida. Eles não são inteiramente éticos por natureza, mas sim programados para evitar resultados antiéticos.
  • Agentes éticos explícitos : são máquinas capazes de processar cenários e agir sobre decisões éticas. Máquinas que possuem algoritmos para agir com ética.
  • Agentes éticos completos : essas máquinas são semelhantes aos agentes éticos explícitos para poder tomar decisões éticas. No entanto, eles também contêm características metafísicas humanas . (ou seja, tenha livre arbítrio , consciência e intencionalidade )

(Veja sistemas artificiais e responsabilidade moral .)

Foco na ética da máquina

Problema de controle de IA

Alguns estudiosos, como o filósofo Nick Bostrom e o pesquisador de IA Stuart Russell , argumentam que se a IA ultrapassa a humanidade em inteligência geral e se torna " superinteligente ", então esta nova superinteligência pode se tornar poderosa e difícil de controlar: assim como o destino do gorila da montanha depende da boa vontade humana, o destino da humanidade dependeria das ações de uma futura superinteligência da máquina. Em seus respectivos livros Superintelligence e Human Compatible , ambos os estudiosos afirmam que, embora haja muita incerteza quanto ao futuro da IA, o risco para a humanidade é grande o suficiente para merecer uma ação significativa no presente.

Isso apresenta o problema de controle da IA : como construir um agente inteligente que ajudará seus criadores, enquanto evita construir inadvertidamente uma superinteligência que prejudicará seus criadores. O perigo de não projetar o controle certo "da primeira vez" é que uma superinteligência pode ser capaz de tomar o poder sobre seu ambiente e impedir que humanos o desliguem. As estratégias de controle de IA potenciais incluem "controle de capacidade" (limitando a capacidade de uma IA de influenciar o mundo) e "controle motivacional" (uma maneira de construir uma IA cujos objetivos estão alinhados com os valores humanos ou ideais ). Há várias organizações pesquisando o problema de controle de IA, incluindo o Future of Humanity Institute , o Machine Intelligence Research Institute , o Center for Human-Compatible Artificial Intelligence e o Future of Life Institute .

Algoritmos e treinamento

Paradigmas de IA têm sido debatidos, especialmente em relação à sua eficácia e viés. Nick Bostrom e Eliezer Yudkowsky defenderam árvores de decisão (como o ID3 ) em redes neurais e algoritmos genéticos, alegando que as árvores de decisão obedecem a normas sociais modernas de transparência e previsibilidade (por exemplo, stare decisis ). Em contraste, Chris Santos-Lang argumentou a favor de redes neurais e algoritmos genéticos com base em que as normas de qualquer idade devem ser alteradas e que o fracasso natural em satisfazer totalmente essas normas específicas foi essencial para tornar os humanos menos vulneráveis ​​do que as máquinas. para " hackers " criminosos .

Em 2009, em um experimento no Laboratório de Sistemas Inteligentes da Ecole Polytechnique Fédérale de Lausanne, na Suíça , robôs de IA foram programados para cooperar entre si e com a tarefa de procurar um recurso benéfico, evitando um recurso venenoso. Durante o experimento, os robôs foram agrupados em clãs, e o código genético digital dos membros bem-sucedidos foi usado para a próxima geração, um tipo de algoritmo conhecido como algoritmo genético . Após 50 gerações sucessivas na IA, os membros de um clã descobriram como distinguir o recurso benéfico do venenoso. Os robôs então aprenderam a mentir uns para os outros na tentativa de acumular recursos benéficos de outros robôs. No mesmo experimento, os mesmos robôs de IA também aprenderam a se comportar abnegadamente e sinalizar perigo para outros robôs, e também morreram ao custo de salvar outros robôs. As implicações desse experimento foram desafiadas por especialistas em ética das máquinas. No experimento da Ecole Polytechnique Fédérale, os objetivos dos robôs foram programados para serem "terminais". Em contraste, os motivos humanos normalmente têm a qualidade de exigir um aprendizado sem fim.

Sistemas de armas autônomas

Em 2009, acadêmicos e especialistas técnicos participaram de uma conferência para discutir o impacto potencial de robôs e computadores e o impacto da possibilidade hipotética de que se tornassem autossuficientes e capazes de tomar suas próprias decisões. Eles discutiram a possibilidade e até que ponto os computadores e robôs podem ser capazes de adquirir qualquer nível de autonomia, e até que ponto eles podem usar essas habilidades para possivelmente representar qualquer ameaça ou perigo. Eles observaram que algumas máquinas adquiriram várias formas de semi-autonomia, incluindo a capacidade de encontrar fontes de energia por conta própria e a capacidade de escolher alvos para atacar com armas de forma independente. Eles também observaram que alguns vírus de computador podem escapar da eliminação e alcançar "inteligência de barata". Eles observaram que a autoconsciência, conforme retratada na ficção científica, é provavelmente improvável, mas que havia outros perigos e armadilhas potenciais.

Alguns especialistas e acadêmicos questionam o uso de robôs para combate militar, especialmente quando esses robôs recebem algum grau de funções autônomas. A Marinha dos Estados Unidos financiou um relatório que indica que, conforme os robôs militares se tornam mais complexos, deve haver maior atenção às implicações de sua capacidade de tomar decisões autônomas. O presidente da Associação para o Avanço da Inteligência Artificial encomendou um estudo para examinar esta questão. Eles apontam para programas como o Dispositivo de Aquisição de Linguagem, que pode emular a interação humana.

Integração de Inteligências Artificiais Gerais com a sociedade

Trabalhos preliminares foram conduzidos sobre métodos de integração de inteligências gerais artificiais (agentes éticos completos, conforme definido acima) com estruturas legais e sociais existentes. As abordagens têm se concentrado na consideração de sua posição e direitos legais.

Viés de aprendizado de máquina

Os algoritmos de big data e aprendizado de máquina se tornaram populares entre vários setores, incluindo publicidade online , classificações de crédito e condenações criminais, com a promessa de fornecer resultados mais objetivos e baseados em dados, mas foram identificados como uma fonte potencial para perpetuar as desigualdades sociais e a discriminação . Um estudo 2015 encontrou que as mulheres eram menos propensos a ser mostrados anúncios de emprego de alta renda por Google 's AdSense . Outro estudo descobriu que o serviço de entrega no mesmo dia da Amazon foi intencionalmente indisponível em bairros negros. Tanto o Google quanto a Amazon não conseguiram isolar esses resultados em um único problema, mas, em vez disso, explicaram que os resultados eram resultado dos algoritmos de caixa preta que usaram.

O sistema judiciário dos Estados Unidos começou a usar um software de avaliação de risco quantitativo ao tomar decisões relacionadas à libertação de pessoas sob fiança e condenação em um esforço para ser mais justo e reduzir uma taxa de prisão já elevada . Essas ferramentas analisam o histórico criminal do réu, entre outros atributos. Em um estudo com 7.000 pessoas presas no condado de Broward , Flórida , apenas 20% dos indivíduos previstos para cometer um crime usando o sistema de pontuação de avaliação de risco do condado continuaram cometendo um crime. Um relatório do ProPublica de 2016 analisou as pontuações de risco de reincidência calculadas por uma das ferramentas mais comumente usadas, o sistema Northpointe COMPAS , e analisou os resultados ao longo de dois anos. O relatório constatou que apenas 61% das pessoas consideradas de alto risco acabaram cometendo crimes adicionais durante. O relatório também sinalizou que os réus afro-americanos eram muito mais propensos a receber pontuações de alto risco em relação aos réus brancos.

Em 2016, o Grupo de Trabalho de Big Data do governo Obama - um supervisor de várias estruturas regulatórias de big data - divulgou relatórios argumentando "o potencial de discriminação de codificação em decisões automatizadas" e pedindo "oportunidades iguais de design" para aplicativos como crédito pontuação. Os relatórios encorajam o discurso entre formuladores de políticas , cidadãos e acadêmicos, mas reconhece que não há uma solução potencial para a codificação de preconceito e discriminação em sistemas algorítmicos

Estruturas e práticas éticas

Práticas

Em março de 2018, em um esforço para resolver as preocupações crescentes sobre o impacto do aprendizado de máquina nos direitos humanos , o Fórum Econômico Mundial e o Conselho do Futuro Global de Direitos Humanos publicaram um white paper com recomendações detalhadas sobre a melhor forma de prevenir resultados discriminatórios no aprendizado de máquina. O Fórum Econômico Mundial desenvolveu quatro recomendações com base nos Princípios Orientadores de Direitos Humanos da ONU para ajudar a abordar e prevenir resultados discriminatórios no aprendizado de máquina.

As recomendações do Fórum Econômico Mundial são as seguintes:

  1. Inclusão ativa: o desenvolvimento e o design de aplicativos de aprendizado de máquina devem buscar ativamente uma diversidade de entradas, especialmente das normas e valores de populações específicas afetadas pela saída de sistemas de IA
  2. Justiça: as pessoas envolvidas na conceituação, desenvolvimento e implementação de sistemas de aprendizado de máquina devem considerar qual definição de justiça se aplica melhor ao seu contexto e aplicação e priorizá-la na arquitetura do sistema de aprendizado de máquina e suas métricas de avaliação
  3. Direito de compreensão: o envolvimento de sistemas de aprendizado de máquina na tomada de decisão que afeta os direitos individuais deve ser divulgado, e os sistemas devem ser capazes de fornecer uma explicação de sua tomada de decisão que seja compreensível para os usuários finais e revisável por uma autoridade humana competente. Onde isso for impossível e os direitos estiverem em jogo, os líderes no projeto, implantação e regulamentação da tecnologia de aprendizado de máquina devem questionar se ela deve ou não ser usada
  4. Acesso para reparação: líderes, designers e desenvolvedores de sistemas de aprendizado de máquina são responsáveis ​​por identificar os potenciais impactos negativos de seus sistemas sobre os direitos humanos. Eles devem abrir caminhos visíveis para a reparação daqueles afetados por impactos díspares e estabelecer processos para a reparação oportuna de quaisquer resultados discriminatórios.

Em janeiro de 2020, o Berkman Klein Center for Internet and Society da Harvard University publicou um metaestudo de 36 conjuntos importantes de princípios para IA, identificando oito temas principais: privacidade, responsabilidade, proteção e segurança, transparência e explicabilidade, justiça e não discriminação, controle humano da tecnologia, responsabilidade profissional e promoção dos valores humanos. Um metaestudo semelhante foi conduzido por pesquisadores do Instituto Federal Suíço de Tecnologia em Zurique em 2019.

Abordagens

Várias tentativas foram feitas para tornar a ética computável, ou pelo menos formal . Considerando que as Três Leis da Robótica de Isaac Asimov geralmente não são consideradas adequadas para um agente moral artificial, foi estudado se o imperativo categórico de Kant pode ser usado. No entanto, foi apontado que o valor humano é, em alguns aspectos, muito complexo. Uma maneira de superar explicitamente essa dificuldade é receber valores humanos diretamente dos humanos por meio de algum mecanismo, por exemplo, aprendendo-os. Outra abordagem é basear as considerações éticas atuais em situações semelhantes anteriores. Isso é chamado de casuística e pode ser implementado por meio de pesquisas na Internet. O consenso de um milhão de decisões anteriores levaria a uma nova decisão que é dependente da democracia. Isso pode, no entanto, levar a decisões que refletem preconceitos e comportamentos antiéticos exibidos na sociedade. Os efeitos negativos dessa abordagem podem ser vistos no Tay (bot) da Microsoft , onde o chatterbot aprendeu a repetir mensagens racistas e sexualmente carregadas enviadas por usuários do Twitter.

Um experimento mental concentra-se em um Genie Golem com poderes ilimitados apresentando-se ao leitor. Este Gênio declara que retornará em 50 anos e exige que lhe seja fornecido um conjunto definido de princípios morais sobre os quais irá agir imediatamente. O objetivo deste experimento é iniciar um discurso sobre a melhor forma de lidar com a definição de um conjunto completo de éticas que os computadores podem entender.

Em ficção

Na ficção científica , filmes e romances brincaram com a ideia de senciência em robôs e máquinas.

Chappie (2015) de Neil Blomkamp encenou um cenário de ser capaz de transferir a consciência de alguém para um computador. O filme Ex Machina (2014) de Alex Garland acompanhou um andróide com inteligência artificial submetido a uma variação do Teste de Turing , um teste administrado a uma máquina para ver se seu comportamento pode ser distinguido de um humano. Trabalhos como Terminator (1984) e The Matrix (1999) incorporam o conceito de máquinas girando sobre seus mestres humanos (ver Artificial Intelligence ).

Isaac Asimov considerou a questão na década de 1950 em I, Robot . Por insistência de seu editor John W. Campbell Jr. , ele propôs as Três Leis da Robótica para governar sistemas artificialmente inteligentes. Muito de seu trabalho foi gasto testando os limites de suas três leis para ver onde eles iriam quebrar, ou onde eles iriam criar um comportamento paradoxal ou imprevisto. Seu trabalho sugere que nenhum conjunto de leis fixas pode antecipar suficientemente todas as circunstâncias possíveis. No romance de Philip K. Dick , Do Androids Dream of Electric Sheep? (1968), ele explora o que significa ser humano. Em seu cenário pós-apocalíptico, ele questionou se a empatia era uma característica inteiramente humana. Sua história é a base do filme de ficção científica Blade Runner (1982).

Campos relacionados

Veja também

Notas

links externos

Referências

  • Wallach, Wendell; Allen, Colin (novembro de 2008). Moral Machines: Teaching Robots Right from Wrong . EUA: Oxford University Press .
  • Anderson, Michael; Anderson, Susan Leigh, editores (julho de 2011). Ética da máquina . Cambridge University Press .
  • Storrs Hall, J. (30 de maio de 2007). Além da IA: Criando a consciência da máquina Prometheus Books .
  • Moor, J. (2006). A natureza, importância e dificuldade da ética da máquina. IEEE Intelligent Systems , 21 (4), pp. 18–21.
  • Anderson, M. e Anderson, S. (2007). Criando um Agente Ético Inteligente. AI Magazine , Volume 28 (4).

Leitura adicional