Leis da robótica - Laws of robotics

As Leis da Robótica são um conjunto de leis, regras ou princípios que se destinam a ser uma estrutura fundamental para sustentar o comportamento de robôs projetados para ter um certo grau de autonomia . Robôs com este grau de complexidade ainda não existem, mas foram amplamente antecipados na ficção científica , filmes e são um tópico de pesquisa e desenvolvimento ativos nos campos da robótica e inteligência artificial .

O conjunto de leis mais conhecido são os escritos por Isaac Asimov na década de 1940, ou baseados neles, mas outros conjuntos de leis foram propostos por pesquisadores nas décadas desde então.

As "Três Leis da Robótica" de Isaac Asimov

O conjunto de leis mais conhecido são as " Três Leis da Robótica " de Isaac Asimov . Eles foram introduzidos em seu conto " Runaround ", de 1942 , embora tenham sido prenunciados em algumas histórias anteriores. As Três Leis são:

  1. Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum dano.
  2. Um robô deve obedecer às ordens dadas por seres humanos, exceto quando tais ordens entrarem em conflito com a Primeira Lei.
  3. Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou a Segunda Lei.

Em The Evitable Conflict, as máquinas generalizam a Primeira Lei para significar:

  1. "Nenhuma máquina pode prejudicar a humanidade; ou, por inação, permitir que a humanidade sofra algum dano."

Isso foi refinado no final de Foundation e Earth , uma lei zero foi introduzida, com as três originais adequadamente reescritas como subordinadas a ela:

0. Um robô não pode ferir a humanidade ou, por inação, permitir que a humanidade sofra algum dano.

Existem adaptações e extensões baseadas nesta estrutura. A partir de 2011, eles continuam sendo um " dispositivo fictício ".

Princípios EPSRC / AHRC de robótica

Em 2011, o Conselho de Pesquisa em Ciências Físicas e de Engenharia (EPSRC) e o Conselho de Pesquisa em Artes e Humanidades (AHRC) do Reino Unido publicaram em conjunto um conjunto de cinco "princípios éticos para designers, construtores e usuários de robôs" no mundo real , junto com sete "mensagens de alto nível" destinadas a serem transmitidas, com base em um workshop de pesquisa de setembro de 2010:

  1. Os robôs não devem ser projetados única ou principalmente para matar ou ferir humanos.
  2. Humanos, não robôs, são agentes responsáveis. Robôs são ferramentas projetadas para atingir objetivos humanos.
  3. Os robôs devem ser projetados de forma a garantir sua segurança e proteção.
  4. Robôs são artefatos; eles não devem ser projetados para explorar usuários vulneráveis ​​evocando uma resposta emocional ou dependência. Sempre deve ser possível distinguir um robô de um humano.
  5. Sempre deve ser possível descobrir quem é legalmente responsável por um robô.

As mensagens que se pretendem transmitir foram:

  1. Acreditamos que os robôs têm o potencial de fornecer um imenso impacto positivo à sociedade. Queremos encorajar a pesquisa de robôs responsável.
  2. A má prática prejudica a todos nós.
  3. Abordar preocupações públicas óbvias nos ajudará a progredir.
  4. É importante demonstrar que nós, como roboticistas, estamos comprometidos com os melhores padrões de prática possíveis.
  5. Para entender o contexto e as consequências de nossa pesquisa, devemos trabalhar com especialistas de outras disciplinas, incluindo: ciências sociais, direito, filosofia e artes.
  6. Devemos considerar a ética da transparência: há limites para o que deve estar abertamente disponível?
  7. Quando vemos relatos errôneos na imprensa, nos comprometemos a reservar um tempo para entrar em contato com os jornalistas jornalistas.

Os princípios EPSRC são amplamente reconhecidos como um ponto de partida útil. Em 2016, Tony Prescott organizou um workshop para revisar esses princípios, por exemplo, para diferenciar os princípios éticos dos legais.

Desenvolvimento judicial

Outra codificação terminológica abrangente para a avaliação legal dos desenvolvimentos tecnológicos na indústria de robótica já começou principalmente nos países asiáticos. Esse progresso representa uma reinterpretação contemporânea do direito (e da ética) no campo da robótica, uma interpretação que pressupõe um repensar das constelações jurídicas tradicionais. Isso inclui principalmente questões de responsabilidade legal em direito civil e criminal.

Leis de Satya Nadella

Em junho de 2016, Satya Nadella , CEO da Microsoft Corporation , deu uma entrevista à revista Slate e esboçou seis regras para inteligências artificiais a serem observadas por seus designers:

  1. "A IA deve ser projetada para ajudar a humanidade", o que significa que a autonomia humana precisa ser respeitada.
  2. "AI deve ser transparente", o que significa que os humanos devem saber e ser capazes de entender como funcionam.
  3. “A IA deve maximizar a eficiência sem destruir a dignidade das pessoas”.
  4. "A IA deve ser projetada para privacidade inteligente", o que significa que ganha confiança ao proteger suas informações.
  5. "A IA deve ter responsabilidade algorítmica para que os humanos possam desfazer danos não intencionais".
  6. "A IA deve se proteger contra preconceitos" para não discriminar as pessoas.

"Leis da Robótica" de Tilden

Mark W. Tilden é um físico robótico que foi um pioneiro no desenvolvimento de robótica simples. Seus três princípios / regras de orientação para robôs são:

  1. Um robô deve proteger sua existência a todo custo.
  2. Um robô deve obter e manter acesso à sua própria fonte de energia.
  3. Um robô deve buscar continuamente as melhores fontes de energia.

O que é notável nessas três regras é que elas são basicamente regras para a vida "selvagem", então, em essência, o que Tilden afirmou é que o que ele queria era "supervisionar uma espécie de silício na consciência, mas com controle total sobre as especificações. Não planta. Não animal. Outra coisa. "

Veja também

Referências