Realidade aumentada - Augmented reality

Fotografia do primeiro sistema AR
Virtual Fixtures - primeiro sistema AR, US Air Force, Wright-Patterson Air Force Base (1992)

A realidade aumentada ( AR ) é uma experiência interativa de um ambiente do mundo real onde os objetos que residem no mundo real são aprimorados por informações perceptivas geradas por computador, às vezes através de múltiplas modalidades sensoriais , incluindo visual , auditivo , tátil , somatosensorial e olfativo . AR pode ser definido como um sistema que incorpora três recursos básicos: uma combinação de mundos real e virtual, interação em tempo real e registro 3D preciso de objetos virtuais e reais. As informações sensoriais sobrepostas podem ser construtivas (ou seja, aditivas ao ambiente natural) ou destrutivas (ou seja, mascarar o ambiente natural). Esta experiência está perfeitamente entrelaçada com o mundo físico, de forma que é percebida como um aspecto envolvente do ambiente real. Desse modo, a realidade aumentada altera a percepção contínua de um ambiente do mundo real, enquanto a realidade virtual substitui completamente o ambiente do mundo real do usuário por um simulado. A realidade aumentada está relacionada a dois termos amplamente sinônimos: realidade mista e realidade mediada por computador .

O valor principal da realidade aumentada é a maneira pela qual os componentes do mundo digital se misturam à percepção de uma pessoa do mundo real, não como uma simples exibição de dados, mas por meio da integração de sensações imersivas, que são percebidas como partes naturais de um ambiente. Os primeiros sistemas AR funcionais que forneciam experiências imersivas de realidade mista para os usuários foram inventados no início da década de 1990, começando com o sistema Virtual Fixtures desenvolvido no Laboratório Armstrong da Força Aérea dos Estados Unidos em 1992. As experiências comerciais de realidade aumentada foram introduzidas pela primeira vez nos negócios de entretenimento e jogos. Posteriormente, os aplicativos de realidade aumentada se espalharam por setores comerciais, como educação, comunicações, medicina e entretenimento. Na educação, o conteúdo pode ser acessado digitalizando ou visualizando uma imagem com um dispositivo móvel ou usando técnicas de RA sem marcadores.

A realidade aumentada é usada para melhorar ambientes ou situações naturais e oferecer experiências perceptualmente enriquecidas. Com a ajuda de tecnologias avançadas de AR (por exemplo, adicionando visão computacional , incorporando câmeras AR em aplicativos de smartphone e reconhecimento de objetos ), as informações sobre o mundo real circundante do usuário se tornam interativas e digitalmente manipuladas. As informações sobre o ambiente e seus objetos são sobrepostas ao mundo real. Essas informações podem ser virtuais. A Realidade Aumentada é qualquer experiência que seja artificial e que se acrescente à realidade já existente. ou real, por exemplo, ver outras informações reais detectadas ou medidas, como ondas de rádio eletromagnéticas sobrepostas em alinhamento exato com o local onde realmente estão no espaço. A realidade aumentada também tem muito potencial na coleta e compartilhamento de conhecimento tácito. As técnicas de aumento são normalmente realizadas em tempo real e em contextos semânticos com elementos ambientais. Informações perceptivas envolventes às vezes são combinadas com informações complementares, como pontuações em um feed de vídeo ao vivo de um evento esportivo. Isso combina os benefícios da tecnologia de realidade aumentada e da tecnologia heads up display (HUD).

Comparação com realidade virtual

Na realidade virtual (RV), a percepção da realidade dos usuários é totalmente baseada em informações virtuais. Na realidade aumentada (AR), o usuário recebe informações adicionais geradas por computador dentro dos dados coletados da vida real que aumentam sua percepção da realidade. Por exemplo, em arquitetura, a RV pode ser usada para criar uma simulação passo a passo do interior de um novo edifício; e AR pode ser usado para mostrar as estruturas e sistemas de um edifício sobrepostos em uma visão da vida real. Outro exemplo é o uso de aplicativos utilitários. Alguns aplicativos de RA, como o Augment , permitem que os usuários apliquem objetos digitais em ambientes reais, permitindo que as empresas usem dispositivos de realidade aumentada como uma forma de visualizar seus produtos no mundo real. Da mesma forma, também pode ser usado para demonstrar como os produtos podem ser em um ambiente para os clientes, conforme demonstrado por empresas como Mountain Equipment Co-op ou Lowe's, que usam realidade aumentada para permitir que os clientes visualizem como seus produtos podem ser em casa através do uso de modelos 3D.

A realidade aumentada (AR) difere da realidade virtual (VR) no sentido de que na AR parte do ambiente circundante é realmente 'real' e apenas adiciona camadas de objetos virtuais ao ambiente real. Por outro lado, na RV o ambiente circundante é totalmente virtual. Uma demonstração de como camadas de objetos AR no mundo real pode ser vista com jogos de realidade aumentada. WallaMe é um aplicativo de jogo de realidade aumentada que permite aos usuários ocultar mensagens em ambientes reais, utilizando a tecnologia de geolocalização para permitir que os usuários ocultem mensagens onde quiserem no mundo. Essas aplicações têm muitos usos no mundo, inclusive no ativismo e na expressão artística.

Tecnologia

Fotografia de um homem usando óculos inteligentes
Homem usando smartglasses

Hardware

Os componentes de hardware para realidade aumentada são: processador, display, sensores e dispositivos de entrada. Dispositivos de computação móvel modernos , como smartphones e tablets, contêm esses elementos, que geralmente incluem uma câmera e sensores de sistemas microeletromecânicos ( MEMS ), como um acelerômetro , GPS e bússola de estado sólido , tornando-os plataformas AR adequadas. Existem duas tecnologias usadas em realidade aumentada: guias de ondas difrativas e guias de ondas reflexivas.

Exibição

Várias tecnologias são usadas na renderização de realidade aumentada, incluindo sistemas de projeção óptica , monitores , dispositivos portáteis e sistemas de exibição, que são usados ​​no corpo humano.

Um head-mounted display (HMD) é um dispositivo de exibição usado na testa, como um arnês ou montado em um capacete . Os HMDs colocam imagens do mundo físico e de objetos virtuais no campo de visão do usuário. Os HMDs modernos costumam empregar sensores para monitoramento de seis graus de liberdade que permitem ao sistema alinhar as informações virtuais ao mundo físico e se ajustar de acordo com os movimentos da cabeça do usuário. Os HMDs podem fornecer aos usuários de RV experiências móveis e colaborativas. Provedores específicos, como uSens e Gestigon , incluem controles de gestos para imersão virtual completa .

Óculos

As exibições de AR podem ser renderizadas em dispositivos semelhantes a óculos. As versões incluem óculos que empregam câmeras para interceptar a visão do mundo real e reexibir sua visão aumentada através das oculares e dispositivos nos quais as imagens AR são projetadas ou refletidas nas superfícies das peças das lentes dos óculos.

HUD
Fotografia de um computador com fone de ouvido
Computador com fone de ouvido

Um display head-up (HUD) é uma tela transparente que apresenta dados sem exigir que os usuários desviem de seus pontos de vista habituais. Uma tecnologia precursora da realidade aumentada, os heads-up displays foram desenvolvidos pela primeira vez para pilotos na década de 1950, projetando dados de voo simples em sua linha de visão, permitindo-lhes manter a "cabeça erguida" e não olhar para os instrumentos. Dispositivos de realidade aumentada para visão próxima podem ser usados ​​como monitores head-up portáteis, pois podem mostrar dados, informações e imagens enquanto o usuário visualiza o mundo real. Muitas definições de realidade aumentada apenas a definem como uma sobreposição de informações. Isso é basicamente o que um display head-up faz; entretanto, em termos práticos, espera-se que a realidade aumentada inclua o registro e o rastreamento entre as percepções, sensações, informações, dados e imagens sobrepostas e alguma parte do mundo real.

Lentes de contato

Lentes de contato que exibem imagens de RA estão em desenvolvimento. Essas lentes de contato biônicas podem conter os elementos de exibição embutidos na lente, incluindo circuitos integrados, LEDs e uma antena para comunicação sem fio. A primeira tela de lente de contato foi patenteada em 1999 por Steve Mann e destinava-se a funcionar em combinação com óculos AR, mas o projeto foi abandonado 11 anos depois, em 2010-2011. Outra versão de lentes de contato, em desenvolvimento para os militares dos EUA, é projetada para funcionar com óculos de RA, permitindo que os soldados focalizem imagens de RA perto do olho nos óculos e em objetos distantes do mundo real ao mesmo tempo.

Na CES 2013, uma empresa chamada Innovega também revelou lentes de contato semelhantes que precisavam ser combinadas com óculos AR para funcionar.

O curta-metragem futurista Sight apresenta dispositivos de realidade aumentada semelhantes a lentes de contato.

Muitos cientistas têm trabalhado em lentes de contato capazes de diferentes feitos tecnológicos. Uma patente registrada pela Samsung descreve uma lente de contato AR, que, quando concluída, incluirá uma câmera embutida na própria lente. O design visa controlar sua interface piscando um olho. Ele também deve ser vinculado ao smartphone do usuário para revisar a filmagem e controlá-la separadamente. Quando bem-sucedida, a lente apresentaria uma câmera ou sensor dentro dela. Diz-se que pode ser qualquer coisa, desde um sensor de luz até um sensor de temperatura.

O primeiro protótipo funcional revelado publicamente de uma lente de contato AR que não requer o uso de óculos em conjunto foi desenvolvido pela Mojo Vision e anunciado e exibido na CES 2020.

Visor retinal virtual

Um visor retinal virtual (VRD) é um dispositivo de exibição pessoal em desenvolvimento no Laboratório de Tecnologia de Interface Humana da Universidade de Washington sob o comando do Dr. Thomas A. Furness III. Com essa tecnologia, uma tela é digitalizada diretamente na retina do olho do observador. Isso resulta em imagens brilhantes com alta resolução e alto contraste. O espectador vê o que parece ser uma tela convencional flutuando no espaço.

Vários testes foram feitos para analisar a segurança do VRD. Em um teste, pacientes com perda parcial de visão - tendo degeneração macular (uma doença que degenera a retina) ou ceratocone - foram selecionados para visualizar imagens usando a tecnologia. No grupo de degeneração macular, cinco de oito indivíduos preferiram as imagens VRD ao tubo de raios catódicos (CRT) ou imagens de papel e pensaram que eram melhores e mais brilhantes e foram capazes de ver níveis de resolução iguais ou melhores. Todos os pacientes com ceratocone puderam resolver linhas menores em vários testes de linha usando o VRD em oposição à sua própria correção. Eles também descobriram que as imagens VRD são mais fáceis de visualizar e mais nítidas. Como resultado desses vários testes, a tela retinal virtual é considerada uma tecnologia segura.

A exibição retinal virtual cria imagens que podem ser vistas à luz do dia ambiente e à luz ambiente da sala. O VRD é considerado um candidato preferido para uso em uma tela cirúrgica devido à sua combinação de alta resolução e alto contraste e brilho. Testes adicionais mostram alto potencial para o VRD ser usado como uma tecnologia de exibição para pacientes com baixa visão.

EyeTap

O EyeTap (também conhecido como Vidro Geração 2) captura raios de luz que, de outra forma, passariam pelo centro da lente do olho do usuário e substitui a luz sintética controlada por computador para cada raio de luz real.

O vidro da Geração 4 (Laser EyeTap) é semelhante ao VRD (ou seja, usa uma fonte de luz laser controlada por computador), exceto que também tem uma profundidade de foco infinita e faz com que o próprio olho, na verdade, funcione como uma câmera e uma exibição por meio de alinhamento exato com o olho e ressíntese (em luz laser) dos raios de luz que entram no olho.

Portátil

Um monitor portátil emprega um pequeno monitor que cabe na mão do usuário. Todas as soluções AR portáteis até o momento optam por vídeo transparente. Inicialmente, o AR portátil empregava marcadores fiduciais e, posteriormente, unidades de GPS e sensores MEMS, como bússolas digitais e acelerômetro- giroscópio de seis graus de liberdade . Hoje, rastreadores sem marcador de localização e mapeamento simultâneo (SLAM), como o PTAM (rastreamento e mapeamento paralelo), estão começando a ser usados. O display portátil AR promete ser o primeiro sucesso comercial das tecnologias AR. As duas principais vantagens da RA portátil são a natureza portátil dos dispositivos portáteis e a natureza onipresente dos telefones com câmera. As desvantagens são as restrições físicas de o usuário ter que segurar o dispositivo portátil na frente deles o tempo todo, bem como o efeito de distorção das câmeras de telefones celulares de ângulo amplo clássico em comparação com o mundo real, visto através do olho.

Jogos como Pokémon Go e Ingress utilizam uma interface Image Linked Map (ILM), onde localizações aprovadas com geo-tags aparecem em um mapa estilizado para o usuário interagir.

Mapeamento de projeção

O mapeamento de projeção aumenta os objetos e cenas do mundo real, sem o uso de telas especiais, como monitores, monitores tipo head-mounted ou dispositivos portáteis. O mapeamento de projeção usa projetores digitais para exibir informações gráficas em objetos físicos. A principal diferença no mapeamento de projeção é que a exibição é separada dos usuários do sistema. Como os monitores não estão associados a cada usuário, o mapeamento de projeção pode ser dimensionado naturalmente para grupos de usuários, permitindo a colaboração colocada entre os usuários.

Os exemplos incluem lâmpadas shader , projetores móveis, mesas virtuais e projetores inteligentes. As lâmpadas shader imitam e aumentam a realidade projetando imagens em objetos neutros. Isso oferece a oportunidade de aprimorar a aparência do objeto com materiais de uma unidade simples - um projetor, câmera e sensor.

Outras aplicações incluem projeções de mesa e parede. Uma inovação, a Mesa Virtual Estendida, separa o virtual do real incluindo espelhos divisores de feixe presos ao teto em um ângulo ajustável. As vitrines virtuais, que empregam espelhos divisores de feixe junto com várias telas gráficas, fornecem um meio interativo de interagir simultaneamente com o virtual e o real. Muitas outras implementações e configurações tornam a exibição de realidade aumentada espacial uma alternativa interativa cada vez mais atraente.

Um sistema de mapeamento de projeção pode ser exibido em qualquer número de superfícies em um ambiente interno ao mesmo tempo. O mapeamento de projeção suporta visualização gráfica e sensação tátil passiva para os usuários finais. Os usuários são capazes de tocar objetos físicos em um processo que fornece uma sensação tátil passiva.

Monitorando

Os sistemas de realidade aumentada móvel modernos usam uma ou mais das seguintes tecnologias de rastreamento de movimento : câmeras digitais e / ou outros sensores ópticos , acelerômetros, GPS, giroscópios, bússolas de estado sólido, identificação por radiofrequência (RFID). Essas tecnologias oferecem vários níveis de exatidão e precisão. O mais importante é a posição e orientação da cabeça do usuário. Rastrear a (s) mão (s) do usuário ou um dispositivo de entrada portátil pode fornecer uma técnica de interação 6DOF.

Networking

Os aplicativos de realidade aumentada móvel estão ganhando popularidade devido à ampla adoção de dispositivos móveis e especialmente de dispositivos vestíveis. No entanto, eles geralmente dependem de algoritmos de visão computacional intensiva em computação com requisitos extremos de latência. Para compensar a falta de capacidade de computação, descarregar o processamento de dados para uma máquina distante é frequentemente desejado. O descarregamento de computação introduz novas restrições nos aplicativos, especialmente em termos de latência e largura de banda. Embora haja uma infinidade de protocolos de transporte de multimídia em tempo real, também há necessidade de suporte da infraestrutura de rede.

Dispositivos de entrada

As técnicas incluem sistemas de reconhecimento de voz que traduzem as palavras faladas pelo usuário em instruções de computador e sistemas de reconhecimento de gestos que interpretam os movimentos do corpo do usuário por detecção visual ou de sensores embutidos em um dispositivo periférico, como uma varinha, caneta, ponteiro, luva ou outro traje corporal . Os produtos que estão tentando servir como controladores de fones de ouvido de RA incluem o Wave da Seebright Inc. e o Nimble da Intugine Technologies.

Computador

O computador analisa os dados visuais detectados e outros dados para sintetizar e posicionar aumentos. Os computadores são responsáveis ​​pelos gráficos que acompanham a realidade aumentada. A realidade aumentada usa uma imagem gerada por computador que tem um efeito impressionante na forma como o mundo real é mostrado. Com o aprimoramento da tecnologia e dos computadores, a realidade aumentada vai levar a uma mudança drástica na perspectiva do mundo real. De acordo com a Time , em cerca de 15-20 anos, prevê-se que a realidade aumentada e a realidade virtual se tornarão o principal uso para interações de computador. Os computadores estão melhorando em um ritmo muito rápido, levando a novas maneiras de aprimorar outras tecnologias. Quanto mais os computadores progredirem, a realidade aumentada se tornará mais flexível e mais comum na sociedade. Os computadores são o núcleo da realidade aumentada. O computador recebe dados dos sensores que determinam a posição relativa da superfície de um objeto. Isso se traduz em uma entrada para o computador que, em seguida, envia para os usuários, adicionando algo que de outra forma não estaria lá. O computador é composto por memória e um processador. O computador pega o ambiente escaneado e então gera imagens ou um vídeo e o coloca no receptor para o observador ver. As marcas fixas na superfície de um objeto são armazenadas na memória de um computador. O computador também se retira de sua memória para apresentar imagens de forma realista ao espectador. O melhor exemplo disso é o Abrigo de Ônibus Pepsi Max AR.

Projetor

Os projetores também podem ser usados ​​para exibir o conteúdo de RA. O projetor pode lançar um objeto virtual em uma tela de projeção e o visualizador pode interagir com este objeto virtual. As superfícies de projeção podem ser muitos objetos, como paredes ou painéis de vidro.

Software e algoritmos

Comparação de alguns marcadores fiduciais de realidade aumentada para visão computacional

Uma medida chave dos sistemas de AR é o quão realisticamente eles integram aumentações com o mundo real. O software deve derivar coordenadas do mundo real, independentemente da câmera e das imagens da câmera. Esse processo é chamado de registro de imagem e usa diferentes métodos de visão computacional , principalmente relacionados ao rastreamento de vídeo . Muitos métodos de visão por computador de realidade aumentada são herdados da odometria visual . Um augograma é uma imagem gerada por computador que é usada para criar RA. Augografia é a prática científica e de software de fazer augogramas para RA.

Normalmente, esses métodos consistem em duas partes. O primeiro estágio é detectar pontos de interesse , marcadores fiduciais ou fluxo óptico nas imagens da câmera. Esta etapa pode usar métodos de detecção de recursos como detecção de canto , detecção de blob , detecção de borda ou limite e outros métodos de processamento de imagem . O segundo estágio restaura um sistema de coordenadas do mundo real a partir dos dados obtidos no primeiro estágio. Alguns métodos assumem que objetos com geometria conhecida (ou marcadores fiduciais) estão presentes na cena. Em alguns desses casos, a estrutura da cena 3D deve ser calculada de antemão. Se parte da cena for desconhecida, a localização e o mapeamento simultâneos (SLAM) podem mapear as posições relativas. Se nenhuma informação sobre a geometria da cena estiver disponível, métodos de estrutura de movimento como ajuste de pacote são usados. Os métodos matemáticos usados ​​na segunda etapa incluem: geometria projetiva ( epipolar ), álgebra geométrica , representação de rotação com mapa exponencial , filtros kalman e de partículas , otimização não linear , estatística robusta .

Na realidade aumentada, a distinção é feita entre dois modos distintos de acompanhamento, conhecidos como marcador e sem marcadores . Os marcadores são pistas visuais que acionam a exibição das informações virtuais. Um pedaço de papel com algumas geometrias distintas pode ser usado. A câmera reconhece as geometrias identificando pontos específicos no desenho. O rastreamento sem marcadores, também chamado de rastreamento instantâneo, não usa marcadores. Em vez disso, o usuário posiciona o objeto na visualização da câmera, de preferência em um plano horizontal. Ele usa sensores em dispositivos móveis para detectar com precisão o ambiente do mundo real, como a localização de paredes e pontos de intersecção.

Augmented Reality Markup Language (ARML) é um padrão de dados desenvolvido dentro do Open Geospatial Consortium (OGC), que consiste na gramática Extensible Markup Language ( XML ) para descrever a localização e a aparência de objetos virtuais na cena, bem como ligações ECMAScript para permitir acesso dinâmico a propriedades de objetos virtuais.

Para permitir o rápido desenvolvimento de aplicativos de realidade aumentada, surgiram alguns kits de desenvolvimento de software (SDKs).

Desenvolvimento

A implementação de realidade aumentada em produtos de consumo requer a consideração do design dos aplicativos e as restrições relacionadas da plataforma de tecnologia. Como os sistemas de AR dependem fortemente da imersão do usuário e da interação entre o usuário e o sistema, o design pode facilitar a adoção da virtualidade. Para a maioria dos sistemas de realidade aumentada, uma diretriz de design semelhante pode ser seguida. O seguinte lista algumas considerações para projetar aplicativos de realidade aumentada:

Projeto ambiental / de contexto

O Context Design enfoca o ambiente físico do usuário final, o espaço espacial e a acessibilidade que podem desempenhar um papel ao usar o sistema de AR. Os designers devem estar cientes dos possíveis cenários físicos em que o usuário final pode estar, tais como:

  • Público, no qual os usuários usam todo o corpo para interagir com o software
  • Pessoal, em que o usuário usa um smartphone em um espaço público
  • Íntimo, em que o usuário está sentado em uma área de trabalho e não está realmente se movendo
  • Privado, em que o usuário tem um wearable.

Ao avaliar cada cenário físico, riscos potenciais à segurança podem ser evitados e mudanças podem ser feitas para melhorar ainda mais a imersão do usuário final. Os designers de UX terão que definir as jornadas do usuário para os cenários físicos relevantes e definir como a interface reage a cada um.

Especialmente em sistemas de RA, é vital considerar também os elementos espaciais e circundantes que alteram a eficácia da tecnologia de RA. Elementos ambientais, como iluminação e som, podem impedir que o sensor do dispositivo de AR detecte os dados necessários e arruinar a imersão do usuário final.

Outro aspecto do design de contexto envolve o design da funcionalidade do sistema e sua capacidade de acomodar as preferências do usuário. Embora as ferramentas de acessibilidade sejam comuns no design básico de aplicativos, algumas considerações devem ser feitas ao projetar prompts de tempo limitado (para evitar operações não intencionais), dicas de áudio e tempo geral de engajamento. É importante observar que em algumas situações, a funcionalidade do aplicativo pode prejudicar a capacidade do usuário. Por exemplo, os aplicativos usados ​​para dirigir devem reduzir a quantidade de interação do usuário e, em vez disso, usar dicas de áudio.

Design de interação

O design de interação em tecnologia de realidade aumentada centra-se no envolvimento do usuário com o produto final para melhorar a experiência e o prazer geral do usuário. O objetivo do design de interação é evitar alienar ou confundir o usuário ao organizar as informações apresentadas. Como a interação do usuário depende da entrada do usuário, os designers devem tornar os controles do sistema mais fáceis de entender e acessíveis. Uma técnica comum para melhorar a usabilidade de aplicativos de realidade aumentada é descobrir as áreas acessadas com frequência na tela sensível ao toque do dispositivo e projetar o aplicativo para corresponder a essas áreas de controle. Também é importante estruturar os mapas de jornada do usuário e o fluxo de informações apresentadas, o que reduz a carga cognitiva geral do sistema e melhora muito a curva de aprendizado do aplicativo.

No design de interação, é importante que os desenvolvedores utilizem a tecnologia de realidade aumentada que complementa a função ou propósito do sistema. Por exemplo, a utilização de filtros AR interessantes e o design da plataforma de compartilhamento exclusiva no Snapchat permite que os usuários aumentem suas interações sociais no aplicativo. Em outras aplicações que exigem que os usuários entendam o foco e a intenção, os projetistas podem empregar um retículo ou raycast do dispositivo. Além disso, os desenvolvedores de realidade aumentada podem achar apropriado escalar os elementos digitais ou reagir à direção da câmera e ao contexto dos objetos que podem ser detectados.

A tecnologia de realidade aumentada permite utilizar a introdução do espaço 3D . Isso significa que um usuário pode potencialmente acessar várias cópias de interfaces 2D em um único aplicativo de AR.

Design visual

Em geral, o design visual é a aparência do aplicativo em desenvolvimento que envolve o usuário. Para melhorar os elementos da interface gráfica e a interação do usuário, os desenvolvedores podem usar dicas visuais para informar ao usuário quais elementos da IU são projetados para interagir e como interagir com eles. Como navegar em um aplicativo de RA pode parecer difícil e frustrante, o design de dicas visuais pode fazer com que as interações pareçam mais naturais.

Em alguns aplicativos de realidade aumentada que usam um dispositivo 2D como uma superfície interativa, o ambiente de controle 2D não se traduz bem no espaço 3D, tornando os usuários hesitantes em explorar seus arredores. Para resolver esse problema, os designers devem aplicar dicas visuais para ajudar e encorajar os usuários a explorar seus arredores.

É importante observar os dois objetos principais em AR ao desenvolver aplicativos de RV: objetos volumétricos 3D que são manipulados e interagem de forma realista com luz e sombra; e imagens de mídia animadas, como imagens e vídeos, que são, em sua maioria, mídia 2D tradicional renderizada em um novo contexto para realidade aumentada. Quando objetos virtuais são projetados em um ambiente real, é um desafio para designers de aplicativos de realidade aumentada garantir uma integração perfeita em relação ao ambiente do mundo real, especialmente com objetos 2D. Assim, os designers podem adicionar peso aos objetos, usar mapas de profundidade e escolher diferentes propriedades de materiais que destacam a presença do objeto no mundo real. Outro design visual que pode ser aplicado é usar diferentes técnicas de iluminação ou projetar sombras para melhorar o julgamento de profundidade geral. Por exemplo, uma técnica comum de iluminação é simplesmente colocar uma fonte de luz acima da cabeça na posição de 12 horas, para criar sombras em objetos virtuais.

Possíveis aplicações

A realidade aumentada tem sido explorada para muitas aplicações, desde jogos e entretenimento até medicina, educação e negócios. As áreas de aplicação de exemplo descritas abaixo incluem arqueologia, arquitetura, comércio e educação. Alguns dos primeiros exemplos citados incluem realidade aumentada usada para apoiar a cirurgia, fornecendo sobreposições virtuais para orientar os médicos, para conteúdo AR para astronomia e soldagem.

Arqueologia

AR tem sido usado para auxiliar na pesquisa arqueológica . Ao aumentar os recursos arqueológicos para a paisagem moderna, o AR permite que os arqueólogos formulem possíveis configurações do local a partir de estruturas existentes. Modelos gerados por computador de ruínas, edifícios, paisagens ou mesmo pessoas antigas foram reciclados nas primeiras aplicações arqueológicas de RA. Por exemplo, a implementação de um sistema como o VITA (Visual Interaction Tool for Archaeology) permitirá aos usuários imaginar e investigar resultados de escavações instantâneos sem sair de casa. Cada usuário pode colaborar mutuamente "navegando, pesquisando e visualizando dados". Hrvoje Benko, pesquisador do departamento de ciência da computação da Universidade de Columbia , aponta que esses sistemas específicos e outros como eles podem fornecer "imagens panorâmicas 3D e modelos 3D do próprio local em diferentes estágios de escavação" ao mesmo tempo em que organizam muitos dos dados de forma colaborativa e fácil de usar. Os sistemas AR colaborativos fornecem interações multimodais que combinam o mundo real com imagens virtuais de ambos os ambientes.

Arquitetura

AR pode ajudar na visualização de projetos de construção. As imagens geradas por computador de uma estrutura podem ser sobrepostas em uma visão local da vida real de uma propriedade antes que o edifício físico seja ali construído; isso foi demonstrado publicamente pela Trimble Navigation em 2004. AR também pode ser empregado dentro da área de trabalho de um arquiteto, renderizando visualizações 3D animadas de seus desenhos 2D. A visão da arquitetura pode ser aprimorada com aplicativos de RA, permitindo que os usuários visualizem o exterior de um edifício para ver virtualmente através de suas paredes, visualizando seus objetos internos e layout.

Com melhorias contínuas na precisão do GPS , as empresas podem usar a realidade aumentada para visualizar modelos georreferenciados de canteiros de obras, estruturas subterrâneas, cabos e tubos usando dispositivos móveis. A realidade aumentada é aplicada para apresentar novos projetos, para resolver desafios de construção no local e para aprimorar materiais promocionais. Os exemplos incluem o Daqri Smart Helmet, um capacete com Android usado para criar realidade aumentada para o trabalhador industrial, incluindo instruções visuais, alertas em tempo real e mapeamento 3D.

Após o terremoto de Christchurch , a Universidade de Canterbury lançou o CityViewAR, que permitiu que planejadores e engenheiros da cidade visualizassem edifícios que haviam sido destruídos. Isso não apenas forneceu aos planejadores ferramentas para fazer referência à paisagem urbana anterior , mas também serviu como um lembrete da magnitude da devastação resultante, pois prédios inteiros foram demolidos.

Desenho e planejamento urbano

Os sistemas de AR estão sendo usados ​​como ferramentas colaborativas para design e planejamento no ambiente construído. Por exemplo, AR pode ser usado para criar mapas de realidade aumentada, edifícios e feeds de dados projetados em mesas para visualização colaborativa por profissionais de ambiente construído. A AR externa promete que os projetos e planos podem ser sobrepostos ao mundo real, redefinindo a competência dessas profissões para incluir o design in situ em seus processos. As opções de design podem ser articuladas no local e parecem mais próximas da realidade do que os mecanismos tradicionais de desktop, como mapas 2D e modelos 3D.

Educação STEM

Em ambientes educacionais, a RA tem sido usada para complementar um currículo padrão. Texto, gráficos, vídeo e áudio podem ser sobrepostos no ambiente em tempo real do aluno. Livros didáticos, flashcards e outros materiais de leitura educacional podem conter "marcadores" ou gatilhos que, quando digitalizados por um dispositivo de RA, produzem informações complementares para o aluno em formato multimídia. A 2015 Virtual, Augmented and Mixed Reality: 7th International Conference mencionou o Google Glass como um exemplo de realidade aumentada que pode substituir a sala de aula física. Em primeiro lugar, as tecnologias de RA ajudam os alunos a se envolverem em uma exploração autêntica no mundo real, e os objetos virtuais, como textos, vídeos e imagens, são elementos complementares para os alunos conduzirem investigações dos arredores do mundo real.

Conforme a AR evolui, os alunos podem participar interativamente e interagir com o conhecimento de forma mais autêntica. Em vez de permanecerem receptores passivos, os alunos podem se tornar alunos ativos, capazes de interagir com seu ambiente de aprendizagem. Simulações geradas por computador de eventos históricos permitem que os alunos explorem e aprendam detalhes de cada área significativa do local do evento.

No ensino superior, o Construct3D, um sistema Studierstube, permite que os alunos aprendam conceitos de engenharia mecânica, matemática ou geometria. Os aplicativos RA de química permitem que os alunos visualizem e interajam com a estrutura espacial de uma molécula usando um objeto marcador seguro na mão. Outros usaram o HP Reveal, um aplicativo gratuito, para criar notecards de RA para estudar os mecanismos da química orgânica ou para criar demonstrações virtuais de como usar a instrumentação de laboratório. Os alunos de anatomia podem visualizar diferentes sistemas do corpo humano em três dimensões. O uso de RA como uma ferramenta para aprender estruturas anatômicas demonstrou aumentar o conhecimento do aluno e fornecer benefícios intrínsecos, como maior envolvimento e imersão do aluno.

Manufaturação industrial

AR é usado para substituir manuais em papel por instruções digitais que são sobrepostas no campo de visão do operador de manufatura, reduzindo o esforço mental necessário para operar. AR torna a manutenção da máquina eficiente porque dá aos operadores acesso direto ao histórico de manutenção da máquina. Os manuais virtuais ajudam os fabricantes a se adaptarem a designs de produtos que mudam rapidamente, pois as instruções digitais são editadas e distribuídas com mais facilidade em comparação com os manuais físicos.

As instruções digitais aumentam a segurança do operador, eliminando a necessidade de os operadores olharem para uma tela ou manual longe da área de trabalho, o que pode ser perigoso. Em vez disso, as instruções são sobrepostas na área de trabalho. O uso de AR pode aumentar a sensação de segurança dos operadores ao trabalhar perto de máquinas industriais de alta carga, fornecendo aos operadores informações adicionais sobre o status da máquina e funções de segurança, bem como áreas perigosas do espaço de trabalho.

Comércio

Ilustração de uma imagem AR-Icon
O AR-Icon pode ser usado como um marcador na mídia impressa ou online. Sinaliza ao espectador que o conteúdo digital está por trás disso. O conteúdo pode ser visualizado em um smartphone ou tablet

AR é usado para integrar marketing de impressão e vídeo. O material de marketing impresso pode ser projetado com certas imagens de "gatilho" que, quando digitalizadas por um dispositivo habilitado para AR usando reconhecimento de imagem, ativam uma versão em vídeo do material promocional. Uma grande diferença entre realidade aumentada e reconhecimento de imagem direto é que pode-se sobrepor várias mídias ao mesmo tempo na tela de visualização, como botões de compartilhamento de mídia social, vídeo in-page, até mesmo áudio e objetos 3D. Publicações apenas impressas tradicionais estão usando realidade aumentada para conectar diferentes tipos de mídia.

A AR pode aprimorar as visualizações do produto, permitindo que um cliente veja o que está dentro da embalagem de um produto sem abri-la. AR também pode ser usado como um auxílio na seleção de produtos em um catálogo ou em um quiosque. As imagens digitalizadas de produtos podem ativar visualizações de conteúdo adicional, como opções de personalização e imagens adicionais do produto em uso.

Em 2010, camarins virtuais foram desenvolvidos para e-commerce.

Em 2012, uma casa da moeda usou técnicas de RA para comercializar uma moeda comemorativa para Aruba. A própria moeda foi usada como um gatilho AR e, quando segurada na frente de um dispositivo habilitado para AR, revelou objetos adicionais e camadas de informações que não eram visíveis sem o dispositivo.

Em 2018, a Apple anunciou o suporte de arquivo USDZ AR para iPhones e iPads com iOS12. A Apple criou uma AR QuickLook Gallery que permite que as massas experimentem a realidade aumentada em seus próprios dispositivos Apple.

Em 2018, a Shopify , empresa canadense de comércio eletrônico, anunciou a integração do ARkit2. Seus comerciantes podem usar as ferramentas para fazer upload de modelos 3D de seus produtos. Os usuários poderão tocar nas mercadorias dentro do Safari para visualizar em seus ambientes do mundo real.

Em 2018, Twinkl lançou um aplicativo gratuito para sala de aula de RA. Os alunos podem ver como era York há mais de 1.900 anos. Twinkl lançou o primeiro jogo AR multijogador, Little Red e tem mais de 100 modelos educacionais AR gratuitos.

A realidade aumentada está se tornando cada vez mais usada para publicidade online. Os varejistas oferecem a possibilidade de fazer upload de uma foto em seu site e "experimentar" várias roupas que são sobrepostas na foto. Além disso, empresas como a Bodymetrics instalam cabines de curativos em lojas de departamentos que oferecem digitalização de corpo inteiro . Esses estandes reproduzem um modelo 3-D do usuário, permitindo que os consumidores vejam roupas diferentes em si mesmos, sem a necessidade de trocar de roupa fisicamente. Por exemplo, JC Penney e Bloomingdale's usam " camarins virtuais " que permitem que os clientes se vejam com roupas sem experimentá-las. Outra loja que usa AR para comercializar roupas para seus clientes é a Neiman Marcus . Neiman Marcus oferece aos consumidores a capacidade de ver suas roupas em uma visão de 360 ​​graus com seu "espelho de memória". Lojas de maquiagem como L'Oreal , Sephora , Charlotte Tilbury e Rimmel também têm aplicativos que utilizam RA. Esses aplicativos permitem que os consumidores vejam como a maquiagem ficará neles. De acordo com Greg Jones, diretor de RA e VR do Google, a realidade aumentada vai "reconectar o varejo físico e digital".

A tecnologia AR também é usada por varejistas de móveis como IKEA , Houzz e Wayfair . Esses varejistas oferecem aplicativos que permitem que os consumidores vejam seus produtos em casa antes de comprar qualquer coisa. Em 2017, a Ikea anunciou o aplicativo Ikea Place. Ele contém um catálogo de mais de 2.000 produtos - quase a coleção completa da empresa de sofás, poltronas, mesas de centro e unidades de armazenamento que podem ser colocadas em qualquer lugar em uma sala com seu telefone. O aplicativo tornou possível ter modelos de móveis em 3D e em escala real na sala do cliente. A IKEA percebeu que seus clientes não estão comprando nas lojas com tanta frequência ou fazendo compras diretas. A aquisição do Primer, um aplicativo de AR pela Shopify, visa impulsionar os vendedores de pequeno e médio porte para compras de AR interativas com integração AR fácil de usar e experiência do usuário para comerciantes e consumidores.

Literatura

Ilustração de um código QR
Um exemplo de um código AR contendo um código QR

A primeira descrição de AR como é conhecida hoje foi em Virtual Light , romance de 1994 de William Gibson. Em 2011, AR foi misturado com poesia de ni ka da Sekai Camera em Tóquio, Japão. A prosa desses poemas de RA vem de Paul Celan , Die Niemandsrose , expressando as consequências do terremoto e tsunami Tōhoku em 2011 .

Arte visual

Ilustração do AR Game 10.000 Moving Cities Art Installation.
10.000 cidades em movimento , Marc Lee , jogo multijogador de realidade aumentada, instalação artística

A RA aplicada nas artes visuais permite que objetos ou locais desencadeiem experiências e interpretações artísticas multidimensionais da realidade.

A realidade aumentada pode ajudar na progressão das artes visuais em museus, permitindo que os visitantes dos museus vejam as obras de arte nas galerias de uma forma multidimensional por meio das telas de seus telefones. O Museu de Arte Moderna de Nova York criou uma exposição em seu museu de arte apresentando recursos de RA que os espectadores podem ver usando um aplicativo em seu smartphone. O museu desenvolveu seu aplicativo pessoal, denominado Galeria MoMAR, que os visitantes do museu podem baixar e usar na galeria especializada em realidade aumentada para ver as pinturas do museu de uma maneira diferente. Isso permite que os indivíduos vejam aspectos e informações ocultos sobre as pinturas e também possam ter uma experiência tecnológica interativa com obras de arte.

A tecnologia AR também foi usada em "Margin of Error" e "Revolutions", de Nancy Baker Cahill , as duas peças de arte públicas que ela criou para a exposição Desert X 2019 .

A tecnologia AR ajudou no desenvolvimento da tecnologia de rastreamento ocular para traduzir os movimentos dos olhos de uma pessoa com deficiência em desenhos na tela.

A tecnologia AR também pode ser usada para colocar objetos no ambiente do usuário. Um artista dinamarquês, Olafur Eliasson , está colocando objetos como sóis em chamas, rochas extraterrestres e animais raros no ambiente do usuário.

Ginástica

O hardware e software AR para uso em exercícios físicos inclui óculos inteligentes feitos para ciclismo e corrida, com análise de desempenho e navegação de mapa projetada no campo de visão do usuário e boxe, artes marciais e tênis, onde os usuários permanecem cientes de seu ambiente físico para segurança . Os jogos e softwares relacionados a exercícios físicos incluem Pokémon Go e Jurassic World Alive .

Interação Humano-Computador

A Interação Humano-Computador é uma área interdisciplinar da computação que trata do projeto e implementação de sistemas que interagem com as pessoas. Os pesquisadores em HCI vêm de uma série de disciplinas, incluindo ciência da computação, engenharia, design, fator humano e ciências sociais, com o objetivo comum de resolver problemas de design e uso de tecnologia para que possa ser usada de forma mais fácil e eficaz , com eficiência, segurança e satisfação.

Colaboração remota

As crianças da escola primária aprendem facilmente com experiências interativas. Como exemplo, constelações astronômicas e os movimentos de objetos no sistema solar foram orientados em 3D e sobrepostos na direção em que o dispositivo foi segurado e expandidos com informações de vídeo suplementares. As ilustrações de livros científicos em papel podem parecer ganhar vida como vídeo sem exigir que a criança navegue em materiais baseados na web.

Em 2013, foi lançado um projeto no Kickstarter para ensinar sobre eletrônica com um brinquedo educacional que permitia às crianças escanear seu circuito com um iPad e ver a corrente elétrica circulando. Embora alguns aplicativos educacionais estivessem disponíveis para RA em 2016, eles não eram amplamente usados. Os aplicativos que aproveitam a realidade aumentada para ajudar no aprendizado incluem SkyView para estudar astronomia, Circuitos AR para construir circuitos elétricos simples e SketchAr para desenhar.

A RA também seria uma forma de pais e professores atingirem seus objetivos para a educação moderna, o que pode incluir o fornecimento de um aprendizado mais individualizado e flexível, fazendo conexões mais estreitas entre o que é ensinado na escola e o mundo real, e ajudando os alunos a se envolverem mais seu próprio aprendizado.

Gestão de emergência / busca e salvamento

Os sistemas de realidade aumentada são usados ​​em situações de segurança pública , de supertempestades a suspeitos em geral.

Já em 2009, dois artigos do Emergency Management discutiam a tecnologia de AR para gerenciamento de emergências. O primeiro foi "Realidade Aumentada - Tecnologia Emergente para Gerenciamento de Emergências", de Gerald Baron. De acordo com Adam Crow: "Tecnologias como realidade aumentada (ex: Google Glass) e a expectativa crescente do público continuarão a forçar os gerentes de emergência profissionais a mudar radicalmente quando, onde e como a tecnologia é implantada antes, durante e depois dos desastres . "

Outro exemplo inicial foi uma aeronave de busca à procura de um alpinista perdido em terreno montanhoso acidentado. Os sistemas de realidade aumentada forneceram aos operadores de câmeras aéreas uma consciência geográfica dos nomes das estradas florestais e locais combinados com o vídeo da câmera. O operador de câmera conseguiu pesquisar melhor o caminhante conhecendo o contexto geográfico da imagem da câmera. Uma vez localizado, o operador poderia direcionar os socorristas com mais eficiência para o local do caminhante porque a posição geográfica e os marcos de referência estavam claramente identificados.

Interação social

AR pode ser usado para facilitar a interação social. Uma estrutura de rede social de realidade aumentada chamada Talk2Me permite que as pessoas divulguem informações e vejam as informações anunciadas de outras pessoas de uma forma de realidade aumentada. As funcionalidades de compartilhamento e visualização de informações oportunas e dinâmicas do Talk2Me ajudam a iniciar conversas e fazer amigos para usuários com pessoas nas proximidades físicas. No entanto, o uso de um fone de ouvido AR pode inibir a qualidade de uma interação entre duas pessoas, se uma não estiver usando um, caso o fone de ouvido se torne uma distração.

A realidade aumentada também oferece aos usuários a capacidade de praticar diferentes formas de interação social com outras pessoas em um ambiente seguro e livre de riscos. Hannes Kauffman, Professor Associado de Realidade Virtual na TU Vienna , diz: "Em realidade aumentada colaborativa, vários usuários podem acessar um espaço compartilhado povoado por objetos virtuais, enquanto permanecem baseados no mundo real. Esta técnica é particularmente poderosa para fins educacionais quando os usuários estão colocado e pode usar meios naturais de comunicação (fala, gestos, etc.), mas também pode ser misturado com sucesso com RV imersiva ou colaboração remota. " Hannes cita a educação como um uso potencial dessa tecnologia.

Jogos de vídeo

Uma imagem de um jogo de RA para celular
Um jogo para dispositivos móveis de RA usando uma imagem de gatilho como marcador fiducial

A indústria de jogos adotou a tecnologia AR. Vários jogos foram desenvolvidos para ambientes internos preparados, como air hockey AR, Titans of Space , combate colaborativo contra inimigos virtuais e jogos de mesa de sinuca aprimorados por AR.

A realidade aumentada permitiu que os jogadores de videogame experimentassem o jogo digital em um ambiente do mundo real. A Niantic lançou o jogo de realidade aumentada para celular Pokémon Go . A Disney fez parceria com a Lenovo para criar o jogo de realidade aumentada Star Wars : Jedi Challenges que funciona com um headset Lenovo Mirage AR, um sensor de rastreamento e um controlador de sabre de luz , com lançamento previsto para dezembro de 2017.

Os jogos de realidade aumentada (ARG) também são usados ​​para comercializar propriedades de entretenimento de cinema e televisão. Em 16 de março de 2011, a BitTorrent promoveu uma versão com licença aberta do longa-metragem Zenith nos Estados Unidos. Os usuários que baixaram o software cliente BitTorrent também foram incentivados a baixar e compartilhar a Parte Um de três partes do filme. Em 4 de maio de 2011, a Parte Dois do filme foi disponibilizada no VODO . O lançamento episódico do filme, complementado por uma campanha de marketing transmídia ARG, criou um efeito viral e mais de um milhão de usuários baixaram o filme.

Desenho industrial

AR permite que os designers industriais experimentem o design e a operação de um produto antes da conclusão. A Volkswagen usou AR para comparar imagens de testes de colisão calculadas e reais. AR tem sido usado para visualizar e modificar a estrutura da carroceria do carro e o layout do motor. Também foi usado para comparar maquetes digitais com maquetes físicas para encontrar discrepâncias entre eles.

Planejamento, prática e educação de saúde

Uma das primeiras aplicações da realidade aumentada foi na área da saúde, principalmente para apoiar o planejamento, a prática e o treinamento de procedimentos cirúrgicos. Já em 1992, melhorar o desempenho humano durante a cirurgia era um objetivo formalmente declarado ao construir os primeiros sistemas de realidade aumentada nos laboratórios da Força Aérea dos Estados Unidos. Desde 2005, um dispositivo chamado localizador de veias no infravermelho próximo, que filma as veias subcutâneas, processa e projeta a imagem das veias na pele, tem sido usado para localizar veias. O AR fornece aos cirurgiões dados de monitoramento do paciente no estilo do display heads-up de um piloto de caça e permite que os registros de imagem do paciente, incluindo vídeos funcionais, sejam acessados ​​e sobrepostos. Os exemplos incluem uma visão de raio-X virtual com base em tomografia anterior ou em imagens em tempo real de ultrassom e sondas de microscopia confocal , visualização da posição de um tumor no vídeo de um endoscópio ou riscos de exposição à radiação de dispositivos de imagem de raio-X. A RA pode melhorar a visualização de um feto dentro do útero da mãe . Siemens, Karl Storz e IRCAD desenvolveram um sistema para cirurgia laparoscópica do fígado que usa RA para visualizar tumores e vasos subterrâneos . AR tem sido usado para tratamento de fobia de baratas. Os pacientes que usam óculos de realidade aumentada podem ser lembrados de tomar medicamentos. A realidade aumentada pode ser muito útil na área médica. Ele pode ser usado para fornecer informações cruciais a um médico ou cirurgião sem que eles tirem os olhos do paciente. Em 30 de abril de 2015, a Microsoft anunciou o Microsoft HoloLens , sua primeira tentativa de realidade aumentada. O HoloLens avançou ao longo dos anos e é capaz de projetar hologramas para cirurgia guiada por imagem baseada em fluorescência no infravermelho próximo. À medida que a realidade aumentada avança, encontra cada vez mais aplicações na área da saúde. A realidade aumentada e utilitários semelhantes baseados em computador estão sendo usados ​​para treinar profissionais médicos. Na área da saúde, a RA pode ser usada para fornecer orientação durante as intervenções diagnósticas e terapêuticas, por exemplo, durante a cirurgia. Magee et al. por exemplo, descreva o uso de realidade aumentada para treinamento médico na simulação de colocação de agulha guiada por ultrassom. Um estudo muito recente de Akçayır, Akçayır, Pektaş e Ocak (2016) revelou que a tecnologia AR melhora as habilidades de laboratório dos estudantes universitários e os ajuda a construir atitudes positivas em relação ao trabalho de laboratório de física. Recentemente, a realidade aumentada começou a ser adotada na neurocirurgia , um campo que requer grande quantidade de imagens antes dos procedimentos.

Imersão e interação espacial

Os aplicativos de realidade aumentada, executados em dispositivos portáteis utilizados como fones de ouvido de realidade virtual, também podem digitalizar a presença humana no espaço e fornecer um modelo gerado por computador deles, em um espaço virtual onde eles podem interagir e realizar várias ações. Tais capacidades são demonstradas pelo Project Anywhere, desenvolvido por um estudante de pós-graduação na ETH Zurich, que foi apelidado de "experiência fora do corpo".

Treinamento de vôo

Com base em décadas de pesquisa perceptivo-motora em psicologia experimental, pesquisadores do Laboratório de Pesquisa de Aviação da Universidade de Illinois em Urbana-Champaign usaram a realidade aumentada na forma de uma trajetória de voo no céu para ensinar aos alunos de voo como pousar um avião usando um simulador de vôo. Uma programação aumentada adaptativa em que os alunos só viram o aumento quando eles saíram da trajetória de vôo provou ser uma intervenção de treinamento mais eficaz do que uma programação constante. Os alunos de vôo ensinados a pousar no simulador com o aumento adaptativo aprenderam a pousar uma aeronave leve mais rapidamente do que os alunos com a mesma quantidade de treinamento de pouso no simulador, mas com aumento constante ou sem qualquer aumento.

Militares

Fotografia de um sistema de realidade aumentada para o soldado ARC4.
Sistema de realidade aumentada para o soldado ARC4 (Exército dos EUA 2017)

Uma aplicação inicial interessante do AR ocorreu quando a Rockwell International criou sobreposições de mapas de vídeo de satélites e trilhas de detritos orbitais para auxiliar nas observações espaciais no Sistema Óptico de Maui da Força Aérea. Em seu artigo de 1993 "Correlação de detritos usando o sistema Rockwell WorldView", os autores descrevem o uso de sobreposições de mapas aplicadas a vídeos de telescópios de vigilância espacial. As sobreposições do mapa indicavam as trajetórias de vários objetos em coordenadas geográficas. Isso permitiu que os operadores do telescópio identificassem satélites e também identificassem e catalogassem detritos espaciais potencialmente perigosos.

A partir de 2003, o Exército dos EUA integrou o sistema de realidade aumentada SmartCam3D ao Shadow Unmanned Aerial System para ajudar os operadores de sensores usando câmeras telescópicas para localizar pessoas ou pontos de interesse. O sistema combinava informações geográficas fixas, incluindo nomes de ruas, pontos de interesse, aeroportos e ferrovias com vídeo ao vivo do sistema de câmeras. O sistema oferecia um modo "imagem em imagem" que permite mostrar uma visão sintética da área ao redor do campo de visão da câmera. Isso ajuda a resolver um problema em que o campo de visão é tão estreito que exclui contextos importantes, como se "olhando por um canudo de refrigerante". O sistema exibe marcadores de localização de amigo / inimigo / neutro em tempo real combinados com vídeo ao vivo, fornecendo ao operador uma percepção melhorada da situação.

A partir de 2010, os pesquisadores coreanos estão procurando implementar robôs de detecção de minas nas forças armadas. O projeto proposto para tal robô inclui uma plataforma móvel que é como uma trilha que seria capaz de cobrir distâncias irregulares, incluindo escadas. O sensor de detecção de minas do robô incluiria uma combinação de detectores de metal e radar de penetração no solo para localizar minas ou IEDs . Este design exclusivo seria extremamente útil para salvar vidas de soldados coreanos.

Pesquisadores do Laboratório de Pesquisa da USAF (Calhoun, Draper et al.) Encontraram um aumento de aproximadamente duas vezes na velocidade com que os operadores de sensores de UAV encontraram pontos de interesse usando esta tecnologia. Essa capacidade de manter a consciência geográfica aumenta quantitativamente a eficiência da missão. O sistema está em uso no US Army RQ-7 Shadow e nos sistemas aéreos não tripulados MQ-1C Gray Eagle.

Sistema de revisão circular da empresa LimpidArmor

Em combate, o AR pode servir como um sistema de comunicação em rede que processa dados úteis do campo de batalha nos óculos de um soldado em tempo real. Do ponto de vista do soldado, pessoas e vários objetos podem ser marcados com indicadores especiais para alertar sobre perigos potenciais. Mapas virtuais e imagens de câmera com visão de 360 ​​° também podem ser renderizados para auxiliar a navegação do soldado e a perspectiva do campo de batalha, e isso pode ser transmitido aos líderes militares em um centro de comando remoto. A combinação de visualização de câmeras de 360 ​​° e AR pode ser usada a bordo de veículos de combate e tanques como sistema de revisão circular .

AR pode ser muito eficaz para projetar virtualmente as topologias 3D de estoques de munição no terreno com a escolha da combinação de munições em pilhas e distâncias entre eles com uma visualização das áreas de risco. O escopo dos aplicativos de AR também inclui a visualização de dados de sensores de monitoramento de munições incorporados.

Navegação

Ilustração de uma sobreposição de mapa de vídeo LandForm marcando pistas, estradas e edifícios
Sobreposição de mapa de vídeo LandForm marcando pistas, estradas e edifícios durante o teste de voo de helicóptero em 1999

O NASA X-38 foi pilotado usando um sistema híbrido de visão sintética que sobrepôs os dados do mapa em vídeo para fornecer navegação aprimorada para a espaçonave durante os testes de voo de 1998 a 2002. Ele usou o software LandForm que foi útil para tempos de visibilidade limitada, incluindo um exemplo, quando a janela da câmera de vídeo congelou, deixando os astronautas confiarem nas sobreposições do mapa. O software LandForm também foi testado no campo de provas do Exército Yuma em 1999. Na foto à direita pode-se ver os marcadores de mapa indicando pistas, torre de controle de tráfego aéreo, pistas de taxiamento e hangares sobrepostos ao vídeo.

AR pode aumentar a eficácia dos dispositivos de navegação. As informações podem ser exibidas no para-brisa de um automóvel indicando direções e medidor de destino, clima, terreno, condições das estradas e informações de tráfego, bem como alertas para perigos potenciais em seu caminho. Desde 2012, uma empresa suíça WayRay tem desenvolvido sistemas de navegação AR holográficos que usam elementos ópticos holográficos para projetar todas as informações relacionadas à rota, incluindo direções, notificações importantes e pontos de interesse na linha de visão dos motoristas e muito à frente o veículo. A bordo de embarcações marítimas, o AR pode permitir que os vigilantes da ponte monitorem continuamente informações importantes, como o rumo e a velocidade de um navio, enquanto se move pela ponte ou realiza outras tarefas.

Local de trabalho

A realidade aumentada pode ter um impacto positivo na colaboração no trabalho, pois as pessoas podem estar inclinadas a interagir mais ativamente com seu ambiente de aprendizagem. Também pode encorajar a renovação do conhecimento tácito, o que torna as empresas mais competitivas. AR foi usado para facilitar a colaboração entre os membros da equipe distribuídos por meio de conferências com participantes locais e virtuais. As tarefas de AR incluíam brainstorming e reuniões de discussão utilizando a visualização comum por meio de mesas de tela de toque, quadros brancos interativos digitais, espaços de design compartilhados e salas de controle distribuídas.

Em ambientes industriais, a realidade aumentada está provando ter um impacto substancial com mais e mais casos de uso emergindo em todos os aspectos do ciclo de vida do produto, desde o design do produto e introdução de novo produto (NPI) até a fabricação, serviço e manutenção, manuseio de materiais e distribuição. Por exemplo, etiquetas foram exibidas em partes de um sistema para esclarecer as instruções de operação para um mecânico que realiza manutenção em um sistema. As linhas de montagem se beneficiaram do uso de AR. Além da Boeing, a BMW e a Volkswagen eram conhecidas por incorporar essa tecnologia às linhas de montagem para monitorar as melhorias dos processos. As máquinas grandes são difíceis de manter por causa de suas múltiplas camadas ou estruturas. A AR permite que as pessoas olhem através da máquina como se fossem um raio-x, apontando-lhes o problema imediatamente.

Com a evolução da tecnologia AR e a chegada ao mercado de dispositivos AR de segunda e terceira geração, o impacto da AR nas empresas continua a florescer. Na Harvard Business Review , Magid Abraham e Marco Annunziata discutem como os dispositivos de RA agora estão sendo usados ​​para "aumentar a produtividade dos funcionários em uma série de tarefas na primeira vez em que são usados, mesmo sem treinamento prévio". Eles afirmam que "essas tecnologias aumentar a produtividade tornando os trabalhadores mais qualificados e eficientes e, portanto, com potencial para gerar mais crescimento econômico e melhores empregos ".

Transmitir e eventos ao vivo

As visualizações do tempo foram a primeira aplicação de realidade aumentada na televisão. Agora se tornou comum em projeções meteorológicas exibir vídeo em movimento total de imagens capturadas em tempo real de várias câmeras e outros dispositivos de imagem. Juntamente com símbolos gráficos 3D e mapeados para um modelo geoespacial virtual comum, essas visualizações animadas constituem a primeira aplicação verdadeira de RA para TV.

AR tornou-se comum na transmissão de esportes. Os locais de esportes e entretenimento são fornecidos com aumento transparente e sobreposto por meio de feeds de câmera rastreados para visualização aprimorada pelo público. Os exemplos incluem a linha amarela de " primeira descida " vista em transmissões de televisão de jogos de futebol americano mostrando a linha que o time de ataque deve cruzar para receber uma primeira descida. AR também é usado em associação com futebol e outros eventos esportivos para mostrar anúncios comerciais sobrepostos na área de jogo. Seções de campos de rúgbi e campos de críquete também exibem imagens patrocinadas. As transmissões de natação geralmente adicionam uma linha através das raias para indicar a posição do atual detentor do recorde à medida que a corrida avança para permitir que os espectadores comparem a corrida atual com o melhor desempenho. Outros exemplos incluem rastreamento de disco de hóquei e anotações de desempenho de carros de corrida e trajetórias de bola de sinuca.

AR tem sido usado para aprimorar apresentações de concertos e teatro. Por exemplo, os artistas permitem que os ouvintes aumentem sua experiência auditiva adicionando sua performance à de outras bandas / grupos de usuários.

Turismo e turismo

Os viajantes podem usar AR para acessar telas informativas em tempo real sobre um local, seus recursos e comentários ou conteúdo fornecido por visitantes anteriores. Os aplicativos avançados de AR incluem simulações de eventos históricos, lugares e objetos renderizados na paisagem.

Os aplicativos de AR vinculados a localizações geográficas apresentam informações de localização por áudio, anunciando recursos de interesse em um determinado site à medida que se tornam visíveis para o usuário.

Tradução

Os sistemas de AR, como o Word Lens, podem interpretar o texto estrangeiro em placas e menus e, na visão aumentada do usuário, reexibir o texto no idioma do usuário. Palavras faladas em um idioma estrangeiro podem ser traduzidas e exibidas na visão do usuário como legendas impressas.

Música

Foi sugerido que a realidade aumentada pode ser usada em novos métodos de produção , mixagem , controle e visualização musical .

Foi conceituada uma ferramenta para criação de música 3D em clubes que, além dos recursos regulares de mixagem de som, permite ao DJ tocar dezenas de samples de som , colocados em qualquer lugar do espaço 3D.

As equipes do Leeds College of Music desenvolveram um aplicativo de RA que pode ser usado com as mesas Audient e permite que os alunos usem seus smartphones ou tablets para colocar camadas de informações ou interatividade em cima de uma mesa de mixagem Audient.

ARmony é um pacote de software que faz uso de realidade aumentada para ajudar as pessoas a aprender um instrumento.

Em um projeto de prova de conceito, Ian Sterling, um estudante de design de interação no California College of the Arts , e o engenheiro de software Swaroop Pal demonstrou um aplicativo HoloLens cujo objetivo principal é fornecer uma IU espacial 3D para dispositivos de plataforma cruzada - o Android Music O aplicativo Player e o Fan and Light controlados pelo Arduino - e também permitem a interação usando o olhar e o controle por gestos.

AR Mixer é um aplicativo que permite selecionar e misturar músicas manipulando objetos - como alterar a orientação de uma garrafa ou lata.

Em um vídeo, Uriel Yehezkel demonstra o uso do controlador Leap Motion e GECO MIDI para controlar o Ableton Live com gestos manuais e afirma que por este método ele foi capaz de controlar mais de 10 parâmetros simultaneamente com ambas as mãos e assumir o controle total sobre a construção do música, emoção e energia.

Foi proposto um novo instrumento musical que permite aos novatos tocar composições musicais eletrônicas, remixando e modulando interativamente seus elementos, por meio da manipulação de objetos físicos simples.

Foi sugerido um sistema que usa gestos explícitos e movimentos de dança implícitos para controlar os aumentos visuais de uma performance de música ao vivo que permitem performances mais dinâmicas e espontâneas e - em combinação com realidade aumentada indireta - levando a uma interação mais intensa entre o artista e o público.

Pesquisas feitas por membros do CRIStAL da Universidade de Lille fazem uso da realidade aumentada para enriquecer a performance musical. O projeto ControllAR permite que músicos aumentem suas superfícies de controle MIDI com interfaces gráficas de usuário remixadas de software de música . O projeto Rouages ​​se propõe a aumentar os instrumentos musicais digitais para revelar seus mecanismos ao público e, assim, melhorar a vivacidade percebida. Reflets é um novo display de realidade aumentada dedicado a apresentações musicais em que o público atua como um display 3D, revelando conteúdo virtual no palco, que também pode ser usado para interação e colaboração musical 3D.

Snapchat

Os usuários do Snapchat têm acesso à realidade aumentada no aplicativo de mensagens instantâneas da empresa por meio do uso de filtros de câmera. Em setembro de 2017, o Snapchat atualizou seu aplicativo para incluir um filtro de câmera que permitia aos usuários renderizar uma versão animada de desenho animado deles mesmos, chamada " Bitmoji ". Esses avatares animados seriam projetados no mundo real através da câmera e podem ser fotografados ou gravados em vídeo. No mesmo mês, o Snapchat também anunciou um novo recurso chamado "Sky Filters" que estará disponível em seu aplicativo. Esse novo recurso faz uso da realidade aumentada para alterar a aparência de uma foto tirada do céu, da mesma forma que os usuários podem aplicar os filtros do aplicativo a outras fotos. Os usuários podem escolher entre filtros do céu, como noite estrelada, nuvens tempestuosas, belo pôr do sol e arco-íris.

Os perigos da AR

Modificações da realidade

Em um artigo intitulado "Death by Pokémon GO" , pesquisadores da Krannert School of Management da Purdue University afirmam que o jogo causou "um aumento desproporcional em acidentes veiculares e danos veiculares associados, lesões pessoais e fatalidades nas proximidades de locais, chamados PokéStops, onde os usuários podem jogar enquanto dirigem. " Usando dados de um município, o jornal extrapola o que isso pode significar em todo o país e concluiu que "o aumento de acidentes atribuíveis à introdução do Pokémon GO é de 145.632 com um aumento associado no número de feridos de 29.370 e um aumento associado no número de fatalidades de 256 durante o período de 6 de julho de 2016, até 30 de novembro de 2016. " Os autores extrapolaram o custo dessas colisões e fatalidades entre US $ 2 bilhões e US $ 7,3 bilhões no mesmo período. Além disso, mais de um em cada três usuários avançados da Internet pesquisados ​​gostaria de eliminar os elementos perturbadores ao seu redor, como lixo ou pichações. Eles gostariam até de modificar seus arredores apagando placas de rua, anúncios em outdoors e vitrines desinteressantes. Portanto, parece que a RA é tanto uma ameaça para as empresas quanto uma oportunidade. Embora isso possa ser um pesadelo para várias marcas que não conseguem capturar a imaginação do consumidor, também cria o risco de que os usuários de óculos de realidade aumentada possam se tornar inconscientes dos perigos ao redor. Os consumidores querem usar óculos de realidade aumentada para transformar o ambiente em algo que reflita suas próprias opiniões pessoais. Cerca de dois em cada cinco querem mudar a aparência do ambiente e até mesmo a aparência das pessoas para eles.

Em seguida, para os possíveis problemas de privacidade descritos abaixo, os problemas de sobrecarga e excesso de confiança são o maior perigo da RA. Para o desenvolvimento de novos produtos relacionados a AR, isso implica que a interface do usuário deve seguir certas diretrizes para não sobrecarregar o usuário com informações, ao mesmo tempo que evita que o usuário confie demais no sistema de AR, de modo que pistas importantes do ambiente são esquecidas. Isso é chamado de chave virtualmente aumentada. Uma vez que a chave é ignorada, as pessoas podem não desejar mais o mundo real.

Preocupações com a privacidade

O conceito de realidade aumentada moderna depende da capacidade do dispositivo de registrar e analisar o ambiente em tempo real. Por causa disso, existem potenciais preocupações legais sobre privacidade. Embora a Primeira Emenda da Constituição dos Estados Unidos permita esse tipo de gravação em nome do interesse público, a gravação constante de um dispositivo de RA torna difícil fazer isso sem gravar também fora do domínio público. Complicações legais podem ser encontradas em áreas onde um direito a uma certa quantidade de privacidade é esperado ou onde mídia protegida por direitos autorais é exibida.

Em termos de privacidade individual, existe a facilidade de acesso às informações que não se deve possuir prontamente sobre uma determinada pessoa. Isso é feito por meio da tecnologia de reconhecimento facial. Supondo que o AR transmita automaticamente informações sobre as pessoas que o usuário vê, pode haver qualquer coisa vista nas redes sociais, antecedentes criminais e estado civil.

O Código de Ética para o Aumento Humano, que foi originalmente apresentado por Steve Mann em 2004 e posteriormente aprimorado com Ray Kurzweil e Marvin Minsky em 2013, foi finalmente ratificado na conferência de Realidade Virtual de Toronto em 25 de junho de 2017.

Pesquisadores notáveis

  • Ivan Sutherland inventou o primeiro head-mounted display VR na Universidade de Harvard .
  • Steve Mann formulou um conceito anterior de realidade mediada nas décadas de 1970 e 1980, usando câmeras, processadores e sistemas de exibição para modificar a realidade visual para ajudar as pessoas a ver melhor (gerenciamento de faixa dinâmica), construindo capacetes de soldagem computadorizados, bem como "realidade aumentada" sistemas de visão para uso na vida cotidiana. Ele também é conselheiro de Meta .
  • Louis Rosenberg desenvolveu um dos primeiros sistemas de AR conhecidos, chamado Virtual Fixtures , enquanto trabalhava no US Air Force Armstrong Labs em 1991, e publicou o primeiro estudo de como um sistema de AR pode melhorar o desempenho humano. O trabalho subsequente de Rosenberg na Universidade de Stanford no início dos anos 90 foi a primeira prova de que sobreposições virtuais, quando registradas e apresentadas sobre a visão direta de um usuário do mundo físico real, podem melhorar significativamente o desempenho humano.
  • Mike Abernathy foi o pioneiro em uma das primeiras sobreposições aumentadas de vídeo (também chamadas de visão sintética híbrida) usando dados de mapas para detritos espaciais em 1993, enquanto trabalhava na Rockwell International. Ele foi cofundador da Rapid Imaging Software, Inc. e foi o autor principal do sistema LandForm em 1995 e do sistema SmartCam3D. A realidade aumentada LandForm foi testada com sucesso em voo em 1999 a bordo de um helicóptero e o SmartCam3D foi usado para voar o NASA X-38 de 1999 a 2002. Ele e seu colega da NASA Francisco Delgado receberam os prêmios Top5 da National Defense Industries Association em 2004.
  • Steven Feiner, Professor at Columbia University, is the author of a 1993 paper on an AR system prototype, KARMA (the Knowledge-based Augmented Reality Maintenance Assistant), along with Blair MacIntyre and Doree Seligmann. He is also an advisor to Meta.
  • S. Ravela , B. Draper, J. Lim e A. Hanson desenvolveram um sistema de realidade aumentada sem marcador / dispositivo elétrico com visão computacional em 1994. Eles aumentaram um bloco de motor observado a partir de uma única câmera de vídeo com anotações para reparo. Eles usam estimativa de pose baseada em modelo , gráficos de aspecto e rastreamento de recurso visual para registrar dinamicamente o modelo com o vídeo observado.
  • Ronald Azuma é um cientista e autor de trabalhos significativos de RA, incluindo Uma pesquisa de realidade aumentada - o artigo mais citado no campo de RA e um dos mais influentes artigos do MIT Press de todos os tempos.
  • Francisco Delgado é engenheiro da NASA e gerente de projeto especializado em pesquisa e desenvolvimento de interfaces humanas. A partir de 1998, ele conduziu pesquisas sobre monitores que combinavam vídeo com sistemas de visão sintética (chamados de visão sintética híbrida na época) que reconhecemos hoje como sistemas de realidade aumentada para o controle de aeronaves e espaçonaves. Em 1999, ele e seu colega Mike Abernathy testaram o sistema LandForm a bordo de um helicóptero do Exército dos EUA. Delgado supervisionou a integração dos sistemas LandForm e SmartCam3D no X-38 Crew Return Vehicle. Em 2001, a Aviation Week relatou o uso bem-sucedido do astronauta da NASA de visão sintética híbrida (realidade aumentada) para pilotar o X-38 durante um teste de vôo no Dryden Flight Research Center. A tecnologia foi usada em todos os voos subsequentes do X-38. Delgado foi co-recebedor do prêmio dos 5 melhores softwares do ano da National Defense Industries Association em 2004 pela SmartCam3D.
  • Bruce H. Thomas e Wayne Piekarski desenvolveram o sistema Tinmith em 1998. Eles, juntamente com Steve Feiner, com seu sistema MARS, pioneiro de realidade aumentada externa.
  • Mark Billinghurst é Professor de Interação Humano-Computador na University of South Australia e um notável pesquisador de RA. Ele produziu mais de 250 publicações técnicas e apresentou demonstrações e cursos em uma ampla variedade de conferências.
  • Reinhold Behringer realizou um importante trabalho inicial (1998) no registro de imagens para realidade aumentada e protótipos de bancos de teste vestíveis para realidade aumentada. Ele também co-organizou o Primeiro Simpósio Internacional de Realidade Aumentada do IEEE em 1998 (IWAR'98), e co-editou um dos primeiros livros sobre realidade aumentada.
  • Felix G. Hamza-Lup, Larry Davis e Jannick Rolland desenvolveram o visor 3D ARC com visor ótico transparente para visualização AR em 2002.
  • Dieter Schmalstieg e Daniel Wagner desenvolveram sistemas de rastreamento de marcadores para telefones celulares e PDAs em 2009.
  • Tracy McSheery, da Phasespace, desenvolvedora em 2009 de lentes AR de amplo campo de visão usadas no Meta 2 e outros.
  • Jeri Ellsworth liderou um esforço de pesquisa para a Valve em realidade aumentada (AR), mais tarde levando essa pesquisa para seu próprio start-up CastAR . A empresa, fundada em 2013, acabou fechando. Mais tarde, ela criou outra start-up baseada na mesma tecnologia chamada Tilt Five; outra start-up de AR formada por ela com o objetivo de criar um dispositivo para jogos de tabuleiro digital .
  • John Tinnell, professor associado da University of Denver, é autor de Actionable Media: Digital Communication Beyond the Desktop (2018) e co-editor (com Sean Morey, professor associado da University of Tennessee-Knoxville) de Augmented Reality: Innovative Perspectives Across Art, Industry, and Academia (2017). Ambos os trabalhos exploram as aplicações da tecnologia AR em disciplinas baseadas em humanidades, como artes visuais, história e escrita pública / profissional.

História

  • 1901: L. Frank Baum , um autor, menciona pela primeira vez a ideia de um display / óculos eletrônicos que sobrepõe os dados na vida real (neste caso, 'pessoas'). É denominado um 'marcador de caractere'.
  • 1957–62: Morton Heilig , um cineasta, cria e patenteia um simulador chamado Sensorama com recursos visuais, sonoros, vibratórios e cheirosos.
  • 1968: Ivan Sutherland inventa o head-mounted display e o posiciona como uma janela para um mundo virtual.
  • 1975: Myron Krueger cria o Videoplace para permitir que os usuários interajam com objetos virtuais.
  • 1980: A pesquisa de Gavan Lintern da Universidade de Illinois é o primeiro trabalho publicado a mostrar o valor de um display heads-up para o ensino de habilidades de vôo no mundo real.
  • 1980: Steve Mann cria o primeiro computador vestível, um sistema de visão computacional com texto e sobreposições gráficas em uma cena mediada por fotografia. Veja EyeTap . Consulte Heads Up Display .
  • 1981: Dan Reitan mapeia geoespacialmente várias imagens de radar meteorológico e câmeras espaciais e de estúdio para mapas terrestres e símbolos abstratos para transmissões meteorológicas de televisão, trazendo um conceito precursor para a realidade aumentada (imagens reais / gráficas misturadas) para a TV.
  • 1986: Dentro da IBM, Ron Feigenblatt descreve a forma mais amplamente experimentada de RA hoje (viz. "Janela mágica", por exemplo, Pokémon Go baseado em smartphone ), o uso de uma pequena tela plana "inteligente" posicionada e orientada manualmente.
  • 1987: Douglas George e Robert Morris criam um protótipo funcional de um sistema " heads-up display " baseado em telescópio astronômico (um conceito precursor da realidade aumentada) que se sobrepõe na ocular do telescópio, sobre as imagens reais do céu, estrela de multi-intensidade, e imagens de corpos celestes e outras informações relevantes.
  • 1990: O termo realidade aumentada é atribuído a Thomas P. Caudell, um ex- pesquisador da Boeing .
  • 1992: Louis Rosenberg desenvolveu um dos primeiros sistemas AR em funcionamento, chamado Virtual Fixtures , no Laboratório de Pesquisa da Força Aérea dos Estados Unidos - Armstrong, que demonstrou benefícios para a percepção humana.
  • 1992: Steven Feiner, Blair MacIntyre e Doree Seligmann apresentam um artigo inicial sobre um protótipo de sistema AR, KARMA, na conferência de Interface Gráfica.
  • 1993: CMOS sensor activo pixel , um tipo de óxido metálico-semicondutor (MOS) do sensor de imagem , desenvolvido na NASA 's Jet Propulsion Laboratory . Os sensores CMOS são posteriormente amplamente usados ​​para rastreamento óptico na tecnologia AR.
  • 1993: Mike Abernathy, et al., Relatam o primeiro uso de realidade aumentada na identificação de detritos espaciais usando Rockwell WorldView sobrepondo trajetórias geográficas de satélite em vídeo de telescópio ao vivo.
  • 1993: Uma versão amplamente citada do artigo acima é publicada em Communications of the ACM - Special issue on computer aumented environment, editada por Pierre Wellner, Wendy Mackay e Rich Gold.
  • 1993: Loral WDL , com patrocínio da STRICOM , realizou a primeira demonstração combinando veículos equipados com AR ao vivo e simuladores tripulados. Artigo não publicado, J. Barrilleaux, "Experiences and Observations in Applying Augmented Reality to Live Training", 1999.
  • 1994: Julie Martin cria a primeira 'produção de teatro de realidade aumentada', Dancing in Cyberspace, financiado pelo Australia Council for the Arts , apresenta dançarinos e acrobatas manipulando objetos virtuais do tamanho do corpo em tempo real, projetados no mesmo espaço físico e plano de desempenho. Os acrobatas pareciam imersos no objeto e ambientes virtuais. A instalação utilizou computadores Silicon Graphics e sistema de detecção Polhemus.
  • 1995: S. Ravela et al. na Universidade de Massachusetts, introduziu um sistema baseado em visão usando câmeras monoculares para rastrear objetos (blocos de motor) em visualizações para realidade aumentada.
  • 1996: A General Electric desenvolve um sistema para projetar informações de modelos CAD 3D em instâncias do mundo real desses modelos.
  • 1998: A realidade aumentada espacial introduzida na University of North Carolina em Chapel Hill por Ramesh Raskar , Welch, Henry Fuchs .
  • 1999: Frank Delgado, Mike Abernathy et al. relatar teste de vôo bem-sucedido do software LandForm sobreposição de mapa de vídeo de um helicóptero no Army Yuma Proving Ground sobreposição de vídeo com pistas, pistas de taxiamento, estradas e nomes de estradas.
  • 1999: O Laboratório de Pesquisa Naval dos EUA se engaja em um programa de pesquisa de uma década chamado Sistema de Realidade Aumentada do Campo de Batalha (BARS) para criar um protótipo de alguns dos primeiros sistemas vestíveis para soldados desmontados operando em ambiente urbano para conscientização da situação e treinamento.
  • 1999: NASA X-38 voou usando sobreposições de mapas de vídeo do software LandForm no Dryden Flight Research Center .
  • 2000: Rockwell International Science Center demonstra sistemas de realidade aumentada tetherless wearable recebendo vídeo analógico e áudio 3-D em canais sem fio de radiofrequência. Os sistemas incorporam recursos de navegação externa, com silhuetas digitais de horizonte de um banco de dados de terreno sobrepostas em tempo real na cena externa ao vivo, permitindo a visualização de terreno invisível por nuvens e neblina.
  • 2004: Sistema de AR montado em capacete ao ar livre demonstrado pela Trimble Navigation e o Laboratório de Tecnologia de Interface Humana (laboratório HIT).
  • 2006: Outland Research desenvolve um reprodutor de mídia AR que sobrepõe o conteúdo virtual na visão do usuário do mundo real em sincronia com a reprodução de música, proporcionando assim uma experiência de entretenimento AR envolvente.
  • 2008: Wikitude AR Travel Guide é lançado em 20 de outubro de 2008 com o telefone G1 Android .
  • 2009: ARToolkit foi portado para Adobe Flash (FLARToolkit) por Saqoosha, trazendo realidade aumentada para o navegador da web.
  • 2010: Projeto de robô de detecção de minas para o campo de minas coreano.
  • 2012: Lançamento do Lyteshot , uma plataforma de jogos RA interativa que utiliza óculos inteligentes para dados de jogos
  • 2013: Mina Luna Criou o primeiro filme de moda com realidade aumentada.
  • 2015: A Microsoft anuncia o Windows Holographic e os fones de ouvido de realidade aumentada HoloLens . O fone de ouvido utiliza vários sensores e uma unidade de processamento para combinar "hologramas" de alta definição com o mundo real.
  • 2016: A Niantic lançou Pokémon Go para iOS e Android em julho de 2016. O jogo rapidamente se tornou um dos aplicativos de smartphone mais populares e, por sua vez, aumentou a popularidade dos jogos de realidade aumentada.
  • 2017: Magic Leap anuncia o uso da tecnologia Digital Lightfield incorporada ao fone de ouvido Magic Leap One . O headset da edição criadores inclui os óculos e um pacote de computação usado no cinto.
  • 2019: A Microsoft anuncia o HoloLens 2 com melhorias significativas em termos de campo de visão e ergonomia.

Veja também

Referências

links externos

Mídia relacionada à realidade aumentada no Wikimedia Commons