CIFAR-10 - CIFAR-10

O conjunto de dados CIFAR-10 ( Instituto Canadense de Pesquisa Avançada ) é uma coleção de imagens comumente usadas para treinar algoritmos de aprendizado de máquina e visão computacional . É um dos conjuntos de dados mais usados ​​para pesquisa de aprendizado de máquina. O conjunto de dados CIFAR-10 contém 60.000 imagens coloridas de 32x32 em 10 classes diferentes. As 10 classes diferentes representam aviões, carros, pássaros, gatos, veados, cães, sapos, cavalos, navios e caminhões. São 6.000 imagens de cada aula.

Algoritmos de computador para reconhecer objetos em fotos geralmente aprendem por exemplo. CIFAR-10 é um conjunto de imagens que pode ser usado para ensinar um computador a reconhecer objetos. Como as imagens no CIFAR-10 são de baixa resolução (32x32), este conjunto de dados pode permitir que os pesquisadores experimentem rapidamente diferentes algoritmos para ver o que funciona. Vários tipos de redes neurais convolucionais tendem a ser as melhores no reconhecimento de imagens no CIFAR-10.

CIFAR-10 é um subconjunto rotulado do conjunto de dados de 80 milhões de pequenas imagens . Quando o conjunto de dados foi criado, os alunos foram pagos para rotular todas as imagens.

Artigos de pesquisa que reivindicam resultados de última geração no CIFAR-10

Esta é uma tabela de alguns dos artigos de pesquisa que afirmam ter alcançado resultados de última geração no conjunto de dados CIFAR-10. Nem todos os papéis são padronizados nas mesmas técnicas de pré-processamento, como inversão ou deslocamento de imagem. Por essa razão, é possível que a alegação de estado da arte de um artigo possa ter uma taxa de erro mais alta do que uma alegação de estado da arte mais antiga, mas ainda assim ser válida.

Título do artigo Taxa de erro (%) Data de publicação
Redes convolucionais de crenças profundas no CIFAR-10 21,1 Agosto de 2010
Maxout Networks 9,38 13 de fevereiro de 2013
Redes residuais amplas 4,0 23 de maio de 2016
Pesquisa de arquitetura neural com aprendizado por reforço 3,65 4 de novembro de 2016
Fractional Max-Pooling 3,47 18 de dezembro de 2014
Redes convolucionais densamente conectadas 3,46 24 de agosto de 2016
Regularização Shake-Shake 2,86 21 de maio de 2017
Conjuntos acoplados de redes neurais 2,68 18 de setembro de 2017
Regularização ShakeDrop 2,67 7 de fevereiro de 2018
Regularização melhorada de redes neurais convolucionais com recorte 2,56 15 de agosto de 2017
Evolução regularizada para pesquisa de arquitetura de classificador de imagens 2,13 6 de fevereiro de 2018
Repensando redes neurais recorrentes e outras melhorias para classificação de imagens 1,64 31 de julho de 2020
AutoAugment: Aprendendo políticas de aumento a partir de dados 1,48 24 de maio de 2018
Uma pesquisa sobre pesquisa de arquitetura neural 1,33 4 de maio de 2019
GPipe: treinamento eficiente de redes neurais gigantes usando paralelismo de pipeline 1,00 16 de novembro de 2018

Veja também

Referências

links externos

Conjuntos de dados semelhantes

  • CIFAR-100 : Semelhante ao CIFAR-10, mas com 100 classes e 600 imagens cada.
  • ImageNet (ILSVRC): 1 milhão de imagens coloridas de 1000 classes. As imagens Imagenet têm resolução mais alta, com resolução média de 469x387.
  • Street View House Numbers (SVHN): Aproximadamente 600.000 imagens de 10 classes (dígitos de 0 a 9). Também imagens coloridas de 32x32.
  • Conjunto de dados de 80 milhões de imagens minúsculas : CIFAR-10 é um subconjunto rotulado deste conjunto de dados.