AdaBoost

AdaBoost
Natureza Algoritmo , metaheurísticas

AdaBoost (ou adaptativa aumentar ) é, na inteligência artificial e aprendizagem de máquina , um aumento meta-algoritmo introduzido por Yoav Freund e Robert Schapire . Ele pode ser usado em conjunto com muitos outros tipos de algoritmos de aprendizagem para melhorar o desempenho. As saídas dos outros algoritmos (chamados de classificadores fracos ) são combinadas em uma soma ponderada que representa a saída final do classificador impulsionado . AdaBoost é adaptativo no sentido de que classificadores fracos subsequentes são ajustados em favor de amostras classificadas incorretamente pelos classificadores anteriores.

AdaBoost é notavelmente sensível a dados ruidosos ou mal correlacionados. No entanto, em alguns problemas, pode ser menos sujeito a overfitting do que outros algoritmos. Os subclassificadores usados ​​podem ser fracos, desde que tenham um desempenho pelo menos um pouco melhor do que um classificador aleatório, caso em que pode haver evidências de que o modelo final converge para um classificador forte.

Todos os algoritmos de aprendizagem tendem a corresponder a alguns tipos de problemas mais do que outros e, normalmente, têm muitos parâmetros e configurações diferentes que precisam ser ajustados para atingir o desempenho ideal em um conjunto de aprendizagem. AdaBoost (com árvores de decisão como pastas de trabalho fracas) é freqüentemente referido como a melhor pasta de trabalho pronta para uso.

Princípio

Adaboost depende da seleção iterativa do classificador fraco com base em uma distribuição de exemplos de treinamento. Cada exemplo é ponderado de acordo com sua dificuldade com o classificador atual. Este é um exemplo do método de pesos multiplicativos ( método de atualização de pesos multiplicativos ).

Descrição

Let Ser um conjunto de observações. Observe-os: onde estão as características do indivíduo e a variável a prever.

Inicializamos o peso associado a ,

Para  :

é o erro do modelo.


com um fator de normalização igual a

Quando o algoritmo para na iteração , o classificador resultante do processo de seleção é:

Variantes

Variantes foram introduzidas e as mudanças se relacionam principalmente à maneira como os pesos são atualizados. Entre essas variantes, Gentle AdaBoost e Real Adaboost são freqüentemente usados. Outro exemplo é o RankBoost .

História

Este foi um dos primeiros métodos totalmente funcionais para implementar o princípio de impulso. Os autores receberam o prestigioso Prêmio Gödel em 2003 por sua descoberta.

Notas e referências

  1. ( Freund e Schapire 1997 )
  2. Sanjeev Arora , Elad Hazan e Satyen Kale, “  O Método de Atualização de Pesos Multiplicativos: um Meta Algoritmo e Aplicações  ” .
  3. “  O método de atualização de pesos multiplicativos  ” , na Universidade de Washington .
  4. Página oficial do Prêmio Gödel 2003

Bibliografia

links externos

<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">