AdaBoost est un sujet d'une grande importance aujourd'hui, car il a un impact direct sur nos vies. Tout au long de l’histoire, AdaBoost a fait l’objet d’études, de débats et de controverses, et ce n’est pas étonnant, puisque son importance est indéniable. Dans cet article, nous explorerons différentes facettes de AdaBoost, en analysant son implication dans différents aspects de la société. De son origine à sa projection dans le futur, en passant par son influence sur la culture, la politique et l'économie, nous approfondirons une analyse approfondie qui nous permettra de mieux comprendre l'importance de AdaBoost dans le monde d'aujourd'hui.
En intelligence artificielle et en apprentissage automatique, AdaBoost (ou adaptive boosting) est un méta-algorithme de boosting introduit par Yoav Freund et Robert Schapire en 1997[1]. AdaBoost améliore les performances de n'importe quel algorithme d'apprentissage appelés classifieurs faibles. Le principe est la sagesse d'une foule d'experts. Chaque classifieur faible est un expert. On combine alors leurs prédictions en une somme pondérée qui représente la prédiction finale du classifieur boosté. AdaBoost est adaptatif dans le sens où les classifieurs faibles subséquents sont ajustés en faveur des échantillons mal classés par les classifieurs précédents.
AdaBoost est notablement sensible aux données bruitées ou peu corrélées. Toutefois, dans certains problèmes, il peut s'avérer moins enclin au surapprentissage que d'autres algorithmes. Les sous-classifieurs utilisés peuvent être faibles tant qu'ils proposent une performance au moins un peu supérieure à celle d'un classifieur aléatoire, auquel cas il peut être prouvé que le modèle final converge vers un classifieur fort.
Tous les algorithmes d'apprentissage tendent à correspondre plus à certains types de problèmes qu'à d'autres, et ont typiquement de nombreux paramètres et configurations différents qu'il est nécessaire d'ajuster pour atteindre une performance optimale sur un ensemble d'apprentissage fourni. AdaBoost (avec des arbres de décision comme classifieurs faibles) est souvent désigné comme le meilleur classifieur clé-en-main.

Adaboost repose sur plusieurs principes.
Soit un ensemble d'observations (aussi appelé exemples). Notons les où sont les caractéristiques de l'individu et la classe à prédire. On initialise les poids associés aux observations de manière uniforme : le poids de la -ème observation est pour tout , avec est le nombre d'observations. L'algorithme construit alors itérativement classifieurs faibles .
Pour :
est l'erreur du modèle.
Quand l'algorithme s'arrête à l'itération , le classifieur résultant du processus de sélection est :
Des variantes ont été introduites, et dont les modifications portent essentiellement sur la manière dont les poids sont mis à jour. Parmi ces variantes, Gentle AdaBoost et Real Adaboost sont fréquemment utilisées. Citons aussi RankBoost.
Ce fut l'une des premières méthodes pleinement fonctionnelles permettant de mettre en œuvre le principe de boosting. Les auteurs ont reçu le prestigieux prix Gödel en 2003 pour leur découverte[4].