L’apprentissage automatique (Machine Learning) est aujourd’hui en pleine explosion. Mais de quoi s’agit-il exactement, et comment pouvez-vous le mettre en oeuvre dans vos propres projets ?
La 3e édition de cet ouvrage de référence vous explique les concepts fondamentaux du Machine Learning et vous apprend à maîtriser les outils qui vous permettront de créer vous-même des systèmes capables d’apprentissage automatique.
Vous apprendrez ainsi à utiliser Scikit-Learn, un outil open source très simple et néanmoins très puissant que vous pourrez mettre en place dans vos systèmes en production.
- Apprendre les bases du Machine Learning en suivant pas à pas toutes les étapes d’un projet utilisant Scikit-Learn et Pandas.
- Ouvrir les boîtes noires pour comprendre comment fonctionnent les algorithmes.
- Explorer plusieurs modèles d’entraînement, notamment les machines à vecteur de support (SVM).
- Comprendre le modèle des arbres de décision et celui des forêts aléatoires, et exploiter la puissance des méthodes ensemblistes.
- Exploiter des techniques d’apprentissage non supervisées telles que la réduction de dimensionnalité, la classification et la détection d’anomalies.
Vue d’ensemble du Machine Learning. Qu’est-ce que l’apprentissage automatique ? Pourquoi utiliser l’apprentissage automatique ? Exemples d’applications. Types de systèmes d’apprentissage automatique. Principales difficultés de l’apprentissage automatique. Test et validation. Exercices. Un projet de Machine Learning de bout en bout. Travailler avec des données réelles. Prendre du recul pour une vision d’ensemble. Récupérer les données. Explorer et visualiser les données pour mieux les comprendre. Préparer les données pour les algorithmes d’apprentissage automatique. Sélectionner et entraîner un modèle. Régler avec précision votre modèle. Lancer, surveiller et maintenir votre système. Essayez ! Exercices. Classification. MNIST. Entraînement d’un classificateur binaire. Mesures de performance. Classification multi-classes. Analyse des erreurs. Classification multi-étiquettes. Classification multi-sorties. Exercices. Entraînement de modèles. Régression linéaire. Descente de gradient. Régression polynomiale. Courbes d’apprentissage. Modèles linéaires régularisés. Régression logistique. Exercices. Machines à vecteurs de support. Classification SVM linéaire. Classification SVM non linéaire. Régression SVM. Sous le capot des classificateurs SVM linéaires. Exercices. Arbres de décision. Entraîner et visualiser un arbre de décision. Effectuer des prédictions. Estimation des probabilités des classes. Algorithme d’entraînement CART. Complexité algorithmique. Impureté de Gini ou entropie ?. Hyperparamètres de régularisation. Régression. Sensibilité à l’orientation des axes. Arbres de décision ayant une variance élevée. Exercices. Apprentissage d’ensemble et forêts aléatoires. Classificateurs par vote. Bagging et pasting. Parcelles aléatoires et sous-espaces aléatoires. Forêts aléatoires. Boosting. Stacking. Exercices. Réduction de dimension. Le fléau de la dimension. Principales approches de la réduction de dimension. PCA. Projection aléatoire. LLE. Autres techniques de réduction de dimension. Exercices. Techniques d’apprentissage non supervisé. Partitionnement. Mélanges gaussiens. Exercices.