Retour à la liste

Big Data, Machine Learning et apprentissage profond


Auteurs : TUFFERY Stéphane

TUFFERY Stéphane

Stéphane TUFFÉRY est responsable des études statistiques dans un grand groupe bancaire. Il intervient à l’Institut des Actuaires (Paris) et il est Maître de Conférences associé à l’Université de Rennes 1, où il enseigne la statistique, le data mining, et les méthodes de Big Data. Il a publié dans la même collection Data Mining et statistique décisionnelle, Modélisation prédictive et apprentissage statistique avec R et Big Data, Machine Learning et apprentissage profond.


ISBN : 9782710811886
broché      17 x 24 cm      596 pages
Date de publication : Avril 2019



Dans cet ouvrage, les Big Data sont abordées du point de vue des applications, des méthodes d’analyse et de modélisation, des outils informatiques, et de l’optimisation de la programmation dans R et dans d’autres logiciels, dont Spark et H2O.

Les principes de l’apprentissage profond sont détaillés, et tout particulièrement les réseaux de neurones convolutifs et récurrents. On rappelle ce que sont la descente du gradient et le mécanisme de rétropropagation, leurs difficultés (sur-apprentissage, évanouissement du gradient) et les solutions apportées (dropout, normalisation par lot, activation ReLU…). Les applications à la reconnaissance d’image et les architectures élaborées ces dernières années sont ensuite décrites, de même que des applications aux jeux de stratégie et dans le domaine artistique avec les modèles génératifs.

Ces méthodes sont ensuite mises en oeuvre avec trois des principales bibliothèques d’apprentissage profond : MXNet, PyTorch et Keras-TensorFlow. On montre comment créer et entraîner un réseau convolutif, et comment l’appliquer à des problèmes de classement d’images. On montre comment améliorer leur reconnaissance en recourant à l’augmentation de données et à l’apprentissage par transfert. On compare les résultats des méthodes profondes à ceux des méthodes « classiques » de machine learning : régression pénalisée, forêts aléatoires, extra-trees, gradient boosting, SVM et perceptron. On montre aussi la puissance de calcul des processeurs graphiques (GPU).

Le traitement du langage naturel commence ensuite par les questions linguistiques classiques : étiquetage grammatical, reconnaissance des entités nommées, résolution des coréférences et lemmatisation. Puis viennent les représentations vectorielles et les méthodes de plongements de mots. On parle aussi de la modélisation de thématiques, que l’on applique à À la recherche du temps perdu de Proust. Les réseaux de neurones récurrents LSTM et GRU sont ensuite mis en oeuvre dans deux tâches bien différentes : la génération de texte et le classement de documents. Un aperçu est donné de l’analyse de sentiments.

L’analyse des réseaux sociaux et plus particulièrement d’un corpus de tweets est vue comme convergence des méthodes de Big Data, de théorie des graphes et de traitement du langage naturel.

L’ouvrage se conclut par une perspective sur l’intelligence artificielle, à la fois comme application des méthodes vues précédemment et comme source de réflexions sur l’évolution et les défis de l’intelligence artificielle, et ce qui la sépare de l’intelligence humaine.

 

Le Code R utilisé dans l’ouvrage est disponible sur cette page dans la partie "Bonus/lire".


Table des matières :


Le Big Data. Les outils informatiques pour le Big Data. Le traitement des grands volumes de données. Data science et méthodes pour le Big Data. L’apprentissage profond (Deep Learning). L’apprentissage profond en pratique. La reconnaissance de l’écriture manuscrite. Big Data avec R. Big Data avec d’autres logiciels. Le traitement du langage naturel. L’analyse des réseaux sociaux. L’intelligence artificielle. Conclusion. Bibliographie. Index.