Nous utilisons des cookies pour améliorer votre expérience. Pour nous conformer à la nouvelle directive sur la vie privée, nous devons demander votre consentement à l’utilisation de ces cookies. En savoir plus.
GRADIENT BOOSTING - EXPLOITEZ LES ARBRES DE DECISION POUR LE MACHINE LEARNING (XGBOOST, CATBOOST, LI
ENI - EAN : 9782409034022
Édition papier
EAN : 9782409034022
Paru le : 16 mars 2022
54,00 €
51,18 €
Disponible
Pour connaître votre prix et commander, identifiez-vous
Notre engagement qualité
-
Livraison gratuite
en France sans minimum
de commande -
Manquants maintenus
en commande
automatiquement -
Un interlocuteur
unique pour toutes
vos commandes -
Toutes les licences
numériques du marché
au tarif éditeur -
Assistance téléphonique
personalisée sur le
numérique -
Service client
Du Lundi au vendredi
de 9h à 18h
- EAN13 : 9782409034022
- Réf. éditeur : EPGRAD
- Collection : EPSILON
- Editeur : ENI
- Date Parution : 16 mars 2022
- Disponibilite : Disponible
- Barème de remise : NS
- Nombre de pages : 258
- Format : 1.30 x 17.80 x 21.60 cm
- Poids : 402gr
-
Résumé :
Ce livre sur les méthodes de Gradient Boosting est destiné aux étudiants, universitaires, ingénieurs, data scientist qui souhaitent découvrir en profondeur le fonctionnement de cette technique de Machine Learning utilisée pour construire des ensembles d’arbres de décision.
Tous les concepts sont illustrés par des exemples de code applicatif. Ils permettent au lecteur de reconstruire from scratch sa propre librairie d’entraînement des méthodes de Gradient Boosting. En parallèle, le livre présente les bonnes pratiques de la Data Science et apporte au lecteur un solide bagage technique pour construire des modèles de Machine Learning.
Après une présentation des principes du Gradient Boosting citant les cas d’application, les avantages et les limites, le lecteur s’imprègne des détails de la théorie mathématique. Une implémentation simple est donnée afin d’en illustrer le fonctionnement.
Le lecteur est ensuite armé pour aborder la mise en application et la configuration de ces méthodes. Préparation des données, entraînement, explication d’un modèle, gestion de l’Hyper Parameter Tuning et utilisation des fonctions objectifs sont couverts en détail !
Les derniers chapitres du livre élargissent le sujet vers l’application du Gradient Boosting pour les séries temporelles, la présentation des bibliothèques emblématiques XGBoost, CatBoost et LightGBM ainsi que sur le concept de modèle multi-résolution.
Des éléments complémentaires sont en téléchargement sur le site www.editions-eni.fr.
-
Biographie :
Ingénieur et docteur en informatique, passionné de mathématiques et du langage Lisp, Guillaume SAUPIN a travaillé une dizaine d’années comme chercheur au Commissariat à l’Energie Atomique avant de rejoindre le monde de l’Intelligence artificielle et des start up. Il a enseigné le Computer Graphics en master à l'Université Paris 12 et à Epitech. Actuellement CTO chez Verteego, il est également auteur de plus d’une vingtaine d’articles pour le Linux Magazine France et publie régulièrement en anglais sur des sujets de Data Science dans la publication en ligne Toward Data Science.