GRADIENT BOOSTING - EXPLOITEZ LES ARBRES DE DECISION POUR LE MACHINE LEARNING (XGBOOST, CATBOOST, LI

ENI - EAN : 9782409034022
GUILLAUME SAUPIN
Édition papier

EAN : 9782409034022

Paru le : 16 mars 2022

54,00 € 51,18 €
Disponible
Pour connaître votre prix et commander, identifiez-vous
Notre engagement qualité
  • Benefits Livraison gratuite
    en France sans minimum
    de commande
  • Benefits Manquants maintenus
    en commande
    automatiquement
  • Benefits Un interlocuteur
    unique pour toutes
    vos commandes
  • Benefits Toutes les licences
    numériques du marché
    au tarif éditeur
  • Benefits Assistance téléphonique
    personalisée sur le
    numérique
  • Benefits Service client
    Du Lundi au vendredi
    de 9h à 18h
  • EAN13 : 9782409034022
  • Réf. éditeur : EPGRAD
  • Collection : EPSILON
  • Editeur : ENI
  • Date Parution : 16 mars 2022
  • Disponibilite : Disponible
  • Barème de remise : NS
  • Nombre de pages : 258
  • Format : 1.30 x 17.80 x 21.60 cm
  • Poids : 402gr
  • Résumé : Ce livre sur les méthodes de Gradient Boosting est destiné aux étudiants, universitaires, ingénieurs, data scientist qui souhaitent découvrir en profondeur le fonctionnement de cette technique de Machine Learning utilisée pour construire des ensembles d’arbres de décision.

    Tous les concepts sont illustrés par des exemples de code applicatif. Ils permettent au lecteur de reconstruire from scratch sa propre librairie d’entraînement des méthodes de Gradient Boosting. En parallèle, le livre présente les bonnes pratiques de la Data Science et apporte au lecteur un solide bagage technique pour construire des modèles de Machine Learning.

    Après une présentation des principes du Gradient Boosting citant les cas d’application, les avantages et les limites, le lecteur s’imprègne des détails de la théorie mathématique. Une implémentation simple est donnée afin d’en illustrer le fonctionnement.

    Le lecteur est ensuite armé pour aborder la mise en application et la configuration de ces méthodes. Préparation des données, entraînement, explication d’un modèle, gestion de l’Hyper Parameter Tuning et utilisation des fonctions objectifs sont couverts en détail !

    Les derniers chapitres du livre élargissent le sujet vers l’application du Gradient Boosting pour les séries temporelles, la présentation des bibliothèques emblématiques XGBoost, CatBoost et LightGBM ainsi que sur le concept de modèle multi-résolution.

    Des éléments complémentaires sont en téléchargement sur le site www.editions-eni.fr.
  • Biographie : Ingénieur et docteur en informatique, passionné de mathématiques et du langage Lisp, Guillaume SAUPIN a travaillé une dizaine d’années comme chercheur au Commissariat à l’Energie Atomique avant de rejoindre le monde de l’Intelligence artificielle et des start up. Il a enseigné le Computer Graphics en master à l'Université Paris 12 et à Epitech. Actuellement CTO chez Verteego, il est également auteur de plus d’une vingtaine d’articles pour le Linux Magazine France et publie régulièrement en anglais sur des sujets de Data Science dans la publication en ligne Toward Data Science.
Haut de page
Copyright 2024 Cufay. Tous droits réservés.