Efficient top rank optimization with gradient boosting for supervised anomaly detection

Abstract : In this paper we address the anomaly detection problem in a supervised setting where positive examples might be very sparse. We tackle this task with a learning to rank strategy by optimizing a dif-ferentiable smoothed surrogate of the so-called Average Precision (AP). Despite its non-convexity, we show how to use it efficiently in a stochas-tic gradient boosting framework. We show that using AP is much better to optimize the top rank alerts than the state of the art measures. We demonstrate on anomaly detection tasks that the interest of our method is even reinforced in highly unbalanced scenarios.
Type de document :
Communication dans un congrès
ECML-PKDD 2017, Sep 2017, Skopje, Macedonia
Liste complète des métadonnées

Littérature citée [26 références]  Voir  Masquer  Télécharger

https://hal.archives-ouvertes.fr/hal-01613561
Contributeur : Marc Sebban <>
Soumis le : lundi 9 octobre 2017 - 17:40:26
Dernière modification le : jeudi 11 janvier 2018 - 06:20:36
Document(s) archivé(s) le : mercredi 10 janvier 2018 - 15:14:27

Fichier

ECML2017.pdf
Fichiers produits par l'(les) auteur(s)

Identifiants

  • HAL Id : hal-01613561, version 1

Collections

Citation

Jordan Frery, Amaury Habrard, Marc Sebban, Olivier Caelen, Liyun He-Guelton. Efficient top rank optimization with gradient boosting for supervised anomaly detection. ECML-PKDD 2017, Sep 2017, Skopje, Macedonia. 〈hal-01613561〉

Partager

Métriques

Consultations de la notice

57

Téléchargements de fichiers

50