thesis

New algorithms for large-scale support vector machines

Defense date:

Jan. 1, 2010

Edit

Institution:

Paris 6

Disciplines:

Authors:

Directors:

Abstract EN:

Il existe un besoin certain dans la communauté de l'apprentissage statistique pour des méthodes capables d'être entraînées sur des ensembles d'apprentissage de grande échelle, et pouvant ainsi gérer les quantités colossales d'informations générées quotidiennement. Dans cette thèse, nous proposons des solutions pour réduire le temps d'entraînement et les besoins en mémoire d'algorithmes d'apprentissage sans pour autant dégrader leur précision. Nous nous intéressons en particulier aux Machines à Vecteurs Supports (SVMs), des méthodes populaires utilisées en général pour des tâches de classification automatique mais qui peuvent être adaptées à d'autres applications. Nous étudions tout d'abord le processus d'apprentissage par descente de gradient stochastique pour les SVMs linéaires. Cela nous amène à définir et étudier le nouvel algorithme, SGD-QN. Après cela, nous introduisons une nouvelle procédure d'apprentissage: le principe du "Process/Reprocess" que nous déclinons dans trois algorithmes. Le Huller et LASVM servent à apprendre des SVMs destinés à traiter des problèmes de classification binaire. Pour la tâche plus complexe de prédiction de sorties structurées, nous modifions en profondeur l'algorithme LaSVM, ce qui conduit à l'algorithme LaRank. Notre dernière contribution concerne le problème récent de l'apprentissage avec une supervision ambiguë pour lequel nous proposons un nouveau cadre théorique (et un algorithme associé). Nous l'appliquons au problème de l'étiquetage sémantique du langage. Tous les algorithmes introduits dans cette thèse atteignent les performances de l'état-de l'art, en particulier en ce qui concerne les vitesses d'entraînement.

Abstract FR:

Pas de résumé disponible.