Études Historique de travail Prix et distinctions

Transcription

Études Historique de travail Prix et distinctions
Hugo Larochelle
299 Glenlake ave., apt. 2906
Toronto, ON Canada
M6P 4A6
647-380-7809
[email protected]
http://www.cs.toronto.edu/∼larocheh
Études
•
University of Toronto
Postdoctorat, Informatique, supervisé par Prof. Geoffrey Hinton
Depuis 2009
Toronto, ON Canada
•
Université de Montréal
Ph.D., Informatique, supervisé par Prof. Yoshua Bengio
2004 - 2009
Montréal, QC Canada
•
Université de Montréal
Baccalauréat en Mathématiques et Informatique (Moyenne : 4.3)
2001 - 2004
Montréal, QC Canada
•
Cégep de Saint-Hyacinthe
Diplôme Collégial, Sciences Pures
1999 - 2001
Saint-Hyacinthe, QC Canada
Historique de travail
Chercheur
• ApSTAT Technologies
Octobre 2008 - Mars 2009
Montréal, QC Canada, H2W 2R2
http://www.apstat.com/
– participation au projet intitulé Statistical Machine Learning Algorithms for Target Classification
from Acoustic Signature, conduit par l’entreprise ApSTAT Technologies et dirigé par
Prof. Yoshua Bengio
– investigation et développement de différents algorithmes d’apprentissage statistique pour la
classification de signaux sonores
Stagiaire de recherche
• Laboratoire d’Informatique des Systèmes Adaptatifs (LISA)
Mai 2003 - Août 2003
et Mai 2004 - Août 2004
Montréal, QC Canada
– investigation et développement de différents algorithmes d’apprentissage statistique
– contribution à la librairie C++ PLearn, une librairie d’apprentissage statistique
(http://plearn.berlios.de/)
Stagiaire de recherche
• Laboratoire de Recherche Appliquée en
Linguistique Informatique (RALI)
Mai 2002 - Août 2002
Montréal, QC Canada
– développement d’un extracteur automatique de terminologie en Java
– investigation empirique de différentes métriques statistiques pour l’extraction de terme
Prix et distinctions
• Bourse postdoctorale du CRSNG, 2009 (80 000$ sur deux ans)
• Thèse de doctorat notée dans les 5% meilleures thèses de l’Université de Montréal, 2009
• Bourse d’études supérieures du Canada du CRSNG, Ph.D., 2005 (105 000$ sur trois ans)
• Bourse d’études supérieures du Canada du CRSNG, M.Sc., 2004 (17 500$)
• Bourse de passage direct au doctorat de l’Université de Montréal, 2004 (10 000$)
• Bourse de recherche du premier cycle du CRSNG, 2004 (5625$)
• Bourse de recherche du premier cycle du CRSNG, 2003 (5625$)
• Bourse de recherche du premier cycle du CRSNG, 2002 (5625$)
• Bourse du doyen de l’Université de Montréal, 2003 (2000$)
• Bourse du doyen de l’Université de Montréal, 2002 (2000$)
• Troisième position à la compétition de présentation d’affiche du Deuxième Congrès Canada-France
MITACS, 2008
• Bourse CAE-Fraser, 2003 (2000$)
• Bourse d’excellence, 2002 (1200$)
• Bourse d’accueil de l’Université de Montréal, 2001 (2000$)
• Médaille de Bronze du Gouverneur, 1999
Publications
• Thèse
– Études de techniques d’apprentissage non-supervisé pour l’amélioration de
l’entraı̂nement supervisé de modèles connexionnistes
Hugo Larochelle,
Thèse de doctorat, Université de Montréal, 2009
• Articles acceptés dans des revues avec comité de lecture
– Detonation Classification from Acoustic Signature with the Restricted Boltzmann
Machine
Yoshua Bengio, Nicolas Chapados, Olivier Delalleau, Hugo Larochelle, Xavier Saint-Mleux,
Christian Hudon et Jérôme Louradour,
À paraı̂tre dans Computational Intelligence, 2011
– Stacked Denoising Autoencoders : learning useful representations in a deep network
with a local denoising criterion
Pascal Vincent, Hugo Larochelle, Isabelle Lajoie, Yoshua Bengio et Pierre-Antoine Manzagol,
Journal of Machine Learning Research, Vol.11, pp.3371-3408, 2010
– Tractable Multivariate Binary Density Estimation and the Restricted Boltzmann
Forest
Hugo Larochelle, Yoshua Bengio et Joseph Turian,
Neural Computation, Vol.22, pp.2285-2307, 2010
– Exploring Strategies for Training Deep Neural Networks
Hugo Larochelle, Yoshua Bengio, Jérôme Louradour et Pascal Lamblin,
Journal of Machine Learning Research, Vol.10, pp.1-40, 2009
– Non-Local Estimation of Manifold Structure
Yoshua Bengio, Martin Monperrus et Hugo Larochelle,
Neural Computation, Vol.18, pp.2509-2528, 2006
• Autres contributions avec comité de lecture (conférences)
– Learning Attentional Policies for Tracking and Recognition in Video with Deep
Networks
Loris Bazzani, Nando de Freitas, Hugo Larochelle, Vittorio Murino et Jo-Anne Ting,
À paraı̂tre dans Proceedings of the 28th Annual International Conference on Machine Learning
(ICML 2011), 2011
Bellevue, USA
– The Neural Autoregressive Distribution Estimator
Hugo Larochelle et Iain Murray,
À paraı̂tre dans Proceedings of the International Conference on Artificial Intelligence and
Statistics (AISTATS 2011), 2011
Accepté comme présentation orale, Notable Paper Award (2% des soumissions)
– Learning to combine foveal glimpses with a third-order Boltzmann machine
Hugo Larochelle et Geoffrey Hinton,
Advances in Neural Information Processing Systems 23 (NIPS23), pp.1243-1251, 2010
Accepté comme présentation orale (2% des soumissions)
Vancouver, Canada
– Efficient Learning of Deep Boltzmann Machines
Ruslan Salakhutdinov et Hugo Larochelle,
Proceedings of the International Conference on Artificial Intelligence and Statistics (AISTATS
2010), pp.693-700, 2010
Sardaigne, Italie
– Deep Learning using Robust Interdependent Codes
Hugo Larochelle, Dumitru Erhan et Pascal Vincent,
Proceedings of the International Conference on Artificial Intelligence and Statistics (AISTATS
2009), pp.312-319, 2009
Clearwater Beach, USA
– Classification using Discriminative Restricted Boltzmann Machines
Hugo Larochelle et Yoshua Bengio,
Proceedings of the 25th Annual International Conference on Machine Learning (ICML 2008),
pp.536-543, 2008
Helsinki, Finland
– Extracting and Composing Robust Features with Denoising Autoencoders
Pascal Vincent, Hugo Larochelle, Yoshua Bengio et Pierre-Antoine Manzagol,
Proceedings of the 25th Annual International Conference on Machine Learning (ICML 2008),
pp.1096-1103, 2008
Helsinki, Finland
– Zero-data Learning of New Tasks
Hugo Larochelle, Dumitru Erhan et Yoshua Bengio,
Proceedings of the Twenty-Third AAAI Conference on Artificial Intelligence (AAAI 2008),
pp.646-651, 2008
Chicago, USA
– An Empirical Evaluation of Deep Architectures on Problems with Many Factors of
Variation
Hugo Larochelle, Dumitru Erhan, Aaron Courville, James Bergstra et Yoshua Bengio,
Proceedings of the 24th Annual International Conference on Machine Learning (ICML 2007),
pp.473-480, 2007
Corvallis, USA
– Greedy Layer-Wise Training of Deep Networks
Yoshua Bengio, Pascal Lamblin, Dan Popovici et Hugo Larochelle,
Advances in Neural Information Processing Systems 19 (NIPS19), pp.153-160, 2007
Accepté comme présentation orale (3% des soumissions)
Vancouver, Canada
– Non-Local Manifold Parzen Windows
Yoshua Bengio, Hugo Larochelle et Pascal Vincent,
Advances in Neural Information Processing Systems 18 (NIPS18), pp.115-122, 2006
Vancouver, Canada
• Contributions sans comité de lecture
– Generalization to a zero-data task : an empirical study
Hugo Larochelle, Dumitru Erhan et Yoshua Bengio,
Présentation au Learning Workshop, 2007
Puerto Rico, USA
– Distributed Representation Prediction for Generalization to New Words
Hugo Larochelle et Yoshua Bengio
Rapport technique, Université de Montréal, 2006
– Implantation et analyse d’un modèle graphique de désambiguı̈sation à entraı̂nement
supervisé, semi-supervisé et non-supervisé
Hugo Larochelle et Yoshua Bengio
Projet de recherche à l’Université de Montréal, 2003
– Some Supervised Models in Disambiguation
Hugo Larochelle, Christian Jauvin et Yoshua Bengio
Affiche présentée à la conférence MITACS “Échanges Québec”, 2003
Montréal, Canada
– Étude de la pertinence de métriques statistiques pour la détection de termes dans
un document
Hugo Larochelle et Philippe Langlais
Rapport technique, Université de Montréal, 2002
Autres activités académiques
– J’ai fait de la révision d’articles pour les journaux/conférences suivantes : JMLR, IJCV, IEEE-TNN,
COST, IJPRAI, NIPS2008, ICML2009, NIPS2009, AISTATS2010, ICML2010, AISTATS2011,
IJCAI2011, ICML2011, UAI2011.
– En mai 2010, j’ai été invité à présenter mes travaux de recherche à l’Université Paris-Sud, en France.
– En mars 2010, j’ai présenté un tutoriel sur les réseaux de neurones profonds à l’Université Laval. Le
tutoriel était étendu sur 2 jours, totalisant 9 heures de matériel.
– En avril 2006, j’ai présenté un tutoriel sur l’application des réseaux de neurones à des problèmes de
traitement automatique du langage naturel (TALN), dans le cadre des séminaires RALI-OLST, à
l’Université de Montréal.
– J’ai co-organisé le Deep Learning Workshop, tenu en tant que rencontre satellite à la conférence
NIPS 2007. Pour plus de détails, visiter http://www.iro.umontreal.ca/∼lisa/deepNIPS2007.
– J’ai été démonstrateur pour le cours IFT6266 Algorithmes d’apprentissage donné par Prof. Douglas
Eck au trimestre d’automne 2007, à l’Université de Montréal. Ce travail a impliqué les tâches suivantes :
participation à la sélection du contenu traité dans le cours, enseignement lors d’une période de cours de
mise à niveau, écriture et correction de devoirs, et interactions avec les étudiants lors de périodes de
disponibilité hors-cours de questions/réponses.
– J’ai été démonstrateur pour le cours IFT3395/6390 Fondements de l’apprentissage machine
donné par Prof. Pascal Vincent au trimestre d’hiver 2007, à l’Université de Montréal. Ce travail a
impliqué les tâches suivantes : enseignement lors de périodes de démonstration hebdomadaires (contenu
“pratique”), écriture et correction de devoirs, et interactions avec les étudiants lors de périodes de
disponibilité hors-cours de questions/réponses.
– En collaboration avec Prof. Doina Precup de l’Université McGill, j’ai créé et organisé les Séminaires
UdeM-McGill-MITACS d’Apprentissage Statistique, de 2005 à 2008. Cette série de séminaires
présente les travaux d’étudiants et professeurs de Montréal ainsi que de chercheurs connus du domaine
provenant de partout à travers le monde.
– Du début 2009 à l’automne 2010, j’ai géré les séminaires du groupe d’apprentissage statistique de
l’Université de Toronto.
Connaissances
Langages de programmation : C++, C, Java, Python, Matlab, HTML, LATEX, Scheme, Prolog, BASH
shell scripting, CSH shell scripting
Programmes et Librairies : SVN, CVS, PLearn, LAPACK, BLAS
Langues parlées/écrites : Français et Anglais