Études Historique de travail Prix et distinctions
Transcription
Études Historique de travail Prix et distinctions
Hugo Larochelle 299 Glenlake ave., apt. 2906 Toronto, ON Canada M6P 4A6 647-380-7809 [email protected] http://www.cs.toronto.edu/∼larocheh Études • University of Toronto Postdoctorat, Informatique, supervisé par Prof. Geoffrey Hinton Depuis 2009 Toronto, ON Canada • Université de Montréal Ph.D., Informatique, supervisé par Prof. Yoshua Bengio 2004 - 2009 Montréal, QC Canada • Université de Montréal Baccalauréat en Mathématiques et Informatique (Moyenne : 4.3) 2001 - 2004 Montréal, QC Canada • Cégep de Saint-Hyacinthe Diplôme Collégial, Sciences Pures 1999 - 2001 Saint-Hyacinthe, QC Canada Historique de travail Chercheur • ApSTAT Technologies Octobre 2008 - Mars 2009 Montréal, QC Canada, H2W 2R2 http://www.apstat.com/ – participation au projet intitulé Statistical Machine Learning Algorithms for Target Classification from Acoustic Signature, conduit par l’entreprise ApSTAT Technologies et dirigé par Prof. Yoshua Bengio – investigation et développement de différents algorithmes d’apprentissage statistique pour la classification de signaux sonores Stagiaire de recherche • Laboratoire d’Informatique des Systèmes Adaptatifs (LISA) Mai 2003 - Août 2003 et Mai 2004 - Août 2004 Montréal, QC Canada – investigation et développement de différents algorithmes d’apprentissage statistique – contribution à la librairie C++ PLearn, une librairie d’apprentissage statistique (http://plearn.berlios.de/) Stagiaire de recherche • Laboratoire de Recherche Appliquée en Linguistique Informatique (RALI) Mai 2002 - Août 2002 Montréal, QC Canada – développement d’un extracteur automatique de terminologie en Java – investigation empirique de différentes métriques statistiques pour l’extraction de terme Prix et distinctions • Bourse postdoctorale du CRSNG, 2009 (80 000$ sur deux ans) • Thèse de doctorat notée dans les 5% meilleures thèses de l’Université de Montréal, 2009 • Bourse d’études supérieures du Canada du CRSNG, Ph.D., 2005 (105 000$ sur trois ans) • Bourse d’études supérieures du Canada du CRSNG, M.Sc., 2004 (17 500$) • Bourse de passage direct au doctorat de l’Université de Montréal, 2004 (10 000$) • Bourse de recherche du premier cycle du CRSNG, 2004 (5625$) • Bourse de recherche du premier cycle du CRSNG, 2003 (5625$) • Bourse de recherche du premier cycle du CRSNG, 2002 (5625$) • Bourse du doyen de l’Université de Montréal, 2003 (2000$) • Bourse du doyen de l’Université de Montréal, 2002 (2000$) • Troisième position à la compétition de présentation d’affiche du Deuxième Congrès Canada-France MITACS, 2008 • Bourse CAE-Fraser, 2003 (2000$) • Bourse d’excellence, 2002 (1200$) • Bourse d’accueil de l’Université de Montréal, 2001 (2000$) • Médaille de Bronze du Gouverneur, 1999 Publications • Thèse – Études de techniques d’apprentissage non-supervisé pour l’amélioration de l’entraı̂nement supervisé de modèles connexionnistes Hugo Larochelle, Thèse de doctorat, Université de Montréal, 2009 • Articles acceptés dans des revues avec comité de lecture – Detonation Classification from Acoustic Signature with the Restricted Boltzmann Machine Yoshua Bengio, Nicolas Chapados, Olivier Delalleau, Hugo Larochelle, Xavier Saint-Mleux, Christian Hudon et Jérôme Louradour, À paraı̂tre dans Computational Intelligence, 2011 – Stacked Denoising Autoencoders : learning useful representations in a deep network with a local denoising criterion Pascal Vincent, Hugo Larochelle, Isabelle Lajoie, Yoshua Bengio et Pierre-Antoine Manzagol, Journal of Machine Learning Research, Vol.11, pp.3371-3408, 2010 – Tractable Multivariate Binary Density Estimation and the Restricted Boltzmann Forest Hugo Larochelle, Yoshua Bengio et Joseph Turian, Neural Computation, Vol.22, pp.2285-2307, 2010 – Exploring Strategies for Training Deep Neural Networks Hugo Larochelle, Yoshua Bengio, Jérôme Louradour et Pascal Lamblin, Journal of Machine Learning Research, Vol.10, pp.1-40, 2009 – Non-Local Estimation of Manifold Structure Yoshua Bengio, Martin Monperrus et Hugo Larochelle, Neural Computation, Vol.18, pp.2509-2528, 2006 • Autres contributions avec comité de lecture (conférences) – Learning Attentional Policies for Tracking and Recognition in Video with Deep Networks Loris Bazzani, Nando de Freitas, Hugo Larochelle, Vittorio Murino et Jo-Anne Ting, À paraı̂tre dans Proceedings of the 28th Annual International Conference on Machine Learning (ICML 2011), 2011 Bellevue, USA – The Neural Autoregressive Distribution Estimator Hugo Larochelle et Iain Murray, À paraı̂tre dans Proceedings of the International Conference on Artificial Intelligence and Statistics (AISTATS 2011), 2011 Accepté comme présentation orale, Notable Paper Award (2% des soumissions) – Learning to combine foveal glimpses with a third-order Boltzmann machine Hugo Larochelle et Geoffrey Hinton, Advances in Neural Information Processing Systems 23 (NIPS23), pp.1243-1251, 2010 Accepté comme présentation orale (2% des soumissions) Vancouver, Canada – Efficient Learning of Deep Boltzmann Machines Ruslan Salakhutdinov et Hugo Larochelle, Proceedings of the International Conference on Artificial Intelligence and Statistics (AISTATS 2010), pp.693-700, 2010 Sardaigne, Italie – Deep Learning using Robust Interdependent Codes Hugo Larochelle, Dumitru Erhan et Pascal Vincent, Proceedings of the International Conference on Artificial Intelligence and Statistics (AISTATS 2009), pp.312-319, 2009 Clearwater Beach, USA – Classification using Discriminative Restricted Boltzmann Machines Hugo Larochelle et Yoshua Bengio, Proceedings of the 25th Annual International Conference on Machine Learning (ICML 2008), pp.536-543, 2008 Helsinki, Finland – Extracting and Composing Robust Features with Denoising Autoencoders Pascal Vincent, Hugo Larochelle, Yoshua Bengio et Pierre-Antoine Manzagol, Proceedings of the 25th Annual International Conference on Machine Learning (ICML 2008), pp.1096-1103, 2008 Helsinki, Finland – Zero-data Learning of New Tasks Hugo Larochelle, Dumitru Erhan et Yoshua Bengio, Proceedings of the Twenty-Third AAAI Conference on Artificial Intelligence (AAAI 2008), pp.646-651, 2008 Chicago, USA – An Empirical Evaluation of Deep Architectures on Problems with Many Factors of Variation Hugo Larochelle, Dumitru Erhan, Aaron Courville, James Bergstra et Yoshua Bengio, Proceedings of the 24th Annual International Conference on Machine Learning (ICML 2007), pp.473-480, 2007 Corvallis, USA – Greedy Layer-Wise Training of Deep Networks Yoshua Bengio, Pascal Lamblin, Dan Popovici et Hugo Larochelle, Advances in Neural Information Processing Systems 19 (NIPS19), pp.153-160, 2007 Accepté comme présentation orale (3% des soumissions) Vancouver, Canada – Non-Local Manifold Parzen Windows Yoshua Bengio, Hugo Larochelle et Pascal Vincent, Advances in Neural Information Processing Systems 18 (NIPS18), pp.115-122, 2006 Vancouver, Canada • Contributions sans comité de lecture – Generalization to a zero-data task : an empirical study Hugo Larochelle, Dumitru Erhan et Yoshua Bengio, Présentation au Learning Workshop, 2007 Puerto Rico, USA – Distributed Representation Prediction for Generalization to New Words Hugo Larochelle et Yoshua Bengio Rapport technique, Université de Montréal, 2006 – Implantation et analyse d’un modèle graphique de désambiguı̈sation à entraı̂nement supervisé, semi-supervisé et non-supervisé Hugo Larochelle et Yoshua Bengio Projet de recherche à l’Université de Montréal, 2003 – Some Supervised Models in Disambiguation Hugo Larochelle, Christian Jauvin et Yoshua Bengio Affiche présentée à la conférence MITACS “Échanges Québec”, 2003 Montréal, Canada – Étude de la pertinence de métriques statistiques pour la détection de termes dans un document Hugo Larochelle et Philippe Langlais Rapport technique, Université de Montréal, 2002 Autres activités académiques – J’ai fait de la révision d’articles pour les journaux/conférences suivantes : JMLR, IJCV, IEEE-TNN, COST, IJPRAI, NIPS2008, ICML2009, NIPS2009, AISTATS2010, ICML2010, AISTATS2011, IJCAI2011, ICML2011, UAI2011. – En mai 2010, j’ai été invité à présenter mes travaux de recherche à l’Université Paris-Sud, en France. – En mars 2010, j’ai présenté un tutoriel sur les réseaux de neurones profonds à l’Université Laval. Le tutoriel était étendu sur 2 jours, totalisant 9 heures de matériel. – En avril 2006, j’ai présenté un tutoriel sur l’application des réseaux de neurones à des problèmes de traitement automatique du langage naturel (TALN), dans le cadre des séminaires RALI-OLST, à l’Université de Montréal. – J’ai co-organisé le Deep Learning Workshop, tenu en tant que rencontre satellite à la conférence NIPS 2007. Pour plus de détails, visiter http://www.iro.umontreal.ca/∼lisa/deepNIPS2007. – J’ai été démonstrateur pour le cours IFT6266 Algorithmes d’apprentissage donné par Prof. Douglas Eck au trimestre d’automne 2007, à l’Université de Montréal. Ce travail a impliqué les tâches suivantes : participation à la sélection du contenu traité dans le cours, enseignement lors d’une période de cours de mise à niveau, écriture et correction de devoirs, et interactions avec les étudiants lors de périodes de disponibilité hors-cours de questions/réponses. – J’ai été démonstrateur pour le cours IFT3395/6390 Fondements de l’apprentissage machine donné par Prof. Pascal Vincent au trimestre d’hiver 2007, à l’Université de Montréal. Ce travail a impliqué les tâches suivantes : enseignement lors de périodes de démonstration hebdomadaires (contenu “pratique”), écriture et correction de devoirs, et interactions avec les étudiants lors de périodes de disponibilité hors-cours de questions/réponses. – En collaboration avec Prof. Doina Precup de l’Université McGill, j’ai créé et organisé les Séminaires UdeM-McGill-MITACS d’Apprentissage Statistique, de 2005 à 2008. Cette série de séminaires présente les travaux d’étudiants et professeurs de Montréal ainsi que de chercheurs connus du domaine provenant de partout à travers le monde. – Du début 2009 à l’automne 2010, j’ai géré les séminaires du groupe d’apprentissage statistique de l’Université de Toronto. Connaissances Langages de programmation : C++, C, Java, Python, Matlab, HTML, LATEX, Scheme, Prolog, BASH shell scripting, CSH shell scripting Programmes et Librairies : SVN, CVS, PLearn, LAPACK, BLAS Langues parlées/écrites : Français et Anglais