IIRC : Incremental Implicitly-Refined Classification
Nous introduisons la configuration de la "Classification Incrémentale Implicitement Raffinée / Incremental Implicitly-Refined Classification (IIRC)", une extension de la configuration de l'apprentissage incrémental des classes où les lots de classes entrants possèdent deux niveaux de...
Main Author: | |
---|---|
Other Authors: | |
Format: | Doctoral or Postdoctoral Thesis |
Language: | English |
Published: |
2021
|
Subjects: | |
Online Access: | http://hdl.handle.net/1866/25909 |
id |
ftunivmontreal:oai:papyrus.bib.umontreal.ca:1866/25909 |
---|---|
record_format |
openpolar |
institution |
Open Polar |
collection |
Université de Montréal (UdeM): Papyrus |
op_collection_id |
ftunivmontreal |
language |
English |
topic |
Deep Learning Machine Learning Lifelong Learning Continual Learning Incremental Learning Computer Vision Apprentissage Automatique Apprentissage Profond Apprentissage Continu Apprentissage Progressif Vision Par Ordinateur Apprentissage Tout Au Long De La Vie Applied Sciences - Artificial Intelligence / Sciences appliqués et technologie - Intelligence artificielle (UMI : 0800) |
spellingShingle |
Deep Learning Machine Learning Lifelong Learning Continual Learning Incremental Learning Computer Vision Apprentissage Automatique Apprentissage Profond Apprentissage Continu Apprentissage Progressif Vision Par Ordinateur Apprentissage Tout Au Long De La Vie Applied Sciences - Artificial Intelligence / Sciences appliqués et technologie - Intelligence artificielle (UMI : 0800) Abdelsalam, Mohamed IIRC : Incremental Implicitly-Refined Classification |
topic_facet |
Deep Learning Machine Learning Lifelong Learning Continual Learning Incremental Learning Computer Vision Apprentissage Automatique Apprentissage Profond Apprentissage Continu Apprentissage Progressif Vision Par Ordinateur Apprentissage Tout Au Long De La Vie Applied Sciences - Artificial Intelligence / Sciences appliqués et technologie - Intelligence artificielle (UMI : 0800) |
description |
Nous introduisons la configuration de la "Classification Incrémentale Implicitement Raffinée / Incremental Implicitly-Refined Classification (IIRC)", une extension de la configuration de l'apprentissage incrémental des classes où les lots de classes entrants possèdent deux niveaux de granularité, c'est-à-dire que chaque échantillon peut avoir une étiquette (label) de haut niveau (brute), comme "ours”, et une étiquette de bas niveau (plus fine), comme "ours polaire". Une seule étiquette (label) est fournie à la fois, et le modèle doit trouver l’autre étiquette s’il l’a déjà apprise. Cette configuration est plus conforme aux scénarios de la vie réelle, où un apprenant aura tendance à interagir avec la même famille d’entités plusieurs fois, découvrant ainsi encore plus de granularité à leur sujet, tout en essayant de ne pas oublier les connaissances acquises précédemment. De plus, cette configuration permet d’évaluer les modèles pour certains défis importants liés à l’apprentissage tout au long de la vie (lifelong learning) qui ne peuvent pas être facilement abordés dans les configurations existantes. Ces défis peuvent être motivés par l’exemple suivant: “si un modèle a été entraîné sur la classe ours dans une tâche et sur ours polaire dans une autre tâche; oubliera-t-il le concept d’ours, déduira-t-il à juste titre qu’un ours polaire est également un ours ? et associera-t-il à tort l’étiquette d’ours polaire à d’autres races d’ours ?” Nous développons un benchmark qui permet d’évaluer les modèles sur la configuration de l’IIRC. Nous évaluons plusieurs algorithmes d’apprentissage ”tout au long de la vie” (lifelong learning) de l’état de l’art. Par exemple, les méthodes basées sur la distillation sont relativement performantes mais ont tendance à prédire de manière incorrecte un trop grand nombre d’étiquettes par image. Nous espérons que la configuration proposée, ainsi que le benchmark, fourniront un cadre de problème significatif aux praticiens. We introduce the "Incremental Implicitly-Refined Classification (IIRC)" setup, an extension to the class incremental learning setup where the incoming batches of classes have two granularity levels. i.e., each sample could have a high-level (coarse) label like "bear" and a low-level (fine) label like "polar bear". Only one label is provided at a time, and the model has to figure out the other label if it has already learned it. This setup is more aligned with real-life scenarios, where a learner usually interacts with the same family of entities multiple times, discovers more granularity about them, while still trying not to forget previous knowledge. Moreover, this setup enables evaluating models for some important lifelong learning challenges that cannot be easily addressed under the existing setups. These challenges can be motivated by the example "if a model was trained on the class bear in one task and on polar bear in another task, will it forget the concept of bear, will it rightfully infer that a polar bear is still a bear? and will it wrongfully associate the label of polar bear to other breeds of bear?". We develop a standardized benchmark that enables evaluating models on the IIRC setup. We evaluate several state-of-the-art lifelong learning algorithms and highlight their strengths and limitations. For example, distillation-based methods perform relatively well but are prone to incorrectly predicting too many labels per image. We hope that the proposed setup, along with the benchmark, would provide a meaningful problem setting to the practitioners. |
author2 |
Anbil Parthipan, Sarath Chandar |
format |
Doctoral or Postdoctoral Thesis |
author |
Abdelsalam, Mohamed |
author_facet |
Abdelsalam, Mohamed |
author_sort |
Abdelsalam, Mohamed |
title |
IIRC : Incremental Implicitly-Refined Classification |
title_short |
IIRC : Incremental Implicitly-Refined Classification |
title_full |
IIRC : Incremental Implicitly-Refined Classification |
title_fullStr |
IIRC : Incremental Implicitly-Refined Classification |
title_full_unstemmed |
IIRC : Incremental Implicitly-Refined Classification |
title_sort |
iirc : incremental implicitly-refined classification |
publishDate |
2021 |
url |
http://hdl.handle.net/1866/25909 |
genre |
ours polaire |
genre_facet |
ours polaire |
op_relation |
http://hdl.handle.net/1866/25909 |
_version_ |
1766161870249525248 |
spelling |
ftunivmontreal:oai:papyrus.bib.umontreal.ca:1866/25909 2023-05-15T17:54:09+02:00 IIRC : Incremental Implicitly-Refined Classification Abdelsalam, Mohamed Anbil Parthipan, Sarath Chandar 2021-05 application/pdf http://hdl.handle.net/1866/25909 eng eng http://hdl.handle.net/1866/25909 Deep Learning Machine Learning Lifelong Learning Continual Learning Incremental Learning Computer Vision Apprentissage Automatique Apprentissage Profond Apprentissage Continu Apprentissage Progressif Vision Par Ordinateur Apprentissage Tout Au Long De La Vie Applied Sciences - Artificial Intelligence / Sciences appliqués et technologie - Intelligence artificielle (UMI : 0800) thesis thèse 2021 ftunivmontreal 2022-01-15T23:58:53Z Nous introduisons la configuration de la "Classification Incrémentale Implicitement Raffinée / Incremental Implicitly-Refined Classification (IIRC)", une extension de la configuration de l'apprentissage incrémental des classes où les lots de classes entrants possèdent deux niveaux de granularité, c'est-à-dire que chaque échantillon peut avoir une étiquette (label) de haut niveau (brute), comme "ours”, et une étiquette de bas niveau (plus fine), comme "ours polaire". Une seule étiquette (label) est fournie à la fois, et le modèle doit trouver l’autre étiquette s’il l’a déjà apprise. Cette configuration est plus conforme aux scénarios de la vie réelle, où un apprenant aura tendance à interagir avec la même famille d’entités plusieurs fois, découvrant ainsi encore plus de granularité à leur sujet, tout en essayant de ne pas oublier les connaissances acquises précédemment. De plus, cette configuration permet d’évaluer les modèles pour certains défis importants liés à l’apprentissage tout au long de la vie (lifelong learning) qui ne peuvent pas être facilement abordés dans les configurations existantes. Ces défis peuvent être motivés par l’exemple suivant: “si un modèle a été entraîné sur la classe ours dans une tâche et sur ours polaire dans une autre tâche; oubliera-t-il le concept d’ours, déduira-t-il à juste titre qu’un ours polaire est également un ours ? et associera-t-il à tort l’étiquette d’ours polaire à d’autres races d’ours ?” Nous développons un benchmark qui permet d’évaluer les modèles sur la configuration de l’IIRC. Nous évaluons plusieurs algorithmes d’apprentissage ”tout au long de la vie” (lifelong learning) de l’état de l’art. Par exemple, les méthodes basées sur la distillation sont relativement performantes mais ont tendance à prédire de manière incorrecte un trop grand nombre d’étiquettes par image. Nous espérons que la configuration proposée, ainsi que le benchmark, fourniront un cadre de problème significatif aux praticiens. We introduce the "Incremental Implicitly-Refined Classification (IIRC)" setup, an extension to the class incremental learning setup where the incoming batches of classes have two granularity levels. i.e., each sample could have a high-level (coarse) label like "bear" and a low-level (fine) label like "polar bear". Only one label is provided at a time, and the model has to figure out the other label if it has already learned it. This setup is more aligned with real-life scenarios, where a learner usually interacts with the same family of entities multiple times, discovers more granularity about them, while still trying not to forget previous knowledge. Moreover, this setup enables evaluating models for some important lifelong learning challenges that cannot be easily addressed under the existing setups. These challenges can be motivated by the example "if a model was trained on the class bear in one task and on polar bear in another task, will it forget the concept of bear, will it rightfully infer that a polar bear is still a bear? and will it wrongfully associate the label of polar bear to other breeds of bear?". We develop a standardized benchmark that enables evaluating models on the IIRC setup. We evaluate several state-of-the-art lifelong learning algorithms and highlight their strengths and limitations. For example, distillation-based methods perform relatively well but are prone to incorrectly predicting too many labels per image. We hope that the proposed setup, along with the benchmark, would provide a meaningful problem setting to the practitioners. Doctoral or Postdoctoral Thesis ours polaire Université de Montréal (UdeM): Papyrus |