Recherche

Cette page contient des informations concernant mes recherches actuelles et passées.

(2024). Dynamic Learning Rate for Deep Reinforcement Learning: A Bandit Approach. Preprint.

PDF arXiv BibTeX

(2024). MARVEL: MR Fingerprinting with Additional micRoVascular Estimates using bidirectional LSTMs. In MICCAI 2024.

PDF Poster HAL arXiv Code BibTeX

Postdoc

Depuis septembre 2023, je suis post-doctorat au Grenoble Institut des Neurosciences.

Je travaille sur une nouvelle technique d’acquisitions IRM appelée MR Fingerprint. Cette technique permet d’estimer plusieurs paramètres physiologiques à partir d’une unique acquisition IRM, là où les examens classiques nécessitent une acquisition pour chaque paramètre.

La méthode MRF pourrait ainsi permettre de réduire considérablement le temps des examens IRM, ce qui aurait pour conséquence d’augmenter la cadence des examens et d’accroître l’intérêt de l’IRM lors de situations d’urgence comme lors d’un AVC.

Thèse

Ma thèse s’est déroulée de Septembre 2020 à Août 2023. Je l’ai soutenue le jeudi 20 juillet 2023 à l’ÉNS de Lyon. Le manuscrit est disponible ici et les slides .

Je me suis intéressé dans ma thèse au le problème d’identification du meilleur bras (Best Arm Identification) dans les problèmes de bandits.

Le contexte des problèmes de bandits est le suivant : considérons $K$ distributions de probabilité $\nu_1, \dots, \nu_K$. Ces distributions vous sont inconnues mais vous pouvez à chaque étape choisir un bras $1 \leq k \leq K$ et recevoir la valeur d’une réalisation indépendante de $\nu_k$. Vous pouvez choisir n’importe quelle stratégie tant qu’elle choisit le nouveau bras à observer uniquement en fonction des valeurs des observations précédentes.

Il y a plusieurs objectifs possibles. Par exemple, en Best Arm Identification, l’objectif est d’identifier le meilleur bras, c’est-à-dire celui avec la plus haute espérance associée. Il y a deux cadres :

  • à confiance fixée (Fixed Confidence setting), on fixe un niveau de confiance $\delta \in ]0, 1[$ et vous devez trouver une stratégie qui identifie le meilleur bras avec probabilité au moins $1-\delta$. L’objectif est alors de minimiser l’espérance du nombre d’observations nécessaires à votre stratégie.
  • à budget fixé (Fixed Budget setting), on vous donne un nombre $n \in \mathbb{N}^*$ d’observations et vous devez trouver une stratégie qui maximise la probabilité d’identifier le meilleur bras après ces $n$ observations.

Pour plus d’informations sur les problèmes de bandits, le livre de Tor Lattimore et Csaba Szepesvári est une bonne introduction est.

Stages de recherche

Apprentissage par renforcement pour l’allocution de ressources dans un cluster HPC
J’ai utilisé une technique de machine learning pour faire de l’allocution de ressources dans un cluster HPC pendant un stage de 4 mois
Graphes Aléatoires Hyperboliques
J’ai étudié des modèles de propagation au sein des Graphes Aléatoires Hyperboliques pendant un stage de 4 mois
Ajustement de faisceaux avec positions de caméras connues
Je me suis intéressé au problème d’ajustement de faisceaux pendant un stage de 3 mois