Summary AUTOMATED ANALYSIS AND VALIDATION OF

Transcription

Summary AUTOMATED ANALYSIS AND VALIDATION OF
Summary
AUTOMATED ANALYSIS AND VALIDATION
OF EXPERIMENTAL DATA USING BAYESIAN METHODS
Irishkin Maxim
Institute for magnetic fusion research CEA Cadarache
Cadarache, bg 507
13108 St Paul Lez Durance, FRANCE
Supervisors: Dr. Peter Beyer (Aix-Marseille), Dr. Frederic Imbeaux (IRFM)
The goal of the PhD work is to develop methods for automated analysis and validation of experimental
data using Bayesian methods.
The work consists of three steps:
i) reconstruction of plasma profiles using experimental data (application of Bayesian methods),
ii) obtaining theoretical profiles using the METIS code, representing typical expectations and used
for data consistency analysis,
iii) development of automated methods for comparison and analysis of the profiles.
The novelty of the work will be in the third part. The comparison of the experimental data constructed
during the step i) and the simulated data obtained in the step ii) shall provide an automated analysis of
the shot characteristics, a high level data consistency check, a check whether the shot is normal or has
significant deviations with respect to a number of usual scalings or assumptions, i.e. aim at being an
expert system reporting elements of physics interest to physicists.
At the moment the step i) was performed for the electron and ion densities and temperatures.
Theoretical profiles described in the step ii) were obtained from the METIS code. Analysis and
comparison was concentrated on the electron density profile. We chose two parameters to compare: a
line-average density and a profile peaking factor (ratio of the density in the core (normalised rho is
equal to zero) to the average density). Using Bayesian inference probability histograms were
constructed for these ratios. On the left graph below you can see, as an example, an electron density
profile for the shot 45530, time-slice 21.5 seconds. The profile was constructed based on interferometry
and Thomson scattering data. The blue area represents 95% highest probability density (HPD) interval.
For this shot METIS profile lays within the reasonable range. On the right hand side there are
histograms of peaking factor (upper graph) and average density (lower graph). The doted lines represent
95% HPD and the red lines represent corresponding values from the METIS code.
As we may see all the values lay within the reasonable intervals for this particular shot and time slice.
At the moment there are 20 shots under analysis to establish sustainable methods for the automated
analysis and comparison.
Thermo-chemo-mechanical couplings in the ALCYONE fuel code
Application to Pellet Cladding Interaction
Nom : Baurens Bertrand
Laboratoire d’accueil : CEA/DEN/DEC/SESC/LSC - F-13108 Saint-Paul-lez-Durance,
France
Laboratoire de rattachement : IM2NP – Université Aix Marseille – Avenue Escadrille
Normandie Niemen 13397 Marseille Cedex 20 France
Directeurs de Thèse : Philippe Maugis (IM2NP), Laurent Trotignon (CEA)
Résumé :
ALCYONE is the fuel code co-developed by CEA, EDF and AREVA. It performs
multidimensional calculations describing the fuel thermo-mechanical behavior in accidental
and non accidental situations. The 3D scheme models the hourglassing of a fuel pellet
fragment and its contact with the cladding during base irradiation or power ramps. The
impact of the pellet geometry (chamfer, dishing) on Pellet Cladding Interaction can thus be
taken into account.
ANGE is a Gibbs energy minimizer co-developed by CEA and EDF. It models the
thermochemical state of irradiated UO2 or MOX fuels. The description of chemical equilibria
includes a solid solution model for UO2 and its fission products. The input data are the initial
chemical composition of the irradiated fuel obtained from the CESAR code, which calculates
its isotopic composition from burn-up by considering the radioactive decay chains.
In this work, a description coupling the ALCYONE and ANGE codes of the thermo-chemomechanical behavior of UO2 fuel during power ramps is developed. For each node and time
step, a thermochemical calculation is performed by ANGE using the input quantities
(temperature, pressure, burnup) given by ALCYONE. The burn-up calculated in ALCYONE
gives the fission product distribution in the fuel coming from CESAR quantities estimations.
The release of gaseous species like Cesium and Iodine which are of importance for PCI
failures are evaluated by considering the value of the Xe gas release fraction in ALCYONE.
It is shown that the use of the Xe gas release fraction to the sole gaseous phases calculated by
ANGE leads to consistent results with respect to experimental radial profile measurements of
Cesium and Iodine in pellets subjected to power ramps with various holding times.
Coupled 3D calculations are then presented to illustrate the strong chemo-mechanical
couplings that take place in UO2. The kinetics and the localization of Iodine and Cesium
releases in a pellet subjected to power ramps are estimated. It is shown that the dishing
triggers the gas release due to its impact on the stress field (by reducing the gas pressure).
Réduction uide sous-jacente lors de l'évolution
cinétique de la turbulence dans le plasma d'ITER
Thomas Cartier-Michaud,
Responsable CEA : Ph. Ghendrih, Directeur de thèse : Y. Sarazin
CEA, IRFM, F-13108 Saint-Paul-lez-Durance, France.
Journées de l'Ecole Doctorale, 30-31 mai 2013
Fusion par connement magnétique
Avant qu'un jour la production d'électricité par la fusion nucléaire puisse être
rentable, de nombreuses barrières technologiques doivent encore être franchies. L'un
des points clefs concerne directement l'ecacité des machines utilisées, cela s'exprime par le critère de Lawson. Il détermine les conditions physiques qui doivent
être réunies pendant un temps donné pour maintenir les conditions nécessaires à
la fusion. Atteindre ce critère impose de conner un plasma susamment dense
20 −3
4
(n ' 10 m ), susamment chaud (T ' 10 eV ) pendant susamment longtemps
24
−3
(τ ' 5s) : nT τ ≥ 10 eV.s.m . Actuellement, des recherches se concentrent sur
l'étude du transport turbulent via des simulations numériques dans le but d'améliorer le temps de connement.
Comparaison des approches cinétique et uide
Un plasma de fusion conné magnétiquement est faiblement collisionnel. En théorie une approche cinétique est donc nécessaire par rapport à une approche uide qui
suppose une forte collisionalité. Cependant les fonctions de distributions obtenues
restent très proches de maxwelliennes, distributions caractéristiques d'une description uide. Le coût de calcul de codes cinétiques étant largement supérieur aux
coûts de codes uides, il est pertinent d'étudier ce faible écart. L'objectif de la thèse
est d'une part de caractériser l'écart à la maxwellienne en fonction du temps et
en fonction de son rôle dans la dynamique turbulente. D'autre part d'évaluer dans
quelle mesure l'évolution de la fonction de distribution peut être caractérisée par
une évolution due aux équations de Navier Stokes complétée par une composante
dont l'évolution est purement cinétique tout en maintenant une relative séparation
entre ces deux contributions.
Travaux en cours : code cinétique N espèces
Actuellement, mes travaux se concentrent sur l'amélioration d'un code cinétique
4D auquel j'intègre la possibilité d'utiliser N espèces en simultanées. Cette étape
permettra de supprimer une hypothèse forte du modèle, l'adiabaticité des élèctrons.
Un eort d'optimisation a été entrepris an de supporter les nouvelles contraintes
numériques (résolution du maillage
40
fois plus haute dans deux dimensions). La
qualité du code est vériée via l'utilisation de la méthode des manufactured solutions an d'étendre la vérication à des régimes non linéaires complexes.
EFFET DES PARTICULES RAPIDES SUR LA VITESSE DE ROTATION DU PLASMA DE
TOKAMAK SANS INJECTION DE MOMENT ANGULAIRE EXTERIEUR
CHOULI Billal
CEA Cadarache
13108 Saint-Paul-Lez-Durance
Encadrant : SARAZIN Yanick
Durant cette première année de thèse, les objectifs suivants ont été atteints:
 Familiarisation avec le diagnostic et prise en main du logiciel de traitement des données (CXSFIT :
code d’analyse spectrale qui permet la reconstitution des profils de rotation toroïdale du plasma).
 Exploration de la base de données Tore Supra en se concentrant pour cette première année sur
l’analyse des chocs avec chauffage à la fréquence hybride basse (LH) pour mettre en évidence
l’effet des électrons rapides (électrons suprathermiques) sur la vitesse de rotation toroïdale du
plasma. Les principaux résultats obtenus sont résumés ci-après :

A faible courant plasma, on observe un incrément de vitesse dans la direction cocourant (direction parallèle au courant plasma).

A fort courant plasma, on observe un incrément de vitesse dans la direction contrecourant.

L’existence d’un seuil en courant plasma pour lequel l’effet s’inverse (passage d’un
effet co-rotation à un effet contre-rotation) a ainsi été mise en évidence.

Ces résultats expérimentaux ont été comparés à ceux de C-Mod, JET et EAST où des
observations similaires ont été rapportées (en particulier dans C-Mod).
 En parallèle à ce travail d’analyse de données, une étude théorique a été initiée afin d’expliquer
les observations expérimentales. Dans un premier temps, toutes les forces à l’origine de la rotation
du plasma en présence de chauffage LH ont été identifiées (un terme lié à l’effet du ripple sur les
électrons suprathermiques, un terme source dû à l’injection d’ondes hybrides, un terme de friction
néoclassique et un terme lié aux processus turbulents). Dans un second temps, une estimation des
ordres de grandeur des différents termes a été faite afin d’évaluer un effet éventuellement
dominant. Ces termes ont ensuite été injectés dans l’équation de conservation des moments. La
prochaine étape (en cours) consiste à calculer l’incrément de vitesse résultant de la compétition
entre ces différents termes, et de donner une prédiction du profil de vitesse résultant.
Le changement de tendance observé pour la rotation serait vraisemblablement lié à des processus
turbulents (changement des modes turbulents ITG, TEM). Ce point est actuellement en cours
d’investigation.
« IDENTIFICATION DES PHASES CRISTALLOGRAPHIQUES DANS LA STRUCTURE A HAUT TAUX DE
COMBUSTION (HBS). »
Giannina Dottavio
CEA, DEN/DEC/SA3C/LAMIR 13108 Saint Paul les Durance, France
Directeur de thèse : Lionel Desgranges- Encadrant CEA : Yves Pontillon.
Plusieurs changements microstructuraux ont lieu dans le combustible nucléaire à base d’oxyde
d’uranium (UO2) pendant son fonctionnement en réacteur. Parmi ceux-ci, l’apparition des
« structures à haut taux de combustion » (HBS) mérite une attention particulière. Elles
consistent en une modification de la microstructure qui a lieu quand le taux de combustion local
du système est supérieur à 60 Gwt/j. Cette nouvelle microstructure se caractérise par une forte
porosité et une diminution de la taille originale des grains, entrainant des modifications des
propriétés du combustible. Une autre caractéristique importante des HBS est la présence d’une
quantité significative de lanthanides dans le réseau cristallin d’UO2. Néanmoins, à ce jour,
l’influence spécifique de ces lanthanides vis-à-vis de la cristallographie du système n’est pas
complètement expliquée. Ainsi, l’objectif principal de cette thèse est l’étude de l’évolution
(potentielle) de la structure cristalline des HBS en fonction de la nature et de la concentration
des lanthanides qui y sont dissous.
Pour ce faire, la méthodologie suivie dans la thèse repose sur trois axes. Le premier axe est
consacré à l’étude de matériaux modèles, le second concerne la caractérisation de matériaux
irradiés, et le troisième axe, de modélisation thermodynamique, permettra de capitaliser les
résultats sur les matériaux modèles pour les extrapoler aux matériaux irradiés.
Pour le premier axe, des échantillons modèles d’UO2 non irradié dopé en Nd à différentes
concentrations ont été fabriqués pour simuler les HBS car le Nd est le produit de fission le plus
abondant parmi les lanthanides formés par fission. Ces échantillons sont caractérisés par
Diffraction des Rayons X (DRX) en fonction de leur position dans le diagramme ternaire U-Nd-O
qui est définie par trois paramètres : la concentration en Nd, la température, et le potentiel
d’oxygène. Des mesures DRX ont été réalisées in situ pendant des traitements thermiques avec
des températures allant jusqu’à 1700 °C, sous atmosphère contrôlée. Ces expériences ont
permis de détecter la présence d’une lacune de miscibilité dans le diagramme de phase U-Nd-O
pour des concentrations massiques en Nd supérieures à 6% massique, une température
inférieure à 420 °C et une atmosphère réductrice.
Dans le deuxième axe on cherche à savoir si l’équivalent d’une lacune de miscibilité existe pour
le combustible irradié (on parle d’un pseudo diagramme de phases U-TC-O où le Nd serait
remplacé par TC : le taux de combustion du combustible irradié). Ainsi on veut vérifier si ce
domaine biphasé pourrait exister dans les matériaux irradiés en se basant sur un protocole
expérimental en laboratoire « chaud » pour l’étude des phases cristallographiques du
combustible irradié que nous avons conçu en nous basant sur l’étude du combustible modèle
vierge. Ces études sont maintenant en cours de réalisation.
Le dernier axe porte sur la modélisation thermodynamique. L’objectif est d’effectuer, grâce à la
méthode Calphad, le calcul du diagramme de phase du système ternaire U-Nd-O. Cela permettra
de valider les résultats expérimentaux obtenus sur les matériaux modèles, ainsi que de prédire
les bornes du domaine biphasé. De plus, cette prédiction nous aidera à déterminer quelles
conditions de fonctionnement du combustible en réacteur pourraient conduire à l’apparition
d’une lacune de miscibilité dans les HBS.
En conclusion, l’hypothèse de l’apparition d’un domaine biphasé pendant l’irradiation apparaît
comme une nouvelle perspective originale pour la compréhension des HBS.
Etude et optimisation du conditionnement de la chambre à vide des
tokamaks avec ou sans champ magnétique toroïdal, application à ITER
Thésard: Dmitry Kogut
IRFM, CEA Cadarache, 13108 St Paul Lez Durance
Directeur de Thèse: Prof. J.M. Layet (PIIM, UMR Aix-Marseille Université/CNRS)
Encadrant: D. Douai
Wall conditioning of tokamaks is a common tool to control the surface state of the vacuum
vessel, to influence fuel - and impurity recycling and to improve fusion plasma performance
and reproducibility. However, wall conditioning techniques have to be adapted to the material
of the Plasma Facing Components (full metallic walls in JET and ITER), and to operational
constraints, such as the permanent presence of an intense magnetic field in future
superconducting devices, like ITER or DEMO.
Analysis of JET restart and operation with recently installed ILW (ITER-Like Wall) and
comparison with CFC wall was carried out. Levels of impurities in the residual gas in JET
vacuum vessel, such as oxygen, water or carbon dioxide, were monitored throughout the
experimental campaign.
The efficiency of the conditioning techniques such as GDC (Glow Discharge Conditioning)
and ICWC (Ion Cyclotron Wall Conditioning) for fuel removal in JET was estimated via
hydrogen isotopic exchange experiments. D2-ICWC experiment was done using ITER fullfield scenario, identical to those used on JET-CFC. The gas balance results show that
comparable amounts of H atoms were removed by D2-ICWC discharges both with CFC and
ILW; accessible reservoir was similar to the value found in the GDC experiments and that of
dynamic retention in limiter plasmas in ILW. The major difference is that no extra wall
retention is present after ICWC with ILW, whereas D retention was about 3 times higher than
H removal in JET-CFC. This is a promising result for the control of the isotopic ratio, and
hence of the fusion plasma performance, in the future D:T experiments in ITER.
In order to study the efficiency of the newly designed ITER GDC system a 2D modeling of
glow discharge in collaboration with LAPLACE Laboratoire de Toulouse was carried out.
The model includes both thermal and beam-like fast electrons, emitted by ion impact on the
chamber walls, acting as a hollow cathode. Benchmarking of the model was performed in the
experimental test-bench at IRFM CEA. Comparison of the model and experiment shows the
same trends in the negative glow region for the plasma density and temperature.
Interaction of Resonant Magnetic Perturbations with plasma flows in
tokamaks
François ORAIN
CEA Cadarache, IRFM, F-13108, St. Paul lez Durance, France
Director: Marina BECOULET
Edge Localized Modes (ELMs) are magneto-hydrodynamics events that occur in
tokamak plasmas in H-mode. They are characterized by periodic relaxations of heat and
density through the external transport barrier (ETB, or pedestal). In particular, large “Type-I”
ELMs can reach plasma facing components with an energy corresponding to 10% of the
pedestal one, and might be harmful in ITER if they are not controlled. A promising method to
control ELMs is the application of external Resonant Magnetic Perturbations (RMPs) [1]. In
the theory considering plasma equivalent to vacuum, RMPs are supposed to ergodize the edge
magnetic field, so as to keep the pedestal pressure gradient under the ELM-triggering
threshold [2]. However, at similar “vacuum-like” edge ergodisation [2], the experimentation
on the various existing tokamaks yielded diverse results: ELM suppression, ELM mitigation,
ELM triggering or no effects were observed [1]. It shows that the plasma response to RMPs
must be taken into account to make reliable predictions for ITER.
Indeed, external static magnetic perturbations are likely to be screened by the
perturbation currents generated on the corresponding resonant surfaces due to the plasma
flows [3-4]. A condition of penetration exists, when the electron perpendicular velocity
VExB  Ve* cancels on the resonant surfaces [3-4].
The interaction of static RMPs with the plasma flows is modeled in toroidal geometry,
using the non-linear resistive MHD code JOREK, which includes an X-point and the ScrapeOff-Layer. JOREK has been extended to include two-fluid diamagnetic effects, the
neoclassical poloidal viscosity and a source of toroidal rotation, so that realistic plasma flows
are described. RMP penetration is studied whilst self-consistently taking into account the
effects of these flows and the radial electric field evolution. JOREK simulations are run for
JET and MAST experimental parameters and for the ITER standard H-mode scenario. In the
JET case, RMP screening by plasma flows is shown to be increased by two main factors: a
larger diamagnetic rotation and a lower plasma resistivity. Scanning these factors reveals
different penetration regimes, characterized either by magnetic islands rotating with the
plasma or by smaller static islands. In the MAST and ITER geometries, an ergodization of the
edge is found, characterized by lobe structures near the X-point. These lobes are shortened by
plasma rotation, pointing out the screening effect of the rotation.
References:
[1] R Hawryluk et al. Nucl. Fus 49 (2009)065012
[2] M Fenstermacher et al, 23rd IAEA Conf., Daejon, 2010
[3] E Nardon et al, Nucl Fusion 50 (2010) 034002
[4] M Becoulet, F. Orain et al, Nucl Fusion 52 (2012)
[5] G T A Huysmans et al Plasma Phys Control Fusion 51 (2009) 124012
Modélisation des propriétés de transport atomique dans le dioxyde d’uranium par calcul
de structure électronique
Vathonne Emerson
CEA Cadarache
DEN/DEC/SESC/LLCC (Laboratoire des Lois de Comportement des Combustibles), bâtiment 352
13108 Saint Paul lez Durance
Directeur de thèse : Guy Tréglia
Encadrants de thèse (CEA) : Michel Freyss, Marjorie Bertolus
Le dioxyde d’uranium est le combustible nucléaire le plus largement utilisé dans le
monde pour alimenter les centrales nucléaires. La fission de l’uranium provoque la
production d’un grand nombre de produits de fission volatiles, ce qui est un facteur limitant
pour l’efficacité du combustible. En effet, la présence de ces produits de fission mène à des
changements dans la microstructure et à un gonflement du matériau combustible. Mon
travail de thèse a pour but de modéliser par calcul de structure électronique les dégâts
d’irradiation dans le combustible nucléaire et de comprendre le comportement des produits
de fission dans l’UO2. Ce travail est inclus dans une approche multi-échelle en lien avec les
travaux expérimentaux réalisés au Laboratoire de Lois de Comportement des Combustibles.
La technique de modélisation utilisée est basée sur la théorie de la fonctionnelle de la
densité (DFT) qui permet de décrire la structure électronique des matériaux. Cette technique
a fait ses preuves sur un très grand nombre de matériaux, mais il existe certaines limites
dans le cas de la modélisation du dioxyde d’uranium car l’UO2 est un isolant de Mott et les
électrons de la couche 5f sont fortement localisés et corrélés. D’une part, la DFT standard ne
permet pas une bonne prise en compte de la forte corrélation de ces électrons 5f ce qui
induit une description de l’UO2 non satisfaisante (en particulier UO2 est trouvé métallique).
Pour pallier ce problème la méthode de DFT+U est couramment utilisée pour localiser les
électrons par l’ajout d’un terme coulombien de type Hubbard. D’autre part, la DFT dans ses
approximations standards ne permet pas de prendre en compte les interactions de van der
Waals car ces approximations sont locales ou semi-locales alors que les interactions de van
der Waals sont dispersives.
Ma thèse est décomposée en deux parties, une partie validation des approximations
pour la description de l’UO2 et une partie application pour comprendre le comportement
des produits de fission dans l’UO2. Ainsi pour la première partie, une approximation plus
sophistiquée, appelée DFT+DMFT (DFT + Dynamical Mean Field Theory), est utilisée afin de
mieux décrire les matériaux contenant des électrons fortement corrélés. Les résultats
obtenus avec cette méthode sont très prometteurs et vont permettre de valider les résultats
obtenus avec la DFT+U. De même, une étude permettant d’estimer la précision de la DFT
lors de l’incorporation de gaz rares dans l’UO2 a été menée en utilisant une fonctionnelle de
corrélation non-locale. Concernant la partie application, une étude est en cours sur les
mécanismes de migration du krypton dans le dioxyde d’uranium. Enfin, des calculs incluant
le couplage spin orbite dans l’UO2 sont réalisés afin de montrer son influence sur les
énergies de défauts ponctuels.
Croissance par MBE des films minces du Ge sur GaAs(001) et sur In0.53Ga0.47As(001)
ZRIR Mohammad Ali
Centre interdisciplinaire de nanosciences de Marseille- CINaM
CINaM-CNRS
Campus de Luminy
Case 913
13288 Marseille Cedex 9
Directeur de thèse: LE THANH Vinh
Les semi-conducteurs du groupe IV constituent les matériaux de base de la microélectronique.
Cependant, à cause de leur gap indirect, on a dû faire appel aux semi-conducteurs du groupe
III-V ou II-VI pour réaliser des dispositifs optoélectroniques, en particulier ceux permettant
l’émission de lumière.
Par rapport au Si, le Ge présente une propriété unique : son gap direct se trouve seulement à
0,14 eV au-dessus du gap indirect tandis que dans le cas du Si, cet écart est de 2 eV.
Récemment, il a été montré le gap du Ge peut devenir direct si une contrainte en tension
supérieure à 1,9 % lui est appliquée, ouvrant ainsi la voie vers la réalisation de dispositifs
optoélectroniques parfaitement compatibles avec la technologie microélectronique [1]. L'une
des approches expérimentales permettant d’introduire des contraintes en tension dans le Ge
consiste à le déposer sur un substrat ayant un paramètre de maille plus grand. Du fait que le
paramètre de maille de GaAs est proche de celui de Ge, l’utilisation des couches tampon
relaxées d’InxGa1-xAs/GaAs constitue une démarche exploitée par plusieurs équipes [2].
Cependant, au-delà de 20% d'indium, l’utilisation des pseudo-substrats InGaAs/GaAs devient
difficile à cause de la présence de dislocations émergentes et de la rugosité de surface.
Afin de pouvoir étudier la croissance de Ge dans un système présentant un fort désaccord de
paramètre de maille, nous avons utilisé des substrats d'In0.53Ga0.47As déposé sur un substrat
d’InP. Du fait que In0.53Ga0.47As et l’InP ont le même paramètre de maille, le système est
accordé en paramètre de maille. Ainsi, la couche d’In0.53Ga0.47As ne contient pas de
dislocation et la surface est lisse à l’échelle atomique. Le désaccord de paramètre de maille
entre le Ge et In0.53Ga0.47As est de 3,7%, ce qui représente probablement la plus grande valeur
utilisée jusqu’à présent.
Dans un premier temps, nous avons étudié le dépôt de Ge sur GaAs afin d’optimiser les
paramètres de croissance. La croissance de Ge a lieu via le mode bidimensionnel dans toute la
gamme de température [RT ; 600°C]. C'est sur une surface de GaAs riche en As et
reconstruite (2x4) que les films de meilleure qualité cristalline de Ge ont été observés. Nous
avons ensuite étudié la croissance de Ge sur une surface d’In0.53Ga0.47As riche en As en
fonction de la température de croissance (TC). La croissance de Ge sur In0.53Ga0.47As se fait
selon le mode de croissance Stranski-Krastanov. Les analyses par RHEED révèlent que
l'épaisseur critique correspondant à la transition du mode de croissance 2D-3D décroit lorsque
TC augmente : 3 monocouches (MC) pour un dépôt à température ambiante ou à 300°C
tandis, une seule MC à 450°C. Ces résultats ont été confirmés par le microscope STM, avec
lequel on peut distinguer divers types de morphologie d’îlots. Des analyses par spectroscopie
de Raman, par spectroscopie de photoluminescence (PL) à température ambiante et à basse
température sont en cours afin de sonder les niveaux de contraint dans les ilots de Ge, et les
effets de confinement en fonction de leur taille.
1. M. El Kurdi, et al. Appl. Phys. Lett. 96, 041909 (2010).
2. Y. Bai, K. E. Lee, C. Cheng, M. L. Lee, and E. A. Fitzgerald, J. Appl. Phys. 104, 084518
(2008).
Étude par des approches atomistiques de la fragilisation des gainages nucléaires
due à la précipitation des hydrures
Alice Dufresnea,b
a
CINaM, CNRS – Aix-Marseille Université , UMR 7325, Campus de Luminy, 13288 Marseille
b
IRSN/PSN/SEMIA/LPTM, Cadarache BP3, 13115 St Paul lez Durance
Directeurs de thèse : Guy Trégliaa – Fabienne Ribeirob
Dans les réacteurs nucléaires, les éléments structurels et les gainages en zircaloy-4 sont situés dans un
environnement aqueux à haute température et soumis à une forte irradiation. L’oxydation qui a lieu à la
surface conduit à une production d'hydrogène, qui diffuse ensuite dans le zircaloy. Lorsque la
concentration de cet hydrogène dans le zircaloy dépasse la limite de solubilité, il précipite sous forme
d’hydrure de zirconium, et peut contribuer, notamment en fonction de son orientation, à la fragilisation
de la gaine. Il est ainsi primordial pour les études de sûreté de bien comprendre les mécanismes qui
gouvernent la précipitation et la remise en solution des hydrures.
Même si les hydrures ont été étudiés ces dernières décennies, des contradictions existent dans la
littérature, en particulier concernant la nature et la stabilité des phases d'hydrures et la cinétique de
transformation. La plupart des études expérimentales sont basées sur des techniques indirectes ou des
analyses post-mortem qui ne permettent pas d'obtenir des informations sur les mécanismes et la
cinétique de précipitation et remise en solution des hydrures.
Jusqu'ici, la modélisation des hydrures à l'échelle atomique est principalement basée sur des approches
ab-initio et ne permet pas l'étude de gammes de température réalistes. Le but de cette thèse est de
clarifier le diagramme de phase des hydrures de zirconium ainsi que les mécanismes de
précipitation/remise en solution et de mieux comprendre et quantifier les corrélations entre contraintes
locales dans le métal et précipitation des hydrures. Pour atteindre ces objectifs, nous avons choisi de
mettre en œuvre des approches de modélisation atomistique basées sur la description des interactions
électroniques via le formalisme de liaisons fortes. La température sera prise en compte au travers
d'approches de type Monte-Carlo.
Les étapes du travail sont les suivantes. Nous avons tout d'abord obtenu les potentiels interatomiques
du modèle de liaisons fortes pour le zirconium par ajustement à des calculs de structure électronique
réalisés en DFT. Nous avons ainsi dérivé des intégrales de saut, un terme répulsif et leur loi de
dépendance en fonction de la distance. Une validation systématique de ce modèle est en cours par
comparaison de nos résultats avec les données disponibles dans la littérature sur les principaux défauts :
lacunaires, interstitiels ... Cette méthodologie va maintenant être utilisée pour décrire l'interaction avec
l'hydrogène. Enfin, un code Monte-Carlo dans les ensembles canonique et grand-canonique sera
développé afin d'étudier le comportement des hydrures en température. Le diagramme de phase sera
ainsi clarifié et une étude systématique nous permettra de mieux comprendre la corrélation entre
contraintes locales et solubilité des hydrures.
Modélisation de diagrammes de phases de
nanoalliages : application aux systèmes à
tendance à l’ordre.
A. Lopes-Biancarelli, sous la direction de C. Mottet
CINaM, CNRS, Aix-Marseille Univ.,
UMR7325,13288, Marseille, France
May 3, 2013
Dans le cadre de l’étude de la matière condensée, les nanoalliages occupent une place particulière.
Ce sont des nanoparticules d’alliage dont la taille et la composition chimique peuvent influer sur leurs
propriétés physico-chimiques. La relation entre structure et propriétés est d’autant plus intéressante que
ces systèmes présentent le plus souvent des écarts de propriétés physique et chimque importants par
rapport à l’alliage massif. On s’intéressent en particulier aux systèmes présentant une tendance à l’ordre
tels que Pd-Au ou Co-Pt. Grains de matière de quelques centaines, voire quelque milliers d’atomes, les
nanoalliages présentent d’importantes applications en catalyse par exemple en augmentant la surface
de réaction disponible et en permettant la sélectivité chimique dans le cas de Pd-Au. Un autre intérêt
est la possibilité de développer des mémoires magnétiques où chaque nanoparticule porte un spin total,
permettant ainsi d’augmenter de façon importante les capacités de stockage d’information dans le cas par
exemple de Co-Pt. De nombreuses études expérimentales portent sur l’élaboration et la caractérisation de
ces nanoalliages, mais elles présentent toute fois des limitations par exemple concernant la caractérisation
de la composition chimique et l’ordre de surface.
La simulation numérique apporte ainsi un complément indispensable pour la compréhension voir
la prédiction des comportements de ces systèmes. Elle est basée sur la méthode Monte Carlo (dans
l’ensemble canonique ou semi-grand canonique) en utilisant un modèle énergétiques en liaisons fortes :
– sur réseaux rigides, on peut utiliser un modèle d’Ising, TBIM (Tight Binding Ising Model) qui
reproduit de façon satisfaisante les effets d’ordres et de ségrégation superficielle,
– pour prendre en compte les relaxations atomiques (au-delà du réseau rigide) et les changements de
structure (icosaèdriques ou décaédriques), on peut utiliser un potentiel semi-empirique tel que le
SMA ( Second Moment Approximation).
Ces deux approches nécessitent une paramétrisation dont les ajustements se font soit sur des données
expérimentales lorsqu’elles existent soit sur des calculs ab initio.
Les simulations Monte Carlo permettent de parcourir le diagramme de phases à température constante
dans l’ensemble semi- grand canonique et à concentration constante dans l’ensemble canonique. On
définit alors un diagramme de phase de volume en déterminant et caractérisant les phases ordonnées
dans le volume ainsi que la température de transition entre les phases ordonnées et désordonnées pour
différentes concentrations. Le cas des surfaces permet d’étudier les phénomènes de ségrégation : effet
d’alliage (ségrégation de l’espèce majoritaire), effet de taille (différences de paramètre de maille favorisant
la ségrégation de l’atome le plus gros) et effet de surface (l’élément ségréguant est alors celui minimisant
l’énergie de surface) pour des systèmes simples.
1
Skeletogenesis of the red coral (Corallium rubrum)
Perrin Jonathan
CINAM-CNRS Campus de Luminy Case 913, 13288 Marseille Cedex 09, France
Supervisor: Vielzeuf Daniel
Understanding the growth mechanisms of biominerals is a major goal in biomineralogy. The
fact that most biominerals display hierarchical organizations makes this task even more
complicated. Here we address the question of the skeletogenesis of a precious red coral:
Corallium rubrum. The red coral builds two different biomineral structures: an inner skeleton
and sclerites.
- The skeleton is composed of several crystallographic hierarchical levels and displays a
modular organization with long range spatial order. Two distinct regions are present: the
medullar region with a complex shape and the annular domain composed of crenulated
concentric growth rings.
- Sclerites are small grains (80 µm) made of Mg-rich calcite (10-14 % MgCO3) found in the
living tissues surrounding the inner skeleton. They are made of submicrometer crystalline
units (80 nm) arranged in crystalline fibers and tight concentric layers. Sclerites constituted
of similarly oriented crystalline units with only a low degree of misorientation between them
can be defined as mesocrystalline structures.
The duality of biomineral structures in the red coral raises the question of their genetic
relationships. In other words, do sclerites play a role in the construction of the inner
skeleton?
The tip of the skeleton is made of an aggregation of calcitic sclerites cemented together by a
calcitic cement. In this process, the polyps play a major role in confinement, aggregation and
cementation of the sclerites. On the other hand, the annular part of the inner skeleton is
made of an assembly of wide layers constituted of sub-micrometer calcite crystallites
organized in crystalline fibers. The transition of a construction mode to the other (tip to
annular) is controlled by the presence of a dense network of gastrodermal canals in the subapical part of the skeleton. This network prevents the aggregation of sclerites in this part of
skeleton. Thus the skeletogenesis of the red coral is closely controlled by the spatial
configuration of some organs of the colonial organism, such as the polyps and the deep
canal network, and its evolution with time.
Search for the Higgs boson in the ZH → ννbb̄ decay
channel with the ATLAS detector
Candidate: Lion ALIO
Laboratory: Centre de Physique des Particules de Marseille (CPPM)
Director: Laurent Vacavant; Co-director: Yann Coadou
In the proton-proton collisions at LHC, the Higgs boson can be produced in 4 ways: gluongluon fusion, associate production with a pair of top quarks, Higgs-strahlung and diboson
fusion. The goal of this study is to search for the Higgs boson using the ATLAS detector in the
Higgs-strahlung production associated with a Z boson, which decays to neutrinos (identified as
missing transverse energy (MET) in detector), and the Higgs boson decays to bb̄. The search
for the Higgs in the ZH → ννbb̄ channel has the advantage from high branching ratio since
the Z boson decays to 3 families of neutrinos (about 20% of branching ratio). Moreover, in low
mass region, the Higgs decays dominantly to bb̄, and the recently discovered Higgs-like particle
has mass around 125 GeV, so it’s important to search for the Higgs decays to bb̄ to confirm the
nature of the Higgs boson.
The search for Higgs boson decaying to bb̄ relies heavily on b-tagging algorithms, which is
a procedure to identify the jets as coming from b quarks in the ATLAS detector. Algorithms
are used to associate constituents (tracks, particles, etc...) to the jet. The goal of my work
is to study the b-tagging performance on the new track-to-jet association algorithm called
ghost-association and compare the performance with the standard cone algorithm. The ghostassociation algorithm is another association of tracks to jets based on the part of calorimeter
associated to the jets, which can tell the real shape of jets in detector. When some parameters of
track selection for ghost-association algorithm are modified, the b-tagging performance of ghostassociation for certain b-tagging algorithms shows improvement over the standard cone one. If
we recalibrate those b-tagging algorithms using this modification on ghost-association, this may
leads to further improvements in b-tagging performance, and ghost-association algorithm may
become the standard track-to-jet association algorithm in ATLAS detector.
My current work for the Higgs search is on MET trigger parametrization. In ATLAS
detector, trigger is composed of three levels of event selection: level 1, level 2 and event filter.
Its purpose is to reduce the rate of output from the initial LHC bunch crossing rate of 40 MHz
to about 300 Hz, rejecting largely the multijets processes while keeping a high efficiency for
low cross-section physics processes (Higgs processes, supersymmetry, etc...). I’m working on
the parametrization of the efficiency of a specific MET trigger which has been used to collect
additional data in 2012. Using this trigger we expect to gain in acceptance of the Higgs signal in
low MET region (90-120 GeV) and increase the data to be analyzed in the ZH → ννbb̄ analysis.
The framework of the trigger parametrization is: first, to calculate the trigger efficiencies for
each level on the data and MC samples, then use those trigger efficiencies to obtain the trigger
scale factors between the data and MC. Those steps are implemented using the Z → µµ and
W → µν data and MC samples, then the results will be applied to other MC samples, especially
the Z → νν samples since it is hard to model the Z → νν on data.
In the continuing analysis, towards my thesis in fall 2014, I will continue the work on MET,
b-tagging and expect that this will help us to see the Higgs decays to bb̄, or put the better limit
on the Higgs mass in the ZH → ννbb̄ channel.
Searching for neutrino point sources with the ANTARES experiment.
Student: Ekaterina Lambard (Gracheva)
Supervisors: Dr. Paschal Coyle, Dr. Heide Costantini
Laboratory: CPPM – Case 902 – 163 avenue de Luminy – 13288 Marseille Cedex 09
The main subject of my PhD is a search for cosmic sources of neutrinos with the ANTARES high
energy neutrino telescope. These could originate from energetic astrophysical sources such as supernova
remnants, microquasars, gamma ray bursts, active galactic nuclei etc.
ANTARES is a neutrino telescope located in the Mediterranean Sea at the depth of 2475 m, 40
km of the coast from Toulon, France. It is a three-dimensional array of optical modules (OM) organized
in 12 vertical lines, each of which has 25 floors comprising 3 OM. An OM is a photomultiplier with
necessary electronics contained in a glass sphere. The detection principle is based on the detection of
Cherenkov light induced by a passage of a secondary high energy muon originating from the interaction
of a neutrino with the matter in the vicinity of the telescope volume.
In addition to the Cherenkov photons, there are other sources of photons (40K decay and
bioluminescence) which if included in the track fit deteriorate the angular resolution and the number of
selected events. The first aim of my thesis is to study reconstruction efficiency as a function of optical
background rate (BR) using Monte Carlo. The study is performed for the signal (upgoing neutrinos) and
background (misreconstructed downgoing atmospheric muons). Three energy spectra for the signal are
studied: atmospheric, extragalactic and that predicted of the supernova remnant RX J1713.7-3946.
Currently, reconstruction procedure of ANTARES is performed using all the sample of available
runs without consideration of the value of the BR observed during data taking. Also, when performing the
track fit, a default value of optical background of 60 kHz is assumed, which can be far from the actual
rates (up to 500 kHz). These disadvantages of the standard procedure lead to a wrong idea that after
applying quality cuts, the number of selected neutrinos decreases drastically as the BR is increased.
However, my work has demonstrated that by introducing quality criteria dependent on the observed BR
and adjusting the probability density functions used in the track fit to reflect the observed BR, the
performance at high BR can be significantly improved.
For example, for atmospheric neutrinos the relative efficiency loss is reduced from 72% to 41%,
while for extragalactic neutrinos from 36% to 14%. The new procedure also yields an angular resolution
essentially independent of the BR. As during periods with highest BR ~16% of hits are removed by a
high rate veto these results demonstrate the robustness of the track reconstruction against optical
background variations.
Développement de la tomographie couleur intra-vitale basée sur la caméra à pixels
hybrides XPAD3
Carine Kronland-Martinet
Centre de Physique des Particules de Marseille & Institut de Biologie du Développement
Campus de Luminy, case 902, 13288 Marseille cedex 9
Directeur de thèse : Christian Morel (CPPM) ; Co-directeur : Franck Debarbieux (IBDML)
La caméra XPAD3 est une caméra de 560 x 960 millions de pixels de 130 x 130 µm2, à comptage
de photons développée au CPPM. Chaque pixel a la particularité de posséder sa propre électronique de
lecture connectée à un capteur formé d'une diode semi-conductrice en silicium de 500 µm d'épaisseur par
l'intermédiaire d'une microbille conductrice. Cette caméra fonctionne en mode de comptage de photons :
les photons sont détectés et comptés individuellement. Un seuillage électronique en énergie permet de ne
compter que les photons ayant une énergie supérieure à une valeur prédéfinie et réglable. Avec ce mode
de fonctionnement, les mesures ne sont alors affectées que par le bruit de Poisson et l'absence de courant
noir permet de réaliser des images à basses statistiques, de meilleure qualité que celles obtenues par les
détecteurs à intégration de charges pour une même statistique d'intégration. La dose délivrée pendant
l'examen peut ainsi être réduite.
Dans le cadre du projet PIXSCAN, l'équipe imXgam du CPPM a développé un démonstrateur de
micro-tomodensitomètre incorporant la caméra XPAD3 et offrant une résolution spatiale intrinsèque au
centre de l'image de 65 µm : le PIXSCAN II. Doté d'une très grande dynamique de comptage, le
PIXSCAN II fournit des images intrinsèquement très contrastées que le seuil de déclenchement permet
d'optimiser en sélectionnant l’énergie minimum des photons comptés, tout en rejetant les photons diffusés
de basse énergie. De façon unique, ce réglage des seuils permet également de réaliser de l'imagerie au Kedge et d'accéder à une version « couleur » de la tomographie X lorsque plusieurs agents de contrastes
sont utilisés simultanément.
De multiples acquisitions multi-seuillées placées de part et d'autre du K-edge d'agents de contraste
spécifiques permettent d’isoler ces agents indépendamment. En effet, alors que la probabilité d'absorption
des photons X tend à diminuer avec la dureté des photons, cette probabilité est brusquement augmentée
si les photons ont une énergie correspondant à l'énergie de liaison des électrons de la couche K de l'agent
de contraste. La valeur de cette transition est caractéristique de l'élément chimique considéré. La
localisation de l'agent de contraste est réalisée par analyse différentielle des cartes d'atténuation obtenues
pour différentes fenêtre en énergie. Nos mesures montraient qu'un jeu de projections obtenues pour 3
valeurs de seuils différentes permet de séparer après soustraction des images des compartiments contenant
respectivement de l'iode ou de l'argent à concentration physiologique. Appliquée à la biologie, cette
méthode devrait permettre de visualiser sélectivement la vascularisation mise en évidence par injection
intraveineuse en même temps que l'inflammation mise en évidence par la phagocytose de nanoparticules
par les macrophages. De telles informations inaccessibles jusqu’à présent, seraient particulièrement utiles
dans le cadre du diagnostique et du suivi de tumeurs cérébrales pour lesquelles l'inflammation coïncide
avec les phases terminales de la maladie.
L'objectif est donc de démontrer en situation préclinique la faisabilité de la tomographie multicouleur basée sur la caméra XPAD3. Pour cela nous avons déjà mis en place un protocole expérimental
permettant d'acquérir et d'analyser des images dans différentes fenêtres spectrales sur des souris porteuses
d’inflammation et doublement marquées. Le travail de thèse a déjà consisté à développer une méthode de
correction des images a posteriori tout en prenant en compte la spécificité de la caméra XPAD3, en
optimisant sur fantôme du protocole d'imagerie spectral en termes de rapidité et de sensibilité. Le travail
actuel vise la mise au point d'un protocole intra-vital de double marquage de la vascularisation et de
l'inflammation et la validation de la méthodologie pour suivre le développement d'un glioblastome et sa
modulation pharmacologique.
Search for SUSY in leptonical final state with the ATLAS detector
Serre Thomas
CPPM,
Directeur de thèse : Pascal Pralavorio
My first year of PhD was devoted to optimizing the electron performance. I developed a method to
measure the efficiency of the electron identification with a high precision (uncertainties lower than
1%). Then I validated the electron performance at high pile-up, in view of helping for the Higgs
discovery in the H-->ZZ-->4l channel.
Since October I work on the search for direct chargino pair production with all 2012 data (20 fb-1).
More specifically, I search for chargino decaying to W and LSP giving two opposite sign leptons and
missing transverse energy in the final state. WW background is almost indistinguishable from signal
and a good understanding is essential.
I developed the data driven estimation of ttbar and WW, main standard model backgrounds with an
uncertainty close to the one expected of 15%.
I now work on estimation of theoretical uncertainties of the WW background. A CONF note has been
approved and a paper will follow shortly.
Recherche du Boson de Higgs du modèle standard dans son mode de
désintégration H → ZZ ∗ → 4l avec le détecteur ATLAS et performance du
calorimètre à Argon liquide
Tiouchichine Elodie - Centre de physique des particules de Marseille, superviseur: Emmanuel Monnier
ATLAS est l’un des quatre détecteurs les plus importants du LHC (Large Hadron Collider), l’accélérateur
de particules le plus puissant jamais construit au monde. Le but de ce détecteur est de découvrir et
caractériser le boson de Higgs, la dernière pièce manquante du modèle standard, prédit par les professeurs
Englert, Brout et Higgs en 1964 pour expliquer comment les particules acquièrent leur masse. J’ai commencé
ma thèse en Octobre 2011, à la fin de la première année de prise de données à 7 TeV d’énergie au centre de
masse, de collisions proton-proton fournies par le LHC. ATLAS avait déjà enregistré 4.7 f b−1 de données
à ce moment là, alors que les expériences du Tevatron ont accumulé 13 f b−1 en 20 ans. Le 4 Juillet 2012,
après un an et demi de fonctionnement les expériences ATLAS et CMS annoncent en conférence de presse
regroupant les médias du monde entier la découverte d’une particle consistante avec le boson de Higgs.
Une telle découverte dans un temps si court a pu se faire grâce à la très bonne performance de plusieurs
groupes de ATLAS: la prise des données, la qualité des données, le sytème de déclenchement du détecteur
qui prend la décision d’enregistrer les données, la grille de calcul, la reconstruction et l’identification des
objets physiques comme les électrons, muons, photons, l’énergie transverse manquante et la performance
des groupes d’analyse de physique. Durant la première et deuxième année de ma thèse j’ai pu contribuer à
différents aspects de cette longue chaine.
Le détecteur ATLAS est un très grand miscroscope regardant le produit de la collision qui se passe en son
centre. Il est composé de plusieurs sous détecteurs, par conséquent la qualité des données de ATLAS repose
sur chacun de ces derniers. Ma contribution s’est focalisée sur la réduction de l’inefficacité d’utilisation de
données due au calorimètre à Argon liquide. Ce dernier est un détecteur qui permet de mesurer l’énergie
des particules chargées. En effet lorsqu’une particule chargée le traverse, la particule ionise l’Argon liquide
dans lequel baignent des électrodes et des plaques de Plomb soumises à une très haute tension. Le signal
électronique provenant de la collecte des charges d’ionisation est ensuite interpreté comme une quantité
d’énergie déposée par la particule dans le milieu.
Grâce entre autres à des études que j’ai menées visant à étudier des données prises dans des conditions
où ces lignes hautes tensions ont subit des court-circuits, il a été possible de récupérer des données non
utilisables jusqu’alors pour faire de l’analyse de physique; ce qui représente 2% des données totales collectées
par ATLAS.
D’autre part je me suis concentrée sur la mesure d’efficacité de recontruction des électrons par le détecteur
ATLAS. En effet les analyses de physique utilisent les données collectées par le détecteur mais également
des simulations. Afin d’avoir le même comportement des électrons dans les données et les simulations, on
doit corriger ces dernières. J’ai mesuré l’ efficacité de reconstruction des électrons dans les données et dans
les simulations. Ceci a permis de créer des coefficients à appliquer aux simulations afin de les corriger.
Ces corrections sont très importantes dans la suite pour toutes les analyses de physique utilisant les
électrons. Ma contribution dans la collaboration ATLAS a été prise en compte dans le groupe d’analyse de la
recherche du boson de Higgs. Selon la théorie le boson de Higgs possède plusieurs canaux de désintégration,
dont H → ZZ ∗ → 4l celui dans lequel j’ai pu commencer mon travail d’analyse de physique.
Ce canal de recherche présente beaucoup d’avantages puisqu’il est possible de reconstruire entièrement
son état final. De plus, la signature dans le détecteur ATLAS est très claire, composé de 4 leptons ce qui
lui vaut le nom de canal en or.
Cependant le nombre de signaux attendus n’est pas très élevé dans les conditions du LHC. Il est donc
très important d’avoir sous contrôle le bruit de fond attendu, qui représente tous les processus qui créent
dans le détecteur le même état final. Actuellement, je développe une méthode appelée méthode des facteurs
de transfert qui permet d’ estimer le bruit de fond réductible. L’avantage de cette méthode est d’être
entièrement basée sur les données. Une présentation de l’analyse de recherche du H → ZZ ∗ → 4l contenant
les résultats de la méthode que je développe a été présenté pour la première fois à la conférence internationale
de physique à hautes énergies de Monriond 2013. Une note publique de ATLAS contenant ces résultats
existe désormais.
PPM-DOM for KM3NeT
calibration and data analysis
Yatkin Konstantin
C.P.P.M - 163, avenue de Luminy - Case 902 - 13288 Marseille cedex 09
PhD supervisors: Claude Vallée, Damien Dorniс
KM3NeT is a future deep-sea research facility that will host a neutrino telescope with a volume of
several cubic kilometres installed at the bottom of the Mediterranean Sea. The telescope will search for
neutrinos from distant astrophysical sources like gamma ray bursts, supernovae or colliding stars and
will give more material for dark matter studies. An array of thousands of photomultipliers (PMTs) will
detect the Cherenkov light in the deep sea from charged particles originating from collisions of the
neutrinos and the Earth. The facility will also house instruments for Earth and sea sciences for long
term and on-line monitoring of the deep sea environment and the sea bottom at depth of several
kilometers.
PPM-DOM:
The KM3NeT Optical Module (DOM), that we are
working with (Fig.1), consists of a 17 inch water-tight
glass sphere instrumented with 31 3” photomultipliers:
19 PMTs are located in the lower hemisphere and 12 are
located in the upper hemisphere. PPM part in its name
means “Pre-Production Model”, this object is a
prototype to be tested in laboratory and real deep-sea
conditions before starting a mass production. My PhD
project covers the testing of PPM-DOM features and
analysis of the data obtained during the calibration runs
at CPPM and in the deep-sea.
Fig.1: PPM-DOM external view
Current work status:
The basic analysis covers the studies of the measured data outputs behavior: for each significant light
pulse detected by one of the PPM-DOM PMTs, the light arrival time (time stamp) is measured from the
time at which the pulse signal crosses a threshold, and the light intensity is estimated from the duration
by which the signal stays above the threshold (ToT measurement).
During the calibration runs at CPPM we used two different types of testing setups for lower and upper
hemispheres separately. These test setups cannot measure the absolute time difference between a light
pulse and the corresponding PMT hit, but give access to the relative time responses of the PMTs to a
common light pulse. This allows determining the individual time offsets of the PMTs relative to one of
them chosen as a reference, as well as the time resolutions of all individual PMTs. For both cases we
apply an external light (laser or LED) on several PMTs to study their response to the light signal.
Time offsets of the photomultipliers were measured and their gain calibration was checked. The
measurements performed at CPPM have shown that the basic functionalities of the DOM prototype
work correctly. We got a lot of experience for the DOM operation, that will help to perform more
complicated tests and analysis steps in future. An internal KM3NeT note summarizing all obtained
results was produced.
The PPM-DOM has been recently deployed in the deep sea in the ANTARES infrastructure. My work
will now concentrate on analysing the data obtained in real conditions in order to optimize
reconstruction tools for KM3NeT.
Dynamique des systèmes avec interaction longue portée
interagissants sur des réseaux complexes.
De Nigris Sarah
Centre de Physique Théorique CPT-UMR 7332
Campus de Luminy, case 907
13288 Marseille Cedex 09
Thèse encadrée par: Xavier Leoncini
La première partie de la thèse s’est focalisée sur l’ étude numérique et analytique
du passage entre courte et longue portée dans le cadre du modèle XY. On a défini un
paramètre γ , qui quantifie le nombre de connections assignées à chaque spin. Ce paramètre permet, grace à sa formulation, de passer de la configuration topologique de chaine
unidimensionelle, qui ne présente pas de transition de phase de la magnétisation, à la configuration de couplage complet qui correspond en litérature au modèle HMF et qui montre
une transition de phase du deuxième ordre. Notre étude a mis en lumiére l’existence de
deux régimes, correspondants aux intervalles γ ≶ 1.5 : le régime à courte portée (γ < 1.5)
où le système est équivalent à la chaine unidimensionelle et ne presente pas de coherence
globale sous la forme d’une transition de phase. L’autre régime, pour γ > 1.5, montre
le même comportement que le modèle HMF avec une transition de phase du deuxième
ordre : il s’agit, donc, d’un régime d’interaction à longue portée. De plus, la condition
topologique γ = 1.5 entraîne, du point de vue de la thermodynamique, un état dans
lequel la magnétisation oscille sans atteindre, lors des nos études numériques, un état
stationnaire. Cet état bistable a été ensuite étudié de façon plus détaillée, en particulier
en ce qui concerne l’influence de la taille du système sur l’amplitude des fluctuations.
Par la suite, on a pris en consideration aussi un autre modele de réseau, le réseau de
type Petit Monde (Small-World) et étudié la réponse thermodynamique du modele XY
sur cette topologie. Dans ce type de réseaux, on introduit aléatoirement sur les réseaux
réguliers précedents des liens longue portée avec probabilité p. En premier volet, on s’est
focalisé sur l’interaction entre les paramètres γ et p pour établir le régime topologique
du réseau Petit Monde, qui est caracterisé par une courte distance moyenne entre les
spins. Concernant le modèle XY sur ces réseaux, on retrouve la transition de phase susmentionnée du modele HMF mais maintenant les paramètres topologiques γ, p affectent
quantitativement la transition en changeant l’energie à laquelle elle apparaît. In fine, on
a observé un phénomène de saturation qui porte cette energie critique à se stabiliser à
εc = 0.75, la valeur du modele HMF. On a donc défini un nouveau paramètre, pM F ,
qui indique le seuil de probabilité pour que le régime avec εc = 0.75 s’établit et on en a
analysé la dependence en fonction de γ.
1
Gravitation et repères conformes d’ordre deux
Jordan François,
sous la direction de Serge Lazzarini & Thierry Masson.
Centre de Physique Théorique (UMR 62007)
Une théorie classique de champ est spécifiée par la donnée d’un lagrangien L(φµ , ∂ν φµ ) construit
de façon à exhiber des symétries, lesquelles sont réalisées par l’action d’un groupe de Lie G (ou sa
version infinitésimale associée, l’algèbre de Lie g) sur les champs φµ et leurs dérivées. La symétrie
est
R
simplement l’invariance de l’action classique S, sous l’action du groupe. On écrit δS = δ Ldxµ =0.
L’importance de ces symétries tient essentiellement à deux points. Le premier est lié aux théorèmes
de E. Noether (1918) : à toute symétrie correspond une quantité physique conservée. Le second réside
dans la découverte 1 qu’une symétrie dite « de jauge locale » suggère l’existence de champs de jauge
pouvant décrire adéquatement les champs d’interaction
de la matière.
R
i
Lorsque l’action quantique W = −i ln Z, où Z = dφ e h S est l’intégrale de chemin de Feynman,
ne jouit plus de la même invariance sous l’action du groupe de symétrie G que son pendant classique,
la symétrie est brisée et apparaît ce qu’on nomme une anomalie : δW = G.
De riches méthodes algébriques, les cohomologies de l’opérateur BRST 2 , ont été développées dans
les années 70 pour déterminer la nature géométrique et algébrique de ces anomalies dans le cadre
naturel des théories de jauges : la théorie des espaces fibrés, où les potentiels et champs de jauge sont
décrits respectivement par une 1-forme de connexion A et une 2-forme de courbure F sur un espace
fibré P .
La plupart des anomalies connues ont trouvé un tel traitement algébrique (à la Stora-Zumino) :
partant d’un polynôme invariant de jauge Pn (F ), polynôme qui sert à construire le lagrangien, on
construit une chaîne d’équations dites « de descentes » contenant, entre autres termes intéressants,
l’anomalie. Seule l’anomalie gravitationnelle de Weyl, ou anomalie conforme, échappe à ce shéma.
Elle n’a trouvé que récemment 3 un premier traitement purement algébrique. Toutefois le polynôme
invariant dont on pourrait extraire l’anomalie n’a jusqu’ici pas été identifié.
On propose donc un candidat pour ce polynôme. Le potentiel de jauge de la théorie est décrit
par une connexion de Cartan sur le fibré des 2-repères conformes qui contient et étend le fibré
des 1-repères de l’approche Einstein-Cartan de la relativité générale en dimension 4. La méthode de
transgression a pu être appliquée au polynôme homogène de degré 3 et la dérivation formelle complète
de la chaîne d’équations de descente, contenant une forme de Chern-Simons et une anomalie associée,
a été menée à bien. Déterminer la façon dont l’anomalie de Weyl peut être extraite demeure une
question en cours d’investigation.
En marge, cette année aura vu la soumission, dans le cadre d’une collaboration, d’une nouvelle
méthode 4 de création d’invariants de jauge à partir de connexions et sections d’une théorie de jauge
et reposant sur l’existence d’un champ auxiliaire aux propriétés prescrites.
La méthode se distingue clairement d’une transformation de jauge en dépit de leur frappante
ressemblance formelle. Ceci ouvrant la voie à certaines réinterprétations d’approches classiques tel
le passage du formalisme de premier ordre de la relativité générale (basée sur une connection de
Cartan) à celui de second ordre, où telle la brisure spontanée de symétrie du Model Standard. Dans
ce dernier cas (plus généralement les cas de groupes produits) elle donne des résultats coincidant
avec ceux obtenus par les fameux théorèmes de réductions de fibrés. Enfin la méthode ne repose
aucunement sur une fixation de jauge mais semble en mesure de fournir des services semblables, ce
qui pourrait se révéler pertinent pour la quantification des champs de Yang-Mills.
1. dont l’origine peut-être retracée jusqu’aux travaux de Weyl de 1918-1919 s’inspirant eux-même de ceux d’Einstein
sur la gravitation.
2. Becchi, Rouet, Stora 1974 puis Tuytin 1975.
3. N.Boulanger, « Algebraic classification of Weyl anomalies in arbitrary dimensions », PRL 98, 261302 (2007).
4. C. Fournel, J. François, S.Lazzarini, Th.Masson, « Gauge invariant composite fields out of connections with
examples », arXiv :1212.6702v1.
Black Hole Thermodynamic and Quantum Properties
Ernesto Frodden1,2 and Alejandro Perez1 (advisor)
1
Centre de Physique Théorique, Aix-Marseille Univ, CNRS UMR 6207, France.
2
Departamento de Fı́sica, P. Universidad Católica de Chile.
In the 70’s black hole (BH) theoretical studies established that BH behaves as thermodynamics systems.
It means they are able to interact with other systems
through thermodynamics laws. In particular, geometric
quantity variations can be interpreted as a version of the
thermodynamic first law
δM =
κ
δA + ΩH δJ + ΦH δQ.
8π
The main result was due to S. Hawking [1]. He shows,
by using a framework proper to quantum theories, that
BHs should radiate thermally as standard black bodies
κ
. Mixing
with a temperature measured at infinity T = 2π
this result with the first law we learn, as a by-product,
that the analogue of entropy should be proportional to
the area of the horizon.
Which are the degrees of freedom that explain the entropy of BHs? is the guiding question of this thesis. As
the classical description of BHs is extremely simple the
answer should comes from a quantum theory of gravity!
The aim of this thesis work is to shed some light on
this general problem by dealing with it form different
perspectives.
For instance, at the classical level we proposed a new
quasilocal version of first law of BH mechanics [2]. Counting degrees of freedom naturally requires a local perspective, then, a new definition of BHs which rescues local
properties called Isolated Horizons (IH) is used [3]. So,
using a description of geometry around the horizon and
a specific set of local observers defined as the most static
and nearest to the IH, we can show that energy-matter
interaction with the black hole is wrapped up simply as
δE =
n
s
Finally, a last and different approach being part of this
thesis is the statistical one: Computation of the BH entropy based on Spin-Network states counting. In particular, we study the possibility of analytical continuation
of the Immirzi parameter γ in statistical formulas for the
entropy [7]. In spite of many open question, this technique enables us to recover the classical formula for the
BH entropy S = 41 A in a simple and general manner. For
instance, the same idea can be also applied to the simpler
BH solution in three dimensions [8].
κ
8π δA,
with κ = 1/` being the local acceleration needed by the
observers to maintain their position at distance `. Three
ways of deriving this last result from more particular to
more general cases are presented in reference [2].
Another related problem we deal with in this thesis is
the construction of a quantization model for rotating BH.
The Loop Quantum Gravity community has developed
direct entropy calculations based in the Spin-Networks
structure of spacetime[4] and IHs (see [5] for a recent version). A detailed study of the phase space in the presence
of an IH shows the symplectic structure with AshtekarBarbero variables A = Γ + γK is
Z
Z
βκΩ(δ1 , δ2 ) =
δ[1 Σi ∧ δ2] Ai +
δ[1 ei ∧ δ2] ei .
M
In the spherically symmetric (i.e. static) IH case the last
boundary term has been shown to represent a ChernSimons (CS) theory, thus standard quantization tools are
at our disposal. We extended this perspective a step
further to the rotating BHs by constructing a new set
of variables at the boundary in order to recover a CS
theory [6]. One feature of these variables is the natural
appearence of classical defects which we represent graphically as special punctures on the axis of symmetry of the
horizon.
∂M
[1] S. W. Hawking, Commun. Math. Phys. 43 (1975) 199.
[2] E. Frodden, A. Ghosh, and A. Pérez, 1110.4055[gr-qc]
[3] A. Ashtekar, C. Beetle, et al., Phys.Rev.Lett. 85 (2000)
3564–3567, gr-qc/0006006.
[4] C. Rovelli, Phys. Rev. Lett. 77 (1996) 3288–3291,
gr-qc/9603063.
[5] J. Engle, A. Pérez, and K. Noui, Phys. Rev. Lett. 105
(2010) 031302, 0905.3168[gr-qc].
[6] E. Frodden, A. Pérez, D. Pranzetti and C. Roeken,
arXiv:1212.5166 [gr-qc].
[7] E. Frodden, M. Geiller, K. Noui and A. Pérez,
arXiv:1212.4060 [gr-qc].
[8] E. Frodden, M. Geiller, K. Noui and A. Pérez,
arXiv:1212.4473 [gr-qc].
Amplitudes de transition en gravité
quantique à boucles covariante et leurs
divergences
Aldo Riello
sous la direction de Carlo Rovelli
Centre de Physique Théorique, UMR 6207, Luminy
The loop quantization of General Relativity (Canonical Loop Quantum Gravity) is an
attempt to canonically quantize Einstein’s theory with respect to the so-called Ashtekar’s
conjugate variables. Such variables (Ashtekar, 1986) are a reparametrization of the phase
space of General Relativity essentially in terms of the holonomies of the connection (i.e.
of the parallel transport) and of the tetrads fields (i.e. a collection of inertial frames of
reference). This formulation allowed to apply general techniques from quantum gauge
field theories and make essential progress towards a quantum theory of gravity ; notably
a base for the kinematic Hilbert space was found. This base is that of spin networks,
which are gauge invariant under local Lorentz and three dimensional space diffeomorphism transformations.
The main problem this approach still has to face is that of writing a viable quantized version of the Hamiltonian constraint, necessary in order to canonically implement
the dynamic (or, from a complementary point of view, in order to restore four dimensional diffeomorphism invariance). The difficulties arisen by this issue were one of the
main reasons for the birth (Reisenberger and Rovelli, 1997) of a covariant version of the
quantum theory. This can be understood as a path-integral like, rather than canonical,
quantization of General Relativity. In this formulation four dimensional space-time geometry is encoded in quantum superpositions of (quantum) piece-wise-flat geometries ;
quite generally these geometries can themselves be interpreted as dual to the Feynman
graphs (known as spin foams) of an auxiliary non local quantum field theory built on
four copies of the gauge group (Group Field Theory). During the last fifteen years a few
models have been proposed to implement dynamics in the form of a viable spin foam
vertex amplitude. The most recent of which, the so called EPRL-FK model (2008), is
very promising and is giving rise to a number of results (from a derivation of the graviton
propagator - Bianchi and Ding 2011 - to the derivation of the Bekenstein-Hawking entropy of black holes through quantum-gravitational arguments - Perez, Gosh, Frodden,
Bianchi, etc.).
Still, at this point, it is not completely clear how (and even if) it is possible to coherently go beyond a sort of “tree-level” approximation of the EPRL-FK spin-foam transition amplitudes. In this context, I am trying to face exactly this problem, via an analysis
of the most simple diverging foam (the so-called “melon graph”, which plays a prominent
role in recent GFT studies). The first result is that its divergence is much tamer than
expected (Riello, preprint 2013). As a second step toward a deeper understanding of the
theory, we are now trying to apply this result to compute “loopy” quantum corrections
to the gravitational two point function.
2
Exploring the physics of cosmic acceleration
Heinrich Steigerwald
Centre de Physique Theorique
Campus de Luminy
163 Avenue de Luminy
13009 Marseille
Supervisor: Christian Marinoni
My thesis focuses on the exploration of the non-standard physics that might explain the recently
discovered phenomenon of cosmic acceleration. I’m attacking this issue from three different but
complementary angles.
First, I have studied a counterexample to the Weyl hypothesis, which states that the cosmological
comoving line element must not contain off-diagonal elements. This hypothesis can also be
reformulated as the absence of cosmic shear in the background. Interestingly, by deriving the
equation of motion of the cosmic metric without implementing this principle, we can clarify the
role of the cosmological constant, and therefore of cosmic acceleration, in a cosmological context.
Specifically, we find that a fluid with equation of state w=-1 is not an ad hoc assumption of current
theories but it is absolute necessity, a cosmological constraint, in a universe that does not obey to
the Weyl postulate. A paper on this topic is ready to be submitted and will be on the arxiv soon.
After studying the kinematic of the cosmic background, I then moved on to analyze the perturbed
sector of the universe. The goal is to explore the validity of General Relativity as well as the need
for its possible non-trivial extensions. As a matter of fact a clear signal that gravity might need a
revision could come from studies of cosmic structure formation. The argument goes as follows: All
non-standard gravitational models invoked to explain the accelerated expansion of the cosmic
background are finely tuned to reproduce the dynamic of the smooth cosmic background.
Model predictions, however, are not anymore degenerate when the inhomogeneous sector of the
universe is considered. Each model, indeed, makes unique predictions about how density
fluctuations evolve as a function of cosmic time. This makes studies of structure evolution the
natural 'battle ground' of gravity theories. In this context we are developing an analytical approach
to parameterize the redshift scaling of a characteristic quantity describing the evolution of matter
density perturbations, the linear growth index, in any general gravitational model that reproduces
GR in the due limit. This will allow us to compare data against a variety of theoretical predictions,
and, in turn it will allows us to easily spot the gravitational model that best performs in reproducing
observations also in the inhomogeneous sector. The main difficulty to overcome was to develope a
formalism that minimizes the number of phenomenological parameters and yet retains sufficient
flexibility and precision to reproduce the effective predictions of various gravitational theories.
Our results are in preparation for submission.
Finally, I'm also attacking the problem of detecting eventual departures from the standard
description of gravity by designing sensitive cosmic observables. To this purpose, I'm generalizing
the clustering ratio test, a formalism for measuring the amplitude of fundamental cosmological
parameters that was recently developed by J. Bel and my supervisor C. Marinoni. The main goal is
to turn it into a powerful estimator also of estimating gravitational parameters such as the growth
index. This work is in progress.
Interactions and charge fractionalization in an
electronic Hong-Ou-Mandel interferometer
Claire Wahl
Advisor : Thierry Martin
Centre de Physique Théorique
Campus de Luminy, Case 907
13288 Marseille cedex 9, France
0.4
0.2
0.2
0
0
I1
I2
−40
−0.2
−30
x
−0.4
0.2
0.4
0
0.2
0
−0.2
q1,L
−0.4
20
30
x
−0.2
40
q2,L
q1,R
−0.2
q2,R
Electron quantum optics aims at transposing quantum optics experiments – such as
Hanbury Brown and Twiss (HBT) or Hong
Ou Mandel (HOM) setups – for the manipulation and measurement of single electrons
propagating in quantum channels. The latter
experiment allows to measure the degree of
indistinguishability between 2 photons which
collide on a beam splitter. Electrons differ from photons because of their fermionic
statistics, the presence of the Fermi sea (FS)
in condensed matter systems and the fact
that they interact. If controlling a single
photon at a time has been mastered long
ago the emission of single electrons has only
been achieved recently. This has now allowed
to implement the electronic analogue of the
HOM experiment in the integer quantum Hall
effect regime: two electrons propagate along
opposite edge states and collide at the location of a quantum point contact (QPC),
the analog of a beam splitter for photons.
Prior to this, several theoretical works have
addressed the outcome of this experiment at
the single electron level (without interactions,
nevertheless taking full account of the Fermi
statistics): the modulus of the current correlation at the output of the QHE bar exhibits
an HOM dip as a function of the time delay
between the two injections. This dip should
vanish when the time delay is zero. When
the time delay is large enough, the current
correlations correspond to twice the HBT signal because the two electrons do not interfere
anymore.
The puzzle with the recent experiment,
Figure 1: Setup. Backscattering occurs for
inner channels only, at x = 0. (Left inset) Charge normalized by e as a function of
position on both right moving channels. A
“wide” packet in energy (γ = 1) is injected
at x = −30 on the outer channel and propagates on a length L = 5. (Right inset) An
energy resolved packet (γ = 8) is injected at
x = 30 on the inner channel and propagates
on a length L = 10.
which was performed at a filling factor ν > 1,
is that the HOM dip does not vanish as expected. The purpose of this work letter is to
show that interaction between quantum channels is responsible for this effect. Indeed, at
ν > 1, interactions dramatically change the
nature of excitations, leading to energy exchange between the channels and to charge
fractionalization. Here, we consider a quantum Hall bar at ν = 2, in the strong coupling
regime and at finite temperature (Fig. 1).
1
Polarized Resolved Localization-Based Super-Resolution Fluorescence Microscopy
H. Ahmed, C. A. Valades-Cruz, J. Savatier,
N. Bertaux, S. Monneret, H. Rigneault, G. Baffou, S. Brasselet
Institut Fresnel, CNRS UMR 7249, Univ. Aix-Marseille, Marseille, France
[email protected]
Super-resolution microscopy has brought a significant improvement in nano-scale imaging of
molecular assemblies in biological media. However apart from a recent work on proteins
aggregates [1], its extension to imaging molecular orientation using fluorescence anisotropy [2]
has however not yet been fully explored. Providing orientational order information at the nanoscale would be a considerable progress for the understanding of biological functions since the
structure of biomolecular assemblies is strongly interrelated with fundamental processes such
as in clustering in cell membranes. In addition, anisotropy imaging combined with superresolution would open new possibilities to measure the temperature of single molecules in
nano-structured local environments, following previous approaches already developed in
standard microscopy [3]. In this work, we report a super-resolution polarization-resolved
microscopy technique able to image molecular orientation behaviors in static and dynamic
environments. Using direct Stochastic Optical Reconstruction Microscopy (dSTORM) [4] in
combination with polarized detection, fluorescence anisotropy images can be reconstructed at
a spatial resolution of 20 nm. We used the improvements of resolution and detection to study
molecular position and orientation of some biological systems like amyloid and actin.
References :
[1] T. J. Gould et al. , Nat. Meth. 5, 1027–1030 (2008).
[2] A. Gasecka, T. J. Han, C. Favard, B. R. Cho and S. Brasselet, Biophys. J., 97, 2854–2862 (2009).
[3] G. Baffou, M. P. Kreuzer, F. Kulzer, and R. Quidant, Optics Express, 17, 3291–3298 (2009).
[4] S.van de Linde, A. et al., Nature Protocols 6, 991–1009 (2011).
Etude tridimensionnelle de systèmes biologiques par imagerie de
phase quantitative
Sherazade Aknoun, directeur de thèse : Serge Monneret, équipe MOSAIC
Institut FRESNEL
L’objectif global de cette thèse est d'envisager une technique de reconstruction tridimensionnelle d’un
échantillon biologique, résolue spatialement dans les 3 dimensions de l'espace. La nouveauté essentielle
provient du type de contraste apporté (contraste de phase), mais aussi des conditions d’imagerie qui nous
permettent de travailler en gardant l’illumination native d’un microscope classique et de réaliser un unique
balayage vertical de l’échantillon.
L'imagerie de phase quantitative est une application de l'optique qui permet une mesure complète
du champ électromagnétique complexe (i.e. composantes amplitude et phase). Nous utilisons une technique
d’interférométrie à décalage quadri-latéral qui nous permet d’imager un échantillon sur microscope sans
marquage et en temps réel. Outre un important contraste, cette technique donne également accès à une
quantification de la différence de chemin optique, proportionnelle à l’indice de réfraction et à l’épaisseur
physique de l’échantillon.
L’enjeu est de pouvoir décorréler à terme l’indice de réfraction de l’épaisseur physique, afin de pouvoir
obtenir une carte d’indice de réfraction que l’on sait caractéristique des constituants de l’échantillon imagé.
Dans le cas de cellules biologiques ou d’échantillons plus épais comme des tissus, le but est d’obtenir une
caractérisation tridimensionnelle de l’indice de réfraction en réalisant des coupes optiques de cet
échantillon. Ces coupes sont d’autant meilleures que l’on utilise une illumination incohérente spatialement.
Il suffit alors d’empiler ces coupes suivant l’axe optique (balayage du focus), puis de réaliser des
déconvolutions numériques de la série d’images ainsi enregistrées.
Enfin, en utilisant les propriétés de certains constituants anisotropes au sein de ces échantillons, on peut
également réaliser des images de contraste spécifique grâce à une excitation de l’échantillon avec
différentes polarisations. On peut ainsi révéler spécifiquement des fibres ou des modifications d’architecture
locales au sein de tissus.
Summary
Structured illumination fluorescence microscopy using
nanostructured glass substrates
Name : Ayuk Roland Ashu
Address : Institut Fresnel, Campus Universitaire de Saint Jérôme, Avenue Escadrille
Normandie-Niemen, 13397 Marseille Cedex
Supervisor : Hugues Giovannini
Abstract
In structured Illumination Microscopy, (SIM) the sample is illuminated with periodic light
patterns in order to obtain an improvement of the resolution beyond the diffraction-limited
detection band pass. The smaller the period of the light pattern, the better the resolution
improvement. This technique has been extended to Total Internal Reflection Fluorescence
Microscopy (TIRFM) in which the excitation field is an evanescent wave obtained through
total internal reflection of the light pattern at the interface of a high and low index material.
TIRFM has been shown to achieve lateral resolution of 100 nm while keeping the axial 100
nm resolution for an illumination wavelength of 500 nm.
In our work, our objective is to generate a pattern light with period much smaller than that
possible with TIRFM. The idea is to use a periodically nanostructured glass slide as sample
support (here after called grating). The grating is design to create a movable highly
contrasted light pattern with period smaller than half the excitation wavelength and
consequently a better resolution compared with the TIRFM scheme. We compare the
resolution using the standard SIM for a light pattern of period 230 nm and a grating assisted
SIM. We used a grating of period 210 nm and 170 nm for our theoretical demonstration and
a grating of period 205 nm for experimental demonstration on fluorescent beads of
norminal diameter 20 nm.
[1] R. Heintzmann , C. Cremer, "Laterally modulated excitation microscopy: improvement of
resolution by using a diffraction grating", Proc. SPIE Optical biopsies and microscopic
techniques III 3568, 185-196 (1999).
[2] M. Gustafsson, "Suprassing the lateral resolution limit by a factor of two using structured
illumination microscopy", J. of Microsc. 198, 82-87 (2000).
[3] R. Heintzmann, M. G. L.. Gustafsson, "Subdiffraction resolution in continuous samples",
Nature Photonics 3, 362-364 (2009).
[4] E. Mudry, K. Belkebir, J. Girard, J. Savatier, E. Le Moal, C. Nicoletti, M. Allain, A. Sentenac,
"Structured illumination microscopyusing unknown speckle patterns", Nature Photonics 6,
312-315 (2012).
Détection et analyse de changements en imagerie hyperspectrale
Godefroy BRISEBARRE
Institut Fresnel, UMR 7249, D.U. Saint Jérôme 13397 Marseille Cedex
Thales Communications & Security, 20-22 rue Grange Dame Rose, 78141 Vélizy Cedex
Thèse réalisée sous la direction de Mireille GUILLAUME
L’arrivée de la technologie des capteurs hyperspectraux à ouvert de nombreuses possibilités
d’évolution et de complexification pour les analyses d’images et les traitements automatisés.
Parmi eux, on peut retrouver la détection de changements, autant à application militaire
qu’environnementale ou géologique. En effet, pour ces différentes applications, l’utilisation
de données hyperspectrales permet une profondeur beaucoup plus conséquente puisqu’elle
ouvre la porte à un traitement qualitatif des changements : classification, identification en
termes d’ « endmembers » et d’ « abondances » voire même, identification en terme de
matériaux. Cependant, l’augmentation considérable de la quantité d’information apportée
par cette technologie présente aussi des inconvénients : malédiction de la dimensionnalité,
explosion des volumes de données nécessaires pour un apprentissage, images non
entièrement interprétables par un humain, …
Pour chacun de ces problèmes, des méthodes ou des stratégies de contournement ont étés
développées, par exemple, plusieurs processus de réduction de dimension ont étés
développées pour solutionner l’ensemble des problèmes sus-cités dans un cadre général.
Dans le cadre plus spécifique de la détection de changement, ces méthodes ne sont pas
pertinentes puisque l’information d’intérêt est généralement éliminée lors des réductions de
dimension classiques. Pour ce cadre spécifique, les résultats les plus prometteurs sont
obtenus en créant une base orthonormée de l’espace des données et en travaillant
successivement sur les projections selon chacune des directions de cette base.
L’utilisation d’une simple base générée aléatoirement apporte déjà des améliorations
significatives mais, les résultats les plus intéressants sont obtenus avec des directions
maximisant un critère adapté aux problèmes. Pour la détection de changements, par
exemple, les directions maximisant le kurtosis des données projetées permettent l’obtention
d’améliorations significatives des résultats.
L’utilisation de telles séries de projections conduit à l’apparition d’une distinction naturelle
entre les résultats obtenus selon les différentes directions. En particulier, dans le cadre de la
détection de changements, cette utilisation apporte une classification canonique des
changements détectés. Cette classification basique n’apporte pour autant pas une solution
effective puisque les classes ainsi séparées sont trop nombreuse pour être significatives.
Mes travaux les plus récents consistent à exploiter ces résultats canoniques en les
fusionnant pour établir une classification significative des changements détectés sur des
données hyperspectrales.
Pénétration de Molécules Actives pour la Cosmétique
Etudiée par Microscopie Non Linéaire
Xueqin CHEN
Institut Fresnel, MOSAIC
Domaine Universitaire St Jérôme, 13013 Marseille, France
Mail : [email protected]
Directeur de thèse : Hervé RIGNEAULT
[Mots-clés] : microscopie non-linéaire ; la peau ; moléculaire pénétration ; in vitro/vivo
La peau est la première couche qui protège le corps de l’environnement externe, elle est une
défense anatomique contre les pathogènes et les dommages. La pénétration efficace de
molécules actives dans la peau est essentielle pour le traitement des principales maladies
dermatologiques et dans l'industrie cosmétique. Bien que les molécules actives puissent être
marquées, une telle stratégie n'est pas compatible avec les applications in vivo, de plus, le
marquage peut toujours modifier les voies de pénétration des molécules. En revanche, des
méthodes sans marquer, par exemple, les techniques d’imageries vibrationnelles offrent des
possibilités de localisation des molécules sur les tissus [1].
Dans ce travail, nous utilisons l'imagerie CARS (Coherent Anti-stokes Raman Scattering) pour
suivre les molécules actives lors de leur pénétration dans des échantillons de peau artificielle
et de peau humaine. La fluorescence excitée à deux photons (TPEF) et la génération de
seconde harmonique (SHG) sont également utilisées pour distinguer la morphologie de la peau
et la distribution des protéines et du collagène. La peau artificielle vivante de type Episkin [2]
est utilisée pour étudier la pénétration de composés moléculaires actifs pour la cosmétique
alors que les cryo-sections abdominaux humaines sont utilisées pour étudier la pénétration
des médicaments (Figure 1,2,3). Finalement, nous proposons d’appliquer ces méthodes de
microscopie non linéaire pour l’étude in vivo. Les expériences sont réalisées sur des mains
humaines afin d’étudier le processus de sudation.
Figure 1
Echantillon peau humaine
(Traitement avec médicament)
Figure 2
Image TPEF
Taille de champ (2mm*2.3mm)
Figure 3
Image non linéaire (TPEF/SHG/CARS)
En vert la substance médicamenteuse
Taille du champ (0.6mm*0.35mm)
Références bibliographiques
[1] Saar, Brian G.; Contreras-Rojas, L. Rodrigo; Xie, X. Sunney; Guy, Richard H, Imaging Drug Delivery to
Skin with Stimulated Raman Scattering Microscopy, Mol Pharm 8, 969-975 2011.
[2] http://www.episkin.fr/, L’OREAL France.
Solution quasi universelle au problème récurrent de la détermination des
caractéristiques électromagnétiques de tous types de matériaux dans le
domaine des hyperfréquences
GEORGET Elodie
Institut Fresnel - UMR 7249 - Campus Saint-Jérôme - 13013 Marseille, France
Directeurs de thèse : ABDEDDAIM Redha, SABOUROUX Pierre
Depuis maintenant plusieurs décennies, nous assistons à une croissance extrêmement rapide des
télécommunications sans fil et des détections en tous genres au moyen d’ondes électromagnétiques. Dans
ce contexte, pour comprendre l’interaction entre la matière en général et ces ondes électromagnétiques,
connaître avec la plus grande précision les caractéristiques électromagnétiques des matériaux mis en
œuvre est devenu, et reste une préoccupation principale. Actuellement, un grand nombre de techniques et
de savoir-faire existent, cependant, un appareil de type Epsilonmètre n’est toujours pas disponible pour le
grand public. Quelques solutions techniques sont éventuellement
disponibles avec néanmoins des limitations substantielles. Ces
solutions ne sont pas toujours simples à utiliser pour la permittivité
et/ou la perméabilité complexes. En outre, suivant le type de matériau
Figure 1 - Ligne coaxiale pour
étudié, qu’il soit solide, en poudre ou bien encore liquide, la solution
caractérisation
électromagnétique,
technique diffère… Pour tenter de résoudre quasiment toutes les
EpsiMu®
limitations, une solution très connue sur matériaux solides a été
extrapolée pour matériaux souples. Une solution basée sur une configuration en propagation guidée et
utilisant un Porte Echantillon Universel a été développée (figure 1). Actuellement, le système de
caractérisation électromagnétique est validé dans le cadre de matériaux solides, liquides, granulaires ou
pulvérulents. Nous testons aujourd’hui le système dans le cas de matériaux fins et souples pour des
caractérisations de substrats souples utilisés de plus en plus, notamment en RFiD. Une application très
importante de cette technique est de pouvoir caractériser les matériaux entrant dans la constitution
d’antennes (substrats, radomes, …).
Le projet de ma thèse qui s’inscrit dans la cadre du projet BELOCOPAi,ii,
porte entre autre, sur l’étude, la réalisation et la validation d’une antenne
multibande sur substrat souple. Pour concevoir une antenne sur substrat
souple, nous avons besoin de connaître les caractéristiques
électromagnétiques en termes de permittivité et perméabilité du substrat,
d’où l’étude du moyen de mesure décrit dans le paragraphe précédent d’une
solution permettant la caractérisation des matériaux souples constituant les
substrats de nos nouvelles antennes. Pour rappel, le projet BELOCOPA
propose de développer un équipement embarqué, extractible et autonome
pour localiser avec précision un aéronef abîmé en mer et récupérer
rapidement par liaisons radio les principales données de vol (projet
recommandé par le BEA suite au vol AF447 Rio-Paris). Ce projet, soutenu
Figure 2 - Antenne réalisée
sur substrat souple
par le pôle de compétitivité Pégase, est porté par le consortium composé des
3 PME Tethys, Acsa et Isei, et des deux laboratoires de recherches :
Arts&Metriers-ParisTech-Mécasurf (Aix-en-Provence) et Institut Fresnel. La principale tâche dans le
cadre de ma thèse est l’étude théorique et expérimentale de l’antenne déployable de la balise/bouée
BELOCOPA. Nous avons besoin de déterminer les caractéristiques électromagnétiques pour la réalisation
d’une antenne simple (figure 2) associée à des techniques innovantes pour optimiser les caractéristiques
de rayonnement dans l’environnement considéré et pour maitriser les différents bilans de liaison en
transmission entre la balise/bouée et les différentes ressources aériennes/satellitaires en fonction des
différents matériaux constituant la bouée.
i
Dossier de presse :
http://www.pole-pegase.com/documents/Documents/dossier_de_presse_BELOCOPA.pdf
ii
Localisation d’aéronefs abîmés en mer, M. Rebeaud, Air & Cosmos, n°2260, 8 Avril 2011
TRANSITION MULTI-ECHELLE ENTRE REGIMES DE POLARISATION DE LA
LUMIERE DIFFUSE
Ayman GHABBACH
Equipes CONCEPT et RCMO
Institut Fresnel UMR 7249, D. U Saint Jérome 13397 Marseille cedex 20
Directeurs de thèse : Myriam Zerrad, Michel Lequime et Claude Amra
[email protected]
Mots-clefs : diffusion, polarisation, cohérence, milieux complexes, discrimination surface/volume,
Métrologie optique, optique statistique, Electromagnétisme, Dépolarisation temporelle et spatiale
Nombre de techniques contemporaines de détection optique utilisent les interférences
polarimétriques comme amplificateur ou révélateur de contraste. Les performances des ces nouveaux
outils sont déjà avérées mais restent cependant limitées par les effets de dépolarisation. Dans le cas où
la scène étudiée est éclairée par une lumière monochromatique pleinement polarisée, la dépolarisation
par le milieu est essentiellement d’origine spatiale, i.e. due à une multiplicité des états de polarisation
pris par l’onde diffusée à des échelles sub-speckle. A l’inverse, lorsque cette même scène est éclairée
par une lumière pleinement dépolarisée, on assiste à un phénomène de repolarisation, dont l’ampleur
est fonction de la microstruture du milieu diffusant.
Des études théoriques ont permis d’expliquer et de quantifier l’ensemble de ces phénomènes.
Celles ci s’appuient sur le développement de nouveaux modèles dont l’originalité réside dans le fait
qu’ils permettent de relier les résultats de l’optique statistique à ceux de l’électromagnétisme. Des
résultats expérimentaux précurseurs sur la scène internationale sont, par ailleurs, venus compléter cette
analyse dans les cas extrêmes.
Du fait de la précision nécessaire, l’étude expérimentale des cas intermédiaires demande, quant
à elle, une métrologie dédiée dont le développement constitue le premier volet du travail de thèse. Un
banc de caractérisation spécifique a donc été développé et couplé à des modèles analytiques
d’optimisation et reconstruction. Le système complet ainsi que les premiers résultats expérimentaux
seront présentés dans cette communication.
Travaux réalisés dans le cadre du projet ANR TraMEL
REFERENCES
1.
Amra, C., C. Deumie, and O. Gilbert, Elimination of polarized light scattered by surface roughness or bulk
heterogeneity. Opt. Express, 2005. 13(26): p. 10854-10864.
2.
Amra, C., et al., Partial polarization of light induced by random defects at surfaces or bulks. Opt. Express, 2008.
16(14): p. 10372-10383.
3.
Sorrentini, J., M. Zerrad, and C. Amra, Statistical signatures of random media and their correlation to polarization
properties. Opt. Lett., 2009. 34(16): p. 2429-2431.
4.
Myriam Zerrad, Jacques Sorrentini, Gabriel Soriano, and Claude Amra “Gradual loss of polarization in light
scattered from rough surfaces: Electromagnetic prediction”, Optics Express, Vol. 18, Issue 15, pp. 15832-15843 (2010)
5.
J. Sorrentini, M. Zerrad, G. Soriano, and C. Amra, "Enpolarization of light by scattering media," Opt. Express 19,
21313-21320 (2011) Highlight in Nature Photonics 5, 712,(novembre 2011)
Protection solaire et Filtrage UV
Nom : LECUREUX Marie
Laboratoire : Institut Fresnel
Université de Saint Jérôme - Avenue Escadrille Normandie-Niemen 13397 Marseille
Directeurs de thèse : Carole DEUMIE et Stefan ENOCH
Introduction
Le rayonnement ultraviolet (UV), de longueur d’onde allant de 280nm à 400nm, favorise le
développement de cancers cutanés, ainsi que l’apparition
Air
d’érythèmes actiniques (coups de soleil). Les crèmes solaires,
ayant pour objectif de filtrer les UV, sont composées de
diffuseurs (TiO2, ZnO, CeO2) placés dans une émulsion
contenant des absorbeurs chimique.
Peau
Les UV sont alors filtrés par :
La couche supérieure de la peau (stratum corneum) qui contient des absorbeurs
(mélanine), et qui peut également renvoyer la lumière par diffusion.
Les absorbeurs contenus dans la crème
Les diffuseurs (particules) qui peuvent renvoyer la lumière par diffusion de volume ou
augmenter le parcours de la lumière, qui rencontre plus d’absorbeurs
Paramètres d’influence de la protection solaire
On compte plusieurs paramètres influençant fortement la réponse de la crème :
-
La répartition de la crème sur le support :
Différentes techniques comme la fluorescence, l’étude de l’état de surface ou l’OCT (Optical
Coherence Tomography) peuvent servir à observer la répartition de la crème sur le support.
-
Les caractéristiques des particules :
On peut modéliser l’effet des particules sur la lumière par plusieurs méthodes numériques de
résolution des équations de Maxwell comme la théorie de Mie ou la méthode différentielle
Segmentation multi-régions hiérarchique fondée sur des algorithmes ultra-rapides de
segmentation à deux régions. Application à la segmentation d’image à 2 ou 3 dimensions
Doctorant : Siwei LIU
FRESNEL – Équipe Physique et Traitement de l’image (PhyTI)
Campus Universitaire de Saint Jérôme, Avenue Escadrille Normandie-Niemen 13397 Marseille
Directeur : Nicolas BERTAUX ; Co-directeur : Frédéric GALLAND
Cette thèse porte sur la segmentation d’images fortement bruitées à l’aide de techniques fondées sur
des contours actifs polygonaux et sur l’optimisation de critères issus de la théorie de l’information
(Minimum Description Length). En effet, il a été montré [1] que dans le cas d’une segmentation à
deux régions homogènes, cette technique permet d’aboutir à un algorithme de contour actif ultrarapide (10ms pour segmenter une image de 256×256 pixels sur un ordinateur standard) qui ne
nécessite ni paramètre à régler dans le critère d’optimisation, ni connaissance a priori sur les
fluctuations des niveaux de gris. La segmentation devient alors un outil élémentaire de traitement
rapide et non supervisé. L’objectif de cette thèse est de montrer toutes les potentialités offertes par ce
contour actif ultra-rapide pour la résolution de problèmes plus complexes.
Au cours de 16 premier mois, nous avons ainsi abordé 2 problèmes : la segmentation d’images
inhomogènes et la segmentation d’objets non connexe.
En effet, pour le premier point, il existe un grand nombre de situations où les niveaux de gris dans
chacune des régions ne peuvent pas être considérés comme homogènes, notamment lorsqu’une scène
est éclairée de façon non uniforme. Si des solutions ont déjà été proposées dans le cas où les
fluctuations des niveaux de gris sont modélisées à l’aide de lois de probabilités gaussiennes, dans le
cas de contours actifs non paramétriques la généralisation à des images inhomogènes s’avère
beaucoup plus délicate, notamment si l’on veut conserver des temps de calculs faibles. Afin de
dépasser cette limitation, nous avons montré qu’il était possible de généraliser ces approches et
d’obtenir un algorithme fondé sur ce contour actif ultra-rapide permettant de segmenter des images
inhomogènes lorsque les fluctuations de niveaux de gris sont inconnues tout en conservant des temps
de calculs réduits.
Une autre limitation des algorithmes de segmentation par contours actifs polygonaux est qu’ils ne
sont adaptés qu’à la segmentation d’un unique objet connexe. Dans le cas où l’objet n’est pas
connexe, différentes solutions ont été proposées pour résoudre ces problèmes, mais elles aboutissent
soit à des temps de calcul importants, soit à une grande complexité. Dans ce contexte, plutôt que de
chercher à complexifier les algorithmes, nous avons montré qu’il était possible de coupler ce contour
actif ultra-rapide avec une étape de post-traitement automatique basée uniquement sur des critères
géométriques permettant alors de segmenter des objets non connexes dans une image tout en
conservant des temps de calcul réduits.
Dans la suite de la thèse nous aborderons le problème de la segmentation d’images comportant un
nombre de régions inconnu, l’objectif étant de conserver les avantages du contour actif ultra-rapide
tout en étant capable de déterminer automatiquement le nombre de régions dans une image.
[1] N. Bertaux, F. Galland and Ph. Réfrégier. Multi-initialisation segmentation with non-parametric
minimum description length snake. Electronics Letters, 47(10) : 594-595, 2011.
Sur quelques extensions du filtre de Kalman - Application en biométrie dynamique de l'iris.
NÉMESIN Valérian
Institut Fresnel
Encadrant : Stéphane Derrode
Nous poursuivons nos travaux selon deux pistes, l'une méthodologique sur les filtres de
Kalman couple, l'autre applicative sur la reconnaissance dynamique de l'iris. Les algorithmes
robustes sur le filtre de Kalman couple sont exploités pour améliorer et accélérer la poursuite de
l'iris dans le flux vidéo.
A. Travaux sur le filtre de Kalman couple
Nous avons développé, l'année dernière, une méthode robuste d'apprentissage et d'estimation
des différents paramètres du filtre de Kalman couple. Notre travail a récemment été validé par la
parution de l'article [1], en 2013. De même, nous avons étendu l'apprentissage robuste au cas de
séries de petits signaux. Une communication sur ces travaux [2] sera bientôt présentée lors de la
conférence Traitement et Analyse de l'Information Méthodes et Applications, Hammamet (Tunisie).
B. Travaux sur l'iris
L'année dernière, nous avons mis au point une technique de segmentation, de sélection et de
fusion des iris de plus grande qualité : ces travaux ont été présentés lors de la conférence Int. Conf.
Advanced Concepts for Intelligent Vision Systems [3] en Septembre 2012.
Nous avons poursuivi les travaux sur la segmentation et la reconnaissance d'iris en proposant
une version multi-processus de l'algorithme proposé dans le papier précédent: nous avons dédié un
processus à la segmentation de la pupille, un autre à celle de l'iris et le dernier à la fusion des
données. De plus, nous avons instauré des critères de qualité dès la segmentation de la pupille, ce
qui nous a permis de réduire encore le nombre d'images exploitées et donc de réduire le temps de
segmentation d'une vidéo. Au final, nous sommes passés de 4 images traitées par seconde à un taux
oscillant entre 20 et 75 images par seconde. Un article qui décrit précisément la méthode est en
cours de préparation.
Nous avons également testé nos algorithmes sur la base de données MBGC. Celle-ci
comporte une base de 8 589 images d'iris, et une base de 986 vidéos provenant d'un total de 274
individus. Nous avons utilisé la base d'images comme base d'apprentissage et testé la
reconnaissance sur la base de vidéos. Nous obtenons respectivement pour la meilleure image, la
fusion des 3 meilleures images, des 7 et puis des 15, des EER (Equal Error Rate) de 1,72%, de
0,85%, de 0,60% et puis de 0,44%. Donc, nous pouvons en conclure que la fusion d'iris permet
d'améliorer notablement la reconnaissance. En effet, nous avons divisé par 4 l'EER pour la fusion de
15 images par rapport à l'utilisation de la meilleure image uniquement.
C. Publications (voir http://www.fresnel.fr/perso/nemesin/index.php?url=publi.php)
[1] Valérian Némesin and S. Derrode, Robust blind pairwise Kalman algorithms using QR
decompositions, IEEE transactions on signal processing, Volume 61(1) p 5-9, January 2013.
[2] Valérian Némesin and S. Derrode, Inferring segmental pairwise Kalman filter with
application to pupil tracking, Traitement et Analyse de l'Information Méthodes et Applications,
Hammamet (Tunisia), May 13-18, 2013.
[3] Valérian Némesin, S. Derrode and A. Benazza, Gradual iris code construction from
close-up eye video, Int. Conf. Advanced Concepts for Intelligent Vision Systems (ACIVS'12), Brno
(Czech Republic), September 4-7, 2012.
OPTICAL NANOANTENNAS TO ENHANCE SINGLE MOLECULE DETECTION
DEEP PUNJ
Institut Fresnel, Campus Universitaire de St Jérôme, Av Escadrille Normandie-Niemen 13397,
Marseille Cedex 20, France
Directeurs de thèse: Hervé RIGNEAULT, Jérome WENGER
Abstract:
Photonic/Optical antennas are promising devices to convert the optical radiation into localized
energy and vice versa at nanometric level and also provide the control and manipulation of
the optical field alongside. We introduce a novel type of plasmonic nanoantenna especially
designed for enhanced single molecule analysis in solutions at high concentrations. The
nanoantenna, Antenna-in-box, is based on a dimer made of two gold half-spheres surrounded
by a box aperture and is milled in a gold film by focused ion beam (FIB).
Plasmonic nanoantennas are promising tools to control and manipulate optical fields at
the nanometre scale [1]. The Antenna-in-box measurements are performed with Alexa Fluor
647 molecules at micromolar concentrations in a water-based phosphate bu ffered saline
solution containing 200 mM of Methyl Viologen. This concentration of Methyl Viologen
quenches the A647 quantum yield of A647 from 30% down to 8%. Fluorescent emitters with
low quantum yield can sense much higher fluorescence enhancement factors than emitters
with high quantum yield, because their low quantum yield can take larger benefit from the
nanoantenna enhancement [2],[3] Using the dominant fluorescence emission from the
nanoantenna gap region, we isolated detection volumes down to 58 zL. The large
fluorescence enhancement and detection volume reduction combine to make nanoantennas
an efficiently parallel platform for studying single molecule dynamics at micromolar
concentrations.
References:
[1] Lukas Novotny and Niek van Hulst, Antennas for light, Nature Photonics, 5, 83–90 (2011)
[2] Anika Kinkhabwala, Zongfu Yu, Shanhui Fan, Yuri Avlasevich, Klaus Mullen and
W.E.Moerner, Large single- molecule fluorescence enhancements produced by a bowtie
nanoantenna, Nat. Photonics 3, 654-657 (2009)
[3] Heykel Aouani, Oussama Mahboub, Nicolas Bonod, Eloise Devaux, Evgeny Popov, Hervé
Rigneault, Thomas W. Ebbesen, and Jérome Wenger, Bright unidirectional fluorescence
emission of molecules in a nanoaperture with plasmonic corrugations, Nano letters 11, 637–
44 (2011)
Photoacoustic mammography: coupling optical and
ultrasonic waves for breast cancer early diagnosis
Ph.D. student:
SONG Ningning
Laboratory:
Institut Fresnel, Campus Universitaire de Saint Jérôme Avenue
Escadrille Normandie-Niemen 13397 Marseille Cedex
Ph.D. supervisors: DA SILVA, Anabela ; DEUMIE, Carole
Breast cancer dominates cancers in females. Imaging of breast cancer has been a field of
significant advances in recent years. Optical imaging using near infrared light (NIR) is
popular because it’s inexpensive and relatively risk free, but light scattering in biological
tissue is highly scattered which often results in difficulties in detection and localization of
tumours. Ultrasound propagates conversely with low scattering through tissues and yields
higher resolution than purely optical techniques.
Photoacoustic (PA) effect combines optics and ultrasound; it refers to the generation of
acoustic waves from an object being illuminated by pulses or modulated electromagnetic
(EM) radiation. The photoacoustic effect can thus be described through two propagating
phenomena: optical and acoustical propagations. The project can be divided into two parts:
forward modeling and inverse problem. In forward modeling, we set up an environment to
simulate the photoacoustic effect in breast cancer, we should approximate the true
environment as much as we can, and we should also set up the experiment, and compare the
results obtained from simulation and experiment. For the inverse problem, we refer to the
quantitative PAM, the reconstruction of tissue optical and acoustical properties, we have
known different reconstruction methods, our next step is to find a proper way to do the
quantitative reconstruction.
A compact light source for coherent Raman (CARS
/ SRS) spectroscopy and microscopy
Sarah Saint-Jalm(1)
Institut Fresnel, UMR CNRS 7249, Campus Universitaire de Saint-Jérôme,
Aix-Marseille Université, Marseille Cedex 20, France
Supervisors: Esben Andresen and Hervé Rigneault
(1) [email protected]
One of the biggest challenges in the frame of coherent Raman scattering (CRS) spectroscopy
and microscopy is to build a compact system able to investigate a broad region of the vibrational
spectrum and acquire in a fast manner spectra, images and hyperspectral images of diverse
chemical or biological samples.
The present work addresses this problem by implementing coherent anti-Stokes Raman
scattering (CARS) and stimulated Raman scattering (SRS)in a compact optical setup (80 x
80 cm) relying on a light source based on a single oscillator (a 1 GHz repetition rate pulsed
Ti:Sapphire at 800 nm). The pump beam directly comes from the laser, whereas the Stokes
beam is generated in a photonic crystal fiber through self-frequency shift [1; 2]. The pulses are
chirped by grating pairs in order to match Raman lines’ bandwidth (δν̄ ≈ 10 cm−1 ) according
to the spectral focusing strategy [3–5]. This system allows one to acquire narrow spectra
(∆ν̄ ≈ 400 cm−1 ) by moving a simple delay line. The spectra can be acquired anywhere in the
whole range of the vibrational spectrum (500 - 3000 cm−1 ) by changing the input power in the
fiber and then frequency shifting the soliton.
Both CARS and SRS are acquired at the same time. We report high speed spectra collection
(few ms) suitable to monitor time varying molecular species for chemical and material sciences
applications.
References
[1] J. P. Gordon, Opt. Lett. 11, 662 (1986).
[2] E. R. Andresen, V. Birkedal, J. Thøgersen, and S. K. Keiding, Opt. Lett. 31, 1328 (2006).
[3] T. Hellerer, A. M. K. Enejder, and A. Zumbusch, Appl. Phys. Lett. 85, 25 (2004).
[4] I. Rocha-Mendoza, W. Langbein, and P. Borri, Appl. Phys. Lett. 93, 201103 (2008).
[5] E. R. Andresen, P. Berto, and H. Rigneault, Opt. Lett. 36, 2387 (2011).
Contrôle multicritère de filtres interférentiels
en cours de dépôt
Dragan Stojcevski
Institut Fresnel
avenue Escadrille Normandie Niemen, 13397 Marseille Cedex 20
Michel Lequime
Institut Fresnel – Ecole Centrale Marseille
Catherine Grèzes-Besset
CILAS
avenue de la Roche Fourcade, 13400 Aubagne
es filtres optiques réalisés en couches minces présentent des propriétés interférentielles
que l’on sait maitriser au moment du design pour aboutir à une fonction spectrale
donnée. Que les matériaux mis en œuvre soient diélectriques ou métalliques, la qualité
de la fabrication dépendra de la bonne maı̂trise des moyens de contrôle in situ utilisés.
De nombreux outils permettent un suivi en temps réel des filtres en cours de dépôt,
citons en particulier : la microbalance à quartz, le contrôle optique mono-chromatique
ou le contrôle optique large-bande. De manière générale, ces techniques sont utilisées
de façon indépendante dans le processus de dépôt car présentant chacune avantages et
inconvénients en fonction du type de filtre fabriqué.
L’objectif premier de notre travail sera de concevoir à partir des recherches effectuées
au sein de l’équipe Couches Minces Optiques de l’Institut Fresnel et des outils développés
par la société CILAS un contrôle multicritère permettant le traitement, par fusion simultanée, des données issues des moyens de contrôle disponibles. Dans un second temps,
compléter le système multicritère par un procédé innovant dont le principe repose sur le
suivi de l’évolution du déphasage de la lumière au cours de la croissance de l’empilement.
Une partie importante de notre étude sera consacrée à la modélisation du système de
dépôt, c’est-à-dire la prise en compte des caractéristiques et des évolutions au cours
du temps de la machine (technologie DIBS) en terme de pression, de température et
d’énergie influents sur les vitesses de dépôt; mais aussi à la qualification des moyens
de métrologie selon des aspects de dynamique, de linéarité et de bruit de mesure des
détecteurs. Ce modèle numérique permettra une simulation complète du processus de
fabrication afin d’aider à la mise au point d’une stratégie de dépôt sans échec.
L
A modified approach of a Dual-Primal Finite
Element Tearing and Interconnecting Method for
solving scattering problems
Ivan Voznyuk
Institut Fresnel, Campus de St Jérôme, 13397 Marseille Cedex, France
Amélie Litman and Hervé Tortel
Due to the increasing number of applications in engineering design and optimization, more and more attention has been paid to full-wave simulations based
on computational electromagnetics. In particular, the finite-element method
(FEM) is well suited for problems involving inhomogeneous and arbitrary shaped
objects. Unfortunately, solving large-scale electromagnetic problems with FEM
may be time consuming. A numerical scheme, called the dual-primal finite element tearing and interconnecting method (FETI-DPEM2), distinguishes itself
through the partioning on the computation domain into non-overlapping subdomains where incomplete solutions of the electrical field are evaluated independently. Next, all the subdomains are glued together using a modified Robintype transmission condition along each common internal interface, apart from
the corner degrees of freedom (DOFs) where a simple Neumann-type boundary condition is imposed. We propose an extension of the FETI-DPEM2 [1]
method where we impose a Robin type boundary conditions at each interface
DOFs, even at the corner DOFs.
Talking about my work in particular I can say that during my first year
of the PhD-work I have implemented the new method for 2D electromagnetic
problems and showed its efficiency. During the second year I implemented it for
computing the field scattered by a set of heterogeneous, eventually anistropic,
scatterers for the 3D Scattering Problems. Now we are trying to speed up the
proposed method that will allow us to solve real physical problems in my next
year of the PhD-work.
References
[1] I. Voznyuk, H. Tortel, and A. Litman, ”Scattered field computation with an
extended feti-dpem2 method”, Progress In Electromagnetics Research, Vol.
139, 247-263, 2013.
Low power plasmon–soliton
in planar nonlinear structures
WALASIK WIKTOR
[email protected]
Institut Fresnel, UMR CNRS 7249,
Université d’Aix-Marseille, Campus de St. Jérôme, 13013 Marseille
Supervisors: Gilles Renversez, Yaroslav Kartashov
The aim of this work is to study the properties of a new type of interaction between the
collective oscillations of electrons at the metal–dielectric interface (plasmons) and nonlinear
localised light beams (spatial optical solitons).
Nonlinear plasmon–soliton waves were predicted theoretically almost thirty years ago [1]
and still attract a lot of attention [2]. Nevertheless, no experimental demonstration has been
published so far due to the non-physically high nonlinear index modification required. Therefore, we propose a new 4-layer structures [shown if Fig. 1(a)] that allow a significant decrease of
light intensity (3 orders of magnitude). We develop two complementary vector models based
on Maxwell’s equations that allow to obtain the nonlinear dispersion relation in analytical
form and the field profiles in these structures. The first model (A) is a generalization of the
model proposed in Ref. [1] with an improved (but still approximate) nonlinearity treatment
and it allows us to obtain the analytical formulas for the field shapes. The second model (B)
is an extension to 4 layers of a more recent model developed by Yin [3]. This model gives the
dispersion relation with an exact nonlinearity treatment but the field shapes must be computed numerically. In Fig. 1(b) we can see a good agreement between the dispersion curves
obtained with both our models. Moreover, we have modified the approach based on the nonlinear solution of the 1D problem from Ref. [2] to obtain a first approximation of a 2D profile of
the plasmon-soliton [see Fig. 1(c)]. Using optimization of optical and geometrical parameters,
we have found the 4-layer configurations that support plasmon–soliton nonlinear waves with
realistic peak intensities (≈ 1GW/cm2 ) at the telecommunication wavelength (λ = 1.55µm).
model A
model B
0.4
0.3
0.2
0.1
0
0.5
1
E 0 [GV/m]
0
1.5
max
40
35
30
25
20
15
10
5
0
Intensity [GW/cm2]
[
NL
(b)
- ( 1)1/2]103
(a) (a)
1.2 (c)
0.9
0.6
0.3
0
30
15
0
y/
-15
-20 -10
-30 -40 -30
x/
0
Figure 1: Geometry of the 4-layer nonlinear structure (a). Comparison of dispersion relations obtained with
our models (b). Field shape for low power 2D plasmon-soliton in 4-layer structure with realistic parameters (c).
References
[1] J. Ariyasu, C. T. Seaton, G. I. Stegeman, A. A. Maradudin, and R. F. Wallis, “Nonlinear surface polaritons
guided by metal films,” J. Appl. Phys. 58, 2460–2466 (1985).
[2] E. Feigenbaum and M. Orenstein, “Plasmon-soliton,” Opt. Lett. 32, 674–676 (2007).
[3] H. Yin, C. Xu, and P. M. Hui, “Exact surface plasmon dispersion relations in linear-metal-nonlinear
dielectric structure of arbitrary nonlinearity,” Appl. Phys. Lett. 94, 221102 (2009).
[4] W. Walasik, V. Nazabal, M. Chauvet, Y. Kartashov, and G. Renversez, “Low-power plasmon–soliton in
realistic nonlinear planar structures,” Opt. Lett. 37, 4579–4581 (2012).
Étude de l’amorçage et de la croissance des dommages à la surface de composants optiques
en silice par plusieurs longueurs d’onde simultanément en régime nanoseconde
CHAMBONNEAU Maxime
CEA/CESTA/DLP/SMET/LMO ; 15, avenue des sablières 33116 LE BARP CEDEX
Thèse débutée le 3 novembre 2011, dirigée par Jean-Yves NATOLI
La tenue au flux laser des composants optiques qui composent les chaînes du Laser MégaJoule
(LMJ) est l’une des clés de la réussite d’un tel projet. Sur une chaîne du LMJ, un faisceau 1ω[1] est
amplifié puis converti en fréquence via des cristaux non-linéaires doubleur et tripleur
(respectivement en KDP et DKDP). Le faisceau 3ω[1] obtenu ainsi que les faisceaux résiduels 1ω et
2ω[1] non-convertis illuminent alors simultanément le réseau focalisant 3ω. La spécificité de la tenue
au flux laser de ce composant en silice gravée provient de sa structure géométrique d’une part, et du
fait qu’il soit illuminé par trois longueurs d’onde simultanément d’autre part.
Le comportement en amorçage mono-longueur d’onde sur silice a été établi à 1ω, 2ω et 3ω début
2012. Les lois déduites ont permis de déterminer les domaines de fluences 1ω et 3ω à couvrir lors
des études d’amorçage multi-longueurs d’onde (3ω+1ω) synchrones qui ont eu lieu fin 2012. Ces
études ont montré l’existence d’un couplage entre les 2 longueurs d’onde. Ce couplage peut être
évalué en traitant la courbe de niveau ρ =f(F3ω,F1ω) en isodensités de dommages. Parallèlement à la
partie expérimentale, un travail de modélisation basé sur des codes de calcul du CESTA est en cours
afin de simuler numériquement les résultats expérimentaux obtenus dans les cas mono et multilongueurs d’onde. Suite à ces travaux de modélisation, de nouvelles expériences multi-longueurs
d’onde seront conduites dans un but de compréhension des mécanismes d’endommagement.
Des expériences sur réseaux ont permis de montrer expérimentalement l’influence de la gravure et
de la largeur des traits sur la tenue au flux de ce type de composant. Les premières lois de croissance
des dommages sur réseau ont été établies début 2013. Cette étude montre que les dommages sur
réseau croissent de manière exponentielle. Des acquisitions tir à tir de la surface endommagée ont
permis de montrer que le coefficient de croissance évolue de manière linéaire avec la fluence
déposée sur le dommage, ce qui permet d’en déduire un seuil de croissance.
Une étude portant sur la morphologie des dommages amorcés sur silice est en cours. Pour un
faisceau laser mono-mode longitudinal, le profil temporel des impulsions est lisse, alors que pour un
faisceau multi-modes longitudinal, il existe des pics d’intensité aléatoirement répartis dans les
impulsions. Des observations de dommages par différents moyens (microscope à contraste
interférentiel, MEB, profilomètre, microscope confocal), ont permis de révéler des différences
morphologiques importantes. Ces observations couplées à une mesure précise du profil temporel des
impulsions laser mettent en évidence le lien entre ce dernier et la morphologie du dommage créé. Un
scénario reposant sur des ablations successives de silice par un plasma de surface a été envisagé. La
vitesse de propagation du plasma déduite des recalages morpho-temporels ne dépend ni de la durée
d’impulsion laser, ni de la fluence déposée. Une prochaine confrontation du scénario envisagé à des
simulations numériques permettra de vérifier sa cohérence physique. Le dépouillement de tirs multimodes dans différentes configurations (modification de la longueur d’onde et de l’angle d’incidence)
est en cours, et permettra d’améliorer la compréhension des mécanismes d’endommagement sur
silice.
[1] : 1ω=1053nm (1,17eV), 2ω=526nm (2,34eV), 3ω=351nm (3,51eV)
DIFFUSION VOLUMIQUE AU PREMIER ORDRE PAR DES
INHOMOGÉNÉITÉS MAGNÉTO-DIÉLECTRIQUES
DIEUDONNÉ Éva
CEA, le Ripault, BP 16, 37360 MONTS
ENOCH Stefan, MALLÉJAC Nicolas
La diusion des ondes électromagnétiques par des milieux est un problème important
dans de nombreux domaines des sciences comme la médecine, l'optique, l'acoustique,
la géophysique, les communications et la télédétection. Il se pose dès que les milieux
possèdent une inhomogénéité. Elle peut être liée à une géométrie particulière de l'objet,
à une irrégularité de la surface délimitant le milieu, et/ou à une hétérogénéité dans la
répartition des propriétés électromagnétiques du milieu.
Il existe déjà de nombreux modèles de diusion, particulièrement pour les surfaces
rugueuses où il est possible de se référer aux publications [1, 2, 3]. De même, pour les
inhomogénéités volumiques, il existe diverses méthodes similaires au cas surfacique. (A
noter, qu'aucun article, à ce jour, ne référence les méthodes pour la diusion volumique.)
Cependant, ces méthodes ne prennent pas en compte les uctuations de perméabilité.
C'est pourquoi avec l'essor des métamatériaux (matériaux structurés sous longueur d'onde
pouvant être décrits par une permittivité et une perméabilité articielle), il nous est
apparu nécessaire d'établir une méthode pour calculer le champ diusé par des milieux
possédant à la fois une uctuation de permittivité et de perméabilité.
Notre méthode est basée sur l'approximation du premier ordre [4, 5, 6], développée
sous forme matricielle. Elle permet, de plus, de prendre en compte les uctuations magnétiques et de diminuer les temps de calcul par rapport à la méthode des admittances [6].
La solution analytique fournit par la méthode des admittances (que nous avons également développée pour les uctuations magnétiques) montre qu'il est possible d'écrire
l'intensité diusée en fonction du spectre de uctuation.
I d = βε γε + βµ γµ + βεµ <(γεµ )
L'étude des paramètres βε et βµ permet de montrer l'impact de n'importe quelle
uctuation de permittivité ou de perméabilité et celle de βεµ celle de la corrélation entre
les deux uctuations.
Cette étude nous à permis de montrer que pour une répartition spatiale identique des
uctuations de perméabilité et de permittivité, l'intensité diusée présente une sensibilité
signicativement diérente entre les propriétés magnétiques et les propriétés diélectriques,
et qu'il existe des extrema très marqués de l'intensité diusée selon les valeurs moyennes
de perméabilité et de permittivité.
Références
11, R103-R137, (2001).
11, R1-R30, (2001).
T. M. Elfouhaily et C.-A. Guérin. Waves Random Media, 14, R1-R40, (2004).
P. Bousquet, F. Flory et P. Roche. J. Opt. Soc. Am., 71, 1115-1123, (1981).
J. M. Elson. Phys. Rev. B., 30, 5460-5480, (1984).
C. Amra. J. Opt. Soc. Am. A, 10, 365-374, (1993).
[1] M. Saillard et A. Sentenac.
Waves Random Media,
[2] K. F. Warnick et W. C. Chew.
[3]
[4]
[5]
[6]
Waves Random Media,
Etudes des interfaces, des boites quantiques et des nanofils à base des II-VI et III-V par
sonde atomique tomographique
Doctorant : Hammouda BENALLALI
Directeur de la thèse : Dominique Mangelinck, directeur de recherche (CNRS)
Tuteur de la thèse : Khalid Hoummada, maître de conférences(AMU)
Les matériaux semi-conducteurs ont été largement exploités dans les technologies de l’optique
et de l’électronique car leurs propriétés électriques peuvent être facilement modifiées par le dopage
électrique ou par la réduction de leurs dimensionnalités (couches bidimensionnelles, des fils ou des
boites quantiques…) [1]. En particulier, les semi-conducteurs II-VI sont largement utilisés dans
l’optoélectronique, notamment les systèmes ZnSe et ZnTe étant des semi-conducteurs à gap direct.
Leurs applications sont multiples comme par exemple les lasers verts, l’électronique de spin et les
cellules solaires multijonctions. Ces semi-conducteurs sont également utilisés pour fabriquer des
boites quantiques et des nano-fils ainsi que des boites quantiques dans les nano-fils. Dans les boites
quantiques, les électrons et les trous occupent des états discrets comme dans un atome [2]. La
recombinaison de ces paires électrons-trous quantifiées sur ces niveaux donne lieu à l’émission de
photons uniques, d’énergie et de polarisation contrôlées [3]. Ces propriétés optiques sont exploitées
pour sonder l’état de spin des atomes magnétiques dans les boites quantiques.
Afin de comprendre les mécanismes de formation et de dopage des boites quantiques et des
nanofils, et, au final les propriétés de ces nanostructures, il est nécessaire de déterminer la composition
chimique avec une résolution quasi-atomique. La sonde atomique tomographie (SAT) est un outil qui
permet d’obtenir des cartographies chimiques avec une résolution atomique au sein d’un matériau,
dans les trois dimensions de l’espace. Ma thèse est basée sur l’utilisation de la sonde atomique
tomographique pour l’analyse des interfaces, des boites quantiques, des nanofils des matériaux II-VI.
Tout d’abord, nous avons débuté notre étude par l’analyse des multicouches
ZnTe/ZnSe/CdSe/ZnSe sur le substrat GaAs. L’analyse de ces multicouches a permis d’optimiser les
conditions d’analyses des matériaux II-VI par SAT ainsi que de déterminer les conditions d’analyse de
l’interface II-VI/ III-V. Ensuite, nous nous sommes intéressés particulièrement aux compositions
chimiques des interfaces ZnSe/GaAs et ZnTe/InAs. Nous avons simulé le profil de composition à
travers l’interface en se basant sur quatre modèles d’interfaces connus dans la littérature. Ceci a permis
d’interpréter les profils de compositions chimiques unidimensionnels obtenus par SAT. Enfin, nous
avons pu conclure qu’il existe la formation d’un composé Ga2Se3 à l’interface entre ZnSe et GaAs et la
formation d’une interface mixte (Zn, Ga) à l’interface entre ZnTe et InAs (publication acceptée).
Récemment, nous nous sommes intéressés aux boites quantiques CdxZn1-xSe dans ZnSe sur
GaAs. Les échantillons ont été d’abord analysés par micro-photoluminescence (µ-PL) puis par SAT.
L'analyse par photoluminescence de l'ensemble des boites montre l’émission des photons suivant une
gaussienne centrée autour de 2.3 eV avec FWHM=63 meV. L'analyse par µ-PL, qui permet de
sélectionner seulement quelques boites, indique l'émission de raies à différentes énergies. Les mesures
SAT montrent la formation d’un mélange entre CdSe et ZnSe dans la couche CdSe ainsi que la
présence d’inhomogénéités de composition dans la couche CdSe. Ces inhomogénéités concernent
uniquement les éléments Cd et Zn avec des zones riches en Cd (65 ± 4 % at. Cd) et des zones pauvres
en Cd (30±4 % at. Cd). La taille de ces zones riches en Cd est très variable, ce qui pourrait
correspondre à des boites quantiques. La distribution de ces boites est aléatoire dans la couche CdSe.
La formation de ces BQs est due à l’inter-diffusion entre le Cd et Zn au cours du traitement thermique.
Par contre, l’émission à différentes énergies est sans doute liée à la présence de plusieurs tailles de
BQs ainsi qu’à la variation de leurs compositions (publication en cours).
Bibliographies :
[1] P. V. Radovanovi et all, nano lettres, vol.5, no.7 1407-1411 (2005)
[2] L. Besombes et all, Phys. Rev. Lett. 93, 20 (2004)
[3] A. Tribu et all, nano lettres, vol.8, no.12 4326-4329 (2008)
[4] M.K. Miller, ATOM PROBE TOMOGRAPHY, (2000) New york, USA
[5] D. Litvinov et all, Journal of Crystal Growth 263, 348-352 (2004)
RESUME
Germano-siliciuration d’alliage métallique à base Ni ultra mince
pour les technologies 20nm et 14nm
Réactions à l’état solide Ni-X/SiGe
Emilie BOURJOT
CIFRE STMicroelectronics/CEA-LETI/IM2NP
Directeur de thèse : Dominique MANGELINCK
IM2NP – Réactivité et Diffusion aux Interfaces
Avenue Escadrille Normandie Niemen
13397 Marseille
Tuteurs : M. GREGOIRE (STMicroelectronics) et F. NEMOUCHI (CEA-LETI)
Pour minimiser les résistances d'accès d'un transistor MOS, la reprise de contact des
sources/drains passe par des réactions à l’état solide entre un alliage métallique et un
semiconducteur.
Les mécanismes de base de ces réactions nécessitent d’être compris afin de maîtriser la
formation et de stabiliser les phases les moins résistives. L’intégration de contacts Si1-xGex
pour les transistors p-MOS de la technologie 20nm FD-SOI – fully depleted silicon on
insulator - [1] impose l’utilisation d’un nouvel alliage à base Ni compatible avec ce
substrat[2][3]. Il doit être capable de retarder voire d’éviter les phénomènes
d’agglomération et de ségrégation du germanium observés dans la littérature[4][5]. Ainsi,
nos recherches porteront sur les mécanismes de formation et sur l’élaboration de films
ultra-minces de germano-siliciures (Ni-X)(SiGe) à l’aide d’un nouvel alliage à base de nickel.
Une étude « matériaux » préliminaire est en cours pour identifier la nature de l’alliage de
nickel. De nombreuses techniques de caractérisation sont utilisées : la diffraction de rayons
X en laboratoire et à l’ESRF pour l’étude de la séquence de formation et l’évolution des
contraintes, la sonde atomique tomographique de l’IM2NP pour déterminer la redistribution
et le rôle des éléments d’alliage[6], la microscopie électronique pour des observations
morphologiques, structurelles et mécaniques, ainsi que des mesures de résistivité quatre
pointes pour l’évaluation des propriétés électriques.
En deuxième lieu, l’optimisation du procédé de germanosiliciuration est requise afin
de diminuer le budget thermique et d’obtenir des germanosiliciures de l’ordre de 14nm
d’épaisseur à l’aide d’un bâti PVD 300mm. Des études « intégration » seront menées en
planaire et en fond de cavité dans des environnements dopés et non dopés. Ainsi, les
éventuels effets de confinement seront mis en évidence à l’aide de réseaux de tranchées à
fort aspect de forme et l’influence des dopants sera abordée. Au niveau des performances
électriques, des structures de test seront dédiées à l’extraction des résistivités de contact[7].
Enfin, l’objectif final sera d’adapter le procédé de germano-siliciuration sur une
chaine de fabrication 20nm FD-SOI à STMicroelectronics et d’optimiser les performances des
transistors.
[1] C. Le Royer, et al. Solid-State Electron. 65-66
(2011) 9-15.
[2] C. Demeurisse, et al. Microelectron.Eng. 84
(2007) 2547-2551.
[3] B. Zhang, et al. Appl. Phys. Lett. 98 (2011)
252101.
[4] T. Jarmar, et al. J. Appl.Phys. 98 (2005) 053507.
[5] S.-L. Zhang, Microelectron. Eng. 70 (2003) 174185
[6] O. Cojocaru-Mirédin, et al. Ultramicroscopy 109
(2009) 797-801.
[7] N. Stavitski, , et al. R.A.M. Wolters, 55 (2008)
1170- 1176.
Electrodeposition and characterization of CoSb 3 thermoelectric thin
films by Electro-Chemical Atomic Layer Epitaxy (ECALE)
CHEN Yuan, RECORD Marie-Christine
IM2NP, Facultédes Sciences et Techniques de Saint-Jérôme - Case 142, 13397 Marseille Cedex 20, France
The growing concern over increasing energy cost and global warming associated with fossil
fuel sources has stimulated the search for cleaner, more sustainable energy sources. Among the
viable technologies, thermoelectric (TE) energy converters have received attention as these
solid-state devices can generate electricity by harvesting waste thermal energy, thereby
improving the efficiency of a system.
Cobalt tri-antimonide and its derivatives are considered to be the most suitable
thermoelectric materials for applications in the range around 600 K. CoSb3 exhibits excellent
electrical transport properties, one of the highest values for hole mobility in a semiconductor due
to a high degree of covalent bonding.
Thermoelectric materials are renewable energy materials that benefit from low
dimensionality. Currently, high quality nanofilms have usually been grown with epitaxy methods,
such as MOCVD, ALE and MBE. For CoSb3 compound, they mean not only complicated
apparatus but also very expensive precursors and some toxic byproducts. Recently, a novel
method named as electrochemical atomic layer epitaxy (ECALE), put forward by Gregory and
Stickney [1], was proposed as an approach for high crystalline and ultrathin film deposition.
ECALE exploits surface limited electrochemical reactions, such as underpotential deposition
(UPD), to form alternate atomic layers of the elements making up a compound. Each deposition
cycle forms a monolayer of the compound, and the number of cycles, which determines the
thickness of the deposit, can be repeated by means of a wholly automated and computerized
system as many times as desired.
However, to our knowledge, the deposition of CoSb3 compound, as an important
thermoelectric material, has not been investigated with ECALE yet. The growth of cobalt
tri-antimonide thin films now is being studied on Au substrate via the equipment of ECALE that
developed by us in this work for the first time. The electrochemical behaviors of Co and Sb on
bare Au, Co on Sb-covered Au, and Sb on Co-covered Au had been studied by cyclic
voltammetry and coulometry. A steady deposition of CoSb3 was attained after negatively stepped
adjusting of underpotential deposition (UPD)
potentials of Co and Sb on Au in the first 40
deposition cycles. X-ray diffraction (XRD) analysis,
EDX quantitative analysis and Fourier transform
infrared spectroscopy (FTIR) analysis was used to
characterize the material obtained by ECALE.
[1] B.W. Gregory, J.L. Stickney, J. Electroanal. Chem. 300 (1991) 543.
Effet des éléments d’addition sur la décomposition
spinodale dans le système fer-chrome : mesures
expérimentales de diffusion et de cinétique
Yann Colignon
IM2NP (Institut Matériaux Microélectronique Nanoscience de Provence)
Directeur de thèse : D. Mangelinck
Co-directeur : P. Maugis
Les futures installations nucléaires nécessiteront des matériaux
résistants notamment au fluage à haute température, ils seront également
soumis à des environnements radiatifs qui génèrent du vieillissement par
dommage balistique et par gonflement des matériaux sous accumulation
de gaz, en particulier de l’hélium. Les alliages fer-chrome renforcés par
dispersions d’oxydes (ODS-Oxide dispersion strengthened), de part leurs
caractéristiques, sont de bons candidats pour ces futures installations, ils
présentent néanmoins certaines complexités dues, en particulier à
l’existence d’une décomposition spinodale aux températures de
fonctionnement des centrales.
L’objectif de ma thèse est d’étudier les cinétiques de décomposition
spinodale du système Fe-Cr seul dans un premier temps puis en présence
des éléments d’addition des aciers ODS (C, O, Y, Ti). Cette étude se fera à
partir d’alliages modèles de composition contrôlée et de d’alliages massifs
de composition connue.
Pour caractériser à l’échelle atomique les cinétiques de décomposition des
alliages, nous utilisons la sonde atomique tomographique (SAT) capable
d’analyser en 3D la composition à l’échelle nanométrique. La SAT
permettra en particulier de quantifier les contributions de diffusion en
volume et aux joints de grains, probable source de contradictions sur les
données actuelles de diffusion. D’autres techniques expérimentales seront
employées comme la spectrométrie de masse des ions secondaires (SIMS)
pour mesurer les coefficients de diffusion des éléments d’additions dans le
Fe-Cr, ainsi que des techniques in situ ; diffraction de rayons X (DRX),
réflectivité des rayons X (RRX), mesure de résistivité, calorimétrie).
Pendant ma première année de thèse, nous avons réalisé des couches
minces d’alliage Fe-Cr de différentes concentrations ainsi que leurs
caractérisations par DRX, RRX et SAT. Nous allons maintenant procéder à
des analyses des échantillons ayant subit des recuits en dedans et en
dehors de la lacune de miscibilité afin d’étudier les différents phénomènes.
Ces études expérimentales se font en lien étroit avec les approches
théoriques en champ moyen autocohérent et en Monte-Carlo développées
par M. Nastar et F. Soisson au CEA/SRMP.
Ni Silicide Nanowires analysis by atom probe tomography
Mike El Kousseifi
IM2NP, Aix Marseille Université-CNRS, Faculté de saint Jérôme, 13397 Marseille, France
Dominique Mangelinck
Over the past few years, several applications based on nanowires have emerged in
different fields such as electronics, energy (photovoltaic), optics, biology…[1]. Si nanowire
is considered as one of the promising candidates for further extending the device downsizing,
owing to its gate-all-around structure which enables better gate control capability than planar
transistors [2]. Commonly, metal silicides have been widely used as self-aligned silicide
(salicide) contacts on source, drain and polycrystalline silicon gate regions of CMOS devices
to reduce contact resistance [3]. Recently, silicide nanowires have been proposed for contact
and interconnection by selective transformation of silicon nanowires into Ni silicide
nanowires in MOS-FET transistors application [4].
Up to now several studies were performed on Ni silicide as contacts in thin film, for
their integration in volume production of integrated electronic circuits [5]. The integration of
nanowires and Ni silicide as contacts for these nanowires in the future electronic devices
needs understanding for the mechanisms of silicide formation as well as the detection of
metallic contamination and distribution of dopants in Si nanowires. Thus, a three dimensional
measurement of the distribution of the elements in the nanowire is needed. The development
of new characterization tools and methodologies is necessary given the small size and the
complexity of the nanowires. Atom probe tomography (APT) can be an essential analysis
tool for studying nanowires on the nanometre scale. However the main difficulties are the
delicacy in handling the nanowires and the necessity of having a needle-shaped specimen for
APT analysis.
The aim of this work is to analyse at atomic scale using APT, Si nanowires covered
with a shell of silicide. It relies on the determination of the three dimensional composition of
silicide in Si nanowires and substrate. For this, a new methodology to manipulate the
nanowires with the dual beam focused ions beam (FIB) has been developed. The nanowires
used in this study were phosphorous doped silicon nanowires grown using the Vapour Solid
liquid (VLS) mechanism with a Gold catalyst.
Figure 1: a) SEM image for APT tip, where the silicide nanowire is visible buried in the Ni matrix. b) APT reconstructed
volume shows the intefaces Ni/Silicide/Si, and the phosphorous atoms distribution in the nanowire.
The silicide formation was obtained by annealing the sample at 200°C for 1h. Ni
silicide on the nanowires and on the substrate were then analysed by APT. These analysis
show that δ-Ni2Si is the only phase formed on both Si nanowires and substrate with the same
thickness. These results suggest the same kinetic of Ni silicide formation of δ-Ni2Si phase on
coaxial nanowires and planar substrate. Also Au contamination and P dopant have been
detected. Other results will be presented on Ni silicide formation from axial nanowires.
References:
1. F. Léonard, A. Alec Talin, Nature Nanotechnology 6, 773-783 (2011).
2. S. D. Suk et al., IEDM Tech Dig, 1 (2006).
3. R.Mukai, S.Ozawa and H.Yagi, Thin Solid Film 270, 567 (1995).
4. Yue Wu, Jie Xiang, Chen Yang, Wei Lu & Charles M. Lieber, Nature 430, 61-65 (2004)
5. F. Panciera, K. Hoummada, M. Gregoire, et al, Appl. Phys. Lett. 99, 051911 (2011).
Solidification à trois dimensions simulée par la
méthode du champ de phase
GHMADH Jihene - Doctorante 2ème année - IM2NP - Marseille - France
Directeurs de thèse : Jean-Marc DEBIERRE et Rahma GUÉRIN
Le phénomène étudié est la solidification qui est largement présente dans
notre environnement quotidien, notamment au travers des métaux. Les microstructures de croissance (cellules, dendrites) formées à l’interface liquidesolide entraı̂nent des inhomogéneités dans la composition du matériau. Elles
influent largement sur ses propriétés mécaniques macroscopiques, de manière
quelquefois positive ou parfois désastreuse. La thèse a pour objectif une
étude théorique et numérique de ces microstructures en utilisant la méthode
du champ de phase et s’appuyant sur des études expérimentales réalisées à
l’IM2NP et à l’IRPHE. La méthode du champ de phase est maintenant un
outil de choix pour étudier la solidification dans des situations expérimentales
variées. Elle permet depuis peu de réaliser des calculs numériques quantitatifs pour les systèmes tridimensionnels. Nous utilisons un alliage à base de
succinonitrile, un cristal plastique transparent analogue des métaux.
Déroulement de la thèse
Durant ma deuxième année de thèse, j’ai pu développer un code numérique
de type champ de phase avec préconditionnement qui m’a permis d’étudier
la solidification dirigée dans des lames minces. Cette étude est menée sur
des structures dont l’axe cristallin est désorienté d’un angle Θ0 par rapport
au gradient thermique. Les conséquences sur la direction de croissance et la
morphologie des microstructures sont importantes. La direction de croissance
présente une inclinaison Θ par rapport l’axe cristallin. Celà entraine une dissymétrie de forme, notamment par la présence de branchements développés
sur un flan et un changement de taille en fonction de la vitesse de tirage
imposée. La recherche d’une relation donnant l’évolution de Θ avec la taille
des structures et la vitesse de tirage, nous a amené à considérer une variable combinée qui est le nombre de Péclet. On synthétise simultanément
les dépendances de Θ vis à vis de la vitesse et de la largeur des structures.
Par ailleurs, on a pu comparer nos résultats numériques avec les résultats
expérimentaux ainsi qu’avec la loi d’orientation universelle1 . Nous avons un
accord très satisfaisant entre simulation et expérience.
Une autre instabilité dynamique a été étudiée en se basant sur le diagramme
de stabilité expérimental2 , c’est le mode 2λ − O. C’est un mode d’oscillation
(O) de la largeur et de la hauteur des cellules, doublant la longueur d’onde
(2λ). Chaque cellule est en opposition de phase avec ses voisines. Le cycle
limite obtenu (la variation de la largeur en fonction de la variation de la
hauteur) est très proches des expériences, il reste à tester d’autres vitesses
pour renforcer les résultats obtenus.
1
2
J. Deschamps. Thèse de doctorat, université de provence. 2007.
M. Georgelin. Thèse de doctorat, université de provence. 1997.
1
Fonctionnalisation de nanomatériaux bidimensionnels à base de graphène
Yu-Pu LIN
Directeur de thèse: Jean-Marc THEMLIN
Co-directeur : Younal KSARI
Aix-Marseille université, IM2NP, CNRS UMR 7334, équipe Nanostructuration
Campus St Jérôme, Case 142, 13397 Marseille Cedex 20
Le graphène est un matériau bidimensionnel doté d’exceptionnelles propriétés physiques,
électroniques, thermiques, optiques, et mécaniques [1]. Des applications dans de multiples
domaines sont envisagées, en particulier en électronique où des dispositifs comme des transistors
sont à l’étude. Le développement de ces futurs dispositifs nanoélectroniques est cependant limité
par le fait que le graphène est un matériau très peu réactif et qu’il possède un gap nul. De plus, le
dopage conventionnel n'est pas facilement applicable pour les matériaux bidimensionnels comme
le graphène. L'objectif de cette thèse est de fonctionnaliser le graphène via la création de différents
types de défauts (lacunes, insertion de carbone ou d’hydrogène, substitution d’atomes d’azote ou
de bore), obtenus par implantation ionique à basse et à très basse énergie et par exposition à des
atomes ou radicaux neutres quasi-thermalisés. On espère ainsi fonctionnaliser de façon contrôlable
le graphène déjà formé.
Nous maîtrisons la synthése d’une monocouche ou de multicouches de graphène obtenues par
décomposition thermique du carbure de silicium (SiC) sous ultra-haut-vide et à haute température
(T>1100°C). L’identification du nombre de couches de graphène est réalisée in-situ par l'analyse de
l’évolution des spots de diffraction électronique (LEED) du graphène et la spectroscopie de
photoémission inverse (IPES). Cette technique est très sensible à la structure électronique (bandes
de conduction) d’une seule monocouche de graphène. Par exemple, nous avons montré via la
photoémission inverse que la bande π* du système conjugé de graphène peut visiblement
apparaître (ou disparaitre) avec l’intercalation (réversible) d’hydrogène qui permet d’obtenir une
monocouche de graphène quasi-découplée du substrat.
Nous réalisons le dopage in-situ du graphène à l’aide d’une source hybride à plasma (ECR), qui
permet d’exposer le graphène soit à un flux d’atomes neutres quasi-thermalisés, soit à un flux
d’ions issus d’un gaz précurseur. L’analyse IPES des états π*, qui donnent lieu au cône de Dirac aux
points K de la zone de Brillouin, permet de déduire la position de point du Dirac par rapport au
niveau de Fermi. L’exposition à un flux d’ions azote d’énergie E ≈ 25eV et de dose variable permet
d’abaisser le point de Dirac de 0.1 à 0.7 eV sous EF. Ce dopage de type-n est attribué à des azotes
substitutionnels mis en évidence grâce à la spectroscopie des niveaux de cœur (XPS). A contrario,
l’exposition à un flux d’atomes d’azote quasi-thermalisés n’induit le dopage du graphène qu’en
présence d’une concentration de défauts préexistante.
____________________________________________________
1.
Novoselov, K. S. et al., Science 306, 666–669 (2004).
MONOCOUCHES MOLECULAIRES AUTO-ASSEMBLEES ET NANOPARTICULES
POUR LA CONVERSION PHOTOVOLTAÏQUE
MALYTSKYI Volodymyr
a
Institut Matériaux Microélectronique Nanosciences de Provence, IM2NP - CNRS UMR 7334:
Aix-Marseille Université, site de St Jérôme, av. Escadrille Normandie Niemen, case 142, 13397
Marseille cedex 20, & ISEN-Toulon, Maison des Technologies, Place G. Pompidou, 83000 Toulon.
b
Centre Interdisciplinaire de Nanosciences de Marseille, CINaM – CNRS UMR 7325, 163 avenue de
Luminy, case 913, 13009 Marseille.
Directeur de thèse: Lionel Patronea – Co-directeurs: Jean-Manuel Raimundob, Jean-Jacques Simona
Au cours des dernières décennies, les chromophores organiques « push-pull » (donneurespaceur-accepteur) ont vu leur intérêt grandir en raison de leurs applications potentielles dans
les domaines des transistors à effet de champ, de l'optique non linéaire, des OLEDs, et du
photovoltaïque. Parmi les différents systèmes pi-conjugués connus, les structures basées sur le
thiophène ont conduit à une large variété d'applications en science des matériaux [1, 2] en raison
notamment de la flexibilité de leur synthèse permettant de modifier aisément leurs propriétés
optiques et électrochimiques. En revanche, à ce jour les couches auto-assemblées des
chromophores push-pull sur une surface et leurs applications n’ont pas fait l’objet d’études
approfondies. Pourtant ces structures moléculaires correctement organisées sur une surface [3]
devraient permettre, dans le cadre de la conception de cellules photovoltaïques, d’améliorer
l’interface donneur/accepteur, l’absorption optique, et d’augmenter le volume de la couche
active. C’est dans cette perspective que se place mon sujet de thèse qui envisage aussi la
formation de multicouches organiques [4] et l’insertion de nanoparticules de métaux nobles afin
de bénéficier d’une exaltation de l’excitation photonique par des effets plasmoniques [5].
Durant la première partie de mon travail j’ai développé une synthèse en plusieurs étapes de
nouvelles molécules push-pull prêtes à être auto-assemblées en couches sur une surface (Fig.1).
Fig. 1. Chromophores push-pull synthétisés, avec espaceurs pi-conjugués à base de thiophène.
Les produits obtenus possèdent une forte absorption de lumière et peuvent donc être efficaces
pour le photovoltaïque. En parallèle, les monocouches moléculaires des chromophores ont été
préparées sur surface d’or et étudiées principalement par microscopie à effet tunnel (STM). Dans
la suite de ces travaux, la préparation de monocouches auto-assemblées sera étudiée et les
couches caractérisées (STM, spectroscopie optique,…) pour tous les chromophores synthétisés.
Les matériaux obtenus seront ensuite caractérisés électriquement et optiquement pour évaluer
leur utilisation potentielle dans le domaine de la conversion d’énergie photovoltaïque.
[1]
A. Mishra, P. Bäuerle, Ang. Chem. Int. Ed., 51, (2012) 2020-2067
[2]
Igor F. Perepichka, Dmitrii F. Perepichka, Handbook of Thiophene-Based Materials: Applications in Organic
Electronics and Photonics 2009 © John Wiley & Sons, Ltd.
[3]
T. Hasobe, Phys. Chem. Chem. Phys. 12 (2010) 44
[4]
A. Facchetti, A. Abbotto, L. Beverina, M. E. van der Boom, P. Dutta, G. Evmenenko, G. A. Pagani, T. J. Marks,
Chem. Mater. 15 (2003) 1064
[5]
D. Duche, Ph. Torchio, L. Escoubas, F. Monestier, J.J. Simon, F. Flory, and G. Mathian, Solar Energy Materials
and Solar Cells 93 (2009) 1377
Étude ab initio du mécanisme de détection de molécules en surface
d’oxydes de cuivre CuxO : application capteur de gaz
Ouali Hela
IM2NP (UMR 7334 CNRS) Université Aix-Marseille FST Campus de St. Jérôme Service 152 13397 Marseille Cedex 20 France
Directeur de thèse : Oison Vincent
L’équipe microcapteurs de l’IM2NP développe et caractérise des dispositifs capteurs de gaz à
base d’oxydes métalliques semi-conducteurs afin de réaliser des “ nez électroniques”. Leur but ultime
est l’identification et la mesure des concentrations de certains gaz présents dans l’atmosphère. Les
oxydes utilisés comme couches sensibles peuvent être de type n comme WO 3 ou SnO2 , ou de type p
comme CuαO (α = 1, 2) ou SrTi 1−xFexO2 . Le principe de détection de gaz est lié à la variation de la
résistance du matériau induite par l’adsorption de molécules gazeuses.[1]
Nous présentons ici les résultats des simulations ab initio de la détection de O 3 en surface (111)
de CuO qui est celle observée expérimentalement par diffraction X après recuit et trouvée par le calcul
comme la surface de plus faible énergie. Nos calculs sont effectués à l’aide du code SIESTA [2] basé
sur la DFT dans lequel les électrons de cœur sont traités à l’aide de pseudopotentiels et la fonction
d’onde des électrons de valence est décomposée sur une base de pseudo fonctions d’onde atomiques.
L’approximation standard LDA (ou GGA) du terme d’échange-corrélation est insuffisante pour décrire
les propriétés électroniques du CuO massif. En effet, pour cet isolant de Mott dont les électrons 3d des
Cu sont fortement corrélés, la LDA prédit un matériau conducteur et non magnétique alors que celui-ci
est trouvé expérimentalement semiconducteur avec une bande interdite comprise entre 1,2 et 1,9 eV et
présente un ordre antiférromagnétique sur les atomes de Cu. Un moyen relativement peu coûteux en
terme de temps de calcul pour pallier à l’insuffisance de la LDA est d’inclure un terme de Hubbard (U)
dans l’expression de l’énergie d’échange-corrélation.[3] Les oxydes CuO et Cu 2O présentent une
réponse électrique à l’ozone très similaire. Le mécanisme de détection s’effectue en quatre temps. En
premier temps, la résistance du matériaux sans flux de gaz est mesurée ; en seconde étape le matériau
est soumis à un flux de O3 et la résistance diminue instantanément ; ensuite le flux de O 3 est stoppé et la
résistance retrouve au bout de quelques minutes sa valeur initiale. Nous avons simulé le chemin
réactionnel correspondant suivant lequel la molécule de O 3 s'adsorbe puis se dissocie à la surface pour
finalement aboutir à la désorption d’une molécule de O 2 et à la création d’un adatome de O en surface.
Sous flux de O3 , des molécules sont constamment adsorbées avec une énergie calculée de plus d’un eV
et un transfert de charge vers la molécule de 0,5 électrons. La densité électronique montre que
l’adsorption de O3 induit un décalage du niveau de Fermi vers la bande de valence typique d’un dopage
p, pouvant être relié à la diminution de résistance observée expérimentalement.
[1] A. Labidi, A. Bejaoui, H. Ouali, F. Chaffar-Akkari, A. Hajjaji, M. Gaidi, M. Kanzari, B. Bessaïs,
M. Maaref, Appl. Surf. Sci. 257 (2011) 9941–9945.
[2] P. Ordejón, D. Drabold, M. Grumbach, R. Martins, Phys. Rev. B 53 (1996) R10441–R10444.
[3] S. Dudarev, G. A. Botton, S. Savrasov, C. Humphreys, A. Sutton, Phys. Rev. B 57 (1998) 1505–
1509.
Characterization of dendrite fragment motion by X-ray radiographic observation on
Earth and under microgravity environment
SALLOUM ABOU JAOUDE Georges
Aix-Marseille Univ & CNRS, IM2NP UMR 7334, Campus Saint-Jérome Case 142, 13397
Marseille Cedex 20, France
Thesis supervisors: NGUYEN-THI Henri & REINHART Guillaume
Solidification takes part in the fabrication of almost every metallic material, for that
the understanding of its fundamental mechanisms is crucial for building and developing
cutting edge metals. Gravity has a major impact on solidification and can cause
fragmentation of dendrites and is at the origin of micro and macro segregation (solute
heterogeneities).
A part of my thesis treats the effects of gravity on solidification. In the frame of ESAMAP (Microgravity Application Promotion) project entitled XRMON (In situ X-Ray
MONitoring of advanced metallurgical processes under microgravity and terrestrial
conditions), a microgravity (µg) experiment in the XRMON-GF (Gradient Furnace) setup
was successfully launched in 2012 on board MASER 12 sounding rocket. During this
experiment, in situ and real time observations of the formation of the solidification
microstructures in diffusive conditions were carried out for the first time1,2 by using X-ray
radiography. In addition, two reference experiments with the same control parameters but
in ground-based conditions were performed to enable a direct comparison with the µg
experiment and therefore to enlighten the effects of gravity upon microstructure
formation. In the first reference test, the growth direction was perpendicular to the gravity
vector (i.e. horizontal solidification), while it was parallel and in the opposite direction to
the gravity vector in the second ground-reference test (i.e. upward solidification).
Fragmentation phenomenon was observed during the experiments. For upward
solidification, fragmentations mainly take place in the upper part of the mushy zone. After
their detachments, dendrite fragments are carried away by buoyancy force in the bulk
liquid where they are gradually remelted. In the µg experiment and for horizontal
solidification, this type of fragmentation is not observed. However, a great number of
fragmentations are surprisingly revealed by in situ observation in the deep part of the
mushy zone, when the liquid fraction is very small. Moreover, as soon as they are detached,
the dendrite fragments move toward the “cold” part of the mushy zone, even in the case of
the µg experiment. The observations suggest that fluid flow induced by sample shrinkage
may be at the origin of this fragment motion.
[1] H. Nguyen-Thi et al., J. of Crystal Growth,
http://dx.doi.org/10.1016/j.jcrysgro.2013.03.032
[2] A.G. Murphy et al., J. of Alloys and Compounds,
http://www.sciencedirect.com/science/article/pii/S0925838813009080
Organisation et dynamique lors de l’adhésion de cellules vivantes sur des
substrats contrôlés
Pierre Dillard, CINaM AMU-CNRS, UMR 7325, Campus de Luminy, Case 913, et LAI,
CNRS UMR7333, Inserm UMR 1067, Case 937, 13288 Marseille Cedex 9
Directeurs : Kheya Sengupta (CINaM), Laurent Limozin (LAI)
Les lymphocytes, un sous groupe des leucocytes circulent librement dans le
sang, mais en cas d’infection, d’inflammation ou de lésion, ils forment des jonctions
adhésives spécialisées pour mener à bien leur fonction de recherche et destruction des
pathogènes. Les lymphocytes T sont à la base de la réponse immunitaire adaptative et
remplissent de nombreux rôles tels que la mémoire des pathologies rencontrées, la destruction
de pathogènes…Toutes ces fonctions sont possibles grâce à une structure qui permet la
communication intercellulaire : la synapse immunologique. Cette structure est un assemblage
supramoléculaire de protéines intimement lié à la membrane cellulaire et qui joue un rôle
d’interface de communications entre les différentes cellules engagées dans ce processus. Au
moins deux types de protéines sont redistribués dynamiquement pour permettre l’adhésion des
cellules T : d’une part le récepteur des cellules T qui se liguent de manière très spécifique sur
les antigènes des cellules cibles (des fragments de protéines (peptides) présentés par le
complexe majeur d’histocompatibilité (pMHC)) et d’autre part des protéines d’adhésion de
type intégrine sur la surface des cellules T qui vont se lier à l’ICAM-1 sur la surface des
cellules cibles.
Le principal but de cette thèse est d’observer la dynamique de la formation de la
synapse immunologique de manière contrôlée. Pour cela nous allons être amenés à utiliser des
systèmes hybrides cellules/substrat où la cellule cible est remplacée par une surface contrôlée
présentant des protéines d’intérêt de manière variée (mobile, fixe, sur différentes matrices
chimiques, sous différentes formes…). Deux défis techniques doivent ainsi être surmontés :
un contrôle des propriétés physiques et chimiques du substrat et un développement des
moyens d’observation de la synapse. En ce qui concerne les substrats, cela passe notamment
par une étude de la mobilité des protéines et la cinétique d’assemblage de ces dernières en
structures supramoléculaires mais également par la fabrication de substrats présentant les
protéines sous forme de bouquets nanométriques pouvant interagir spécifiquement avec la
cellule pour former la synapse.
En ce qui concerne les techniques d’observation, nous avons pour objectif de
développer des techniques permettant de caractériser de manière quantitative les substrats et
de mesurer l’interaction des cellules avec ces derniers. Ces techniques seront basées en grande
partie sur la microscopie de contraste interférentiel en réflexion (RICM) pour avoir des
mesures topographiques des domaines d’adhésion mais également sur la fluorescence, en
particulier en réflexion totale interne (TIRF) pour observer la dynamique de formation de la
synapse.
A l’heure actuelle, nous avons réussi à construire de manière reproductible les
substrats précités, à contrôler leur qualité, leur composition et à mesurer de manière
quantitative l’adhérence des cellules et potentiellement leur spécificité. Nous sommes
actuellement dans une étape de caractérisation de la réponse cellulaire en fonction de la
mobilité des ligands, nous faisons également varier la composition et la concentration de ces
molécules ainsi que leur matrice d’adhésion. Nous avons d’ores et déjà pu identifier plusieurs
comportements cellulaires différents en fonction de ces paramètres.
Etude de l’hypersécrétion et de l’activité mucociliaire de l’épithélium
bronchique reconstitué in vitro : particularité de l’asthme sévère.
KHELLOUFI Mustapha-Kamel
Laboratoire Adhésion et Inflammation, INSERM U1067/CNRS UMR 7333,
Bâtiment TPR2 - Bloc 5, 163 Avenue de Luminy, Case 937,
13288 Marseille Cedex 09
Directeurs de Thèse : Dr Annie Viallat et Pr Pascal Chanez
Les maladies chroniques sévères des bronches affectent des millions
d’Européens. A ces pathologies respiratoires est généralement associée une
hypersécrétion délétère de mucus dans les voies respiratoires dont les mécanismes
restent largement inconnus. Le projet est d’étudier les mécanismes impliqués dans la
clairance mucociliaire, dont les anomalies pourraient expliquer l’hypersécrétion de
mucus. Les cycles, la fréquence et la coordination des battements ciliaires
responsable du transport du mucus, ainsi que la composition en mucines et les
propriétés rhéologiques du mucus seront analysés sur les cellules épithéliales saines
et pathologiques, à partir d’un modèle original de reconstitution 3D in vitro de
l’épithélium bronchique de patients, et tel qu’il est observé dans les voies aériennes
humaines. Nous explorerons comment le couplage entre les propriétés rhéologiques
du mucus et la mécanique interne des cils responsables des battements assure ou
empêche un transport efficace du mucus.
Nous aborderons aussi les questions de la relation entre le remodelage des
voies aériennes (l'espace sous-épithélial, la stratification de l'épithélium) et l'activité
spécifique des cellules dendritiques dans l'hypersécrétion.
Nous proposons un test du rôle potentiel inflammatoire de l'épithélium de
l'hypersécrétion dans l'asthme sévère. Pour tester la puissance des marqueurs
inflammatoires sécrétés dans les surnageants de l'expectoration induite ou dans les
surnageants de culture de cellules épithéliales, les sécrétions seront mises en
contact avec des cellules dendritiques confinées dans un environnement qui imite la
membrane basale sous-épithéliale. Cet environnement bio-mimétisme sera constitué
d'un réseau de polymère à base de collagènes et/ou matrigel commercial. La
composition de cette matrice biomimétique peut être modifiée pour sonder le
remodelage bronchique. Nous utilisons pour cela un dispositif microfluidique.
Euclid et l'univers très lointain.
Thésard : Jérémie Chatron
(directeur de thèse : Jean­Gabriel Cuby / co­directeur : Stéphane Basa)
L'objet de ma thèse est de caractériser la période de temps où l'univers était alors très jeune, période où l'univers commençait à peine la ré­ionisation du milieu intergalactique. Nous savons que l’état de l’Univers est passé par trois phases distinctes depuis le Big Bang. Initialement ionisé sous la forme d’un plasma d’hydrogène, l’Univers a connu une phase neutre après la recombinaison des atomes d’hydrogène environ 380 000 ans après le Big Bang. Aujourd’hui, sauf en de rares nuages isolés, les atomes d’hydrogène du milieu inter­galactique sont à nouveau tous ionisés. Déterminer quand cette transition de phase eu lieu et quelle est son histoire sont les motivations principales amenant les astronomes à pousser les instruments jusqu’à leurs limites. L’objectif est également d'identifier quelles sont les sources à l’origine du flux de photons nécessaire à la ré­ionisation du milieu intergalactique.
Pour se faire on se sert de très jeunes galaxie (appelées quasar) en tant que sonde. En étudiant le rayonnement de ces quasars on pourra alors caractériser l'environnement qui les entourent.
Il faut donc trouver ces quasars, actuellement nous disposons d'images issues du ‘Large Programme’ accepté au CFHT(Canada­France Hawaï Télescope) pour la recherche de quasars à décalage spectral~7 (soit 12,888 milliards d'année lumière).
Afin de sélectionner des candidats de quasars nous nous basons sur une inspection visuelle et sur des critères de sélection de couleurs pour éliminer des faux candidats (contaminants, naine brune, etc).
Une fois de bons candidats sélectionnés nous pourrons obtenir la spectrométrie de ces objets.
Ces données, ainsi que la littérature existante, permettront d’estimer et/ou de contraindre les fonctions de luminosité des galaxies et quasars très distants ainsi que les effets de contamination, lesquels sont particulièrement importants à prendre en compte pour établir les performance scientifiques d’Euclid pour la recherche et la détection de ces objets.
Pour le futur de ma thèse le travail consistera alors à simuler des catalogues et échantillons d’objets et à les confronter aux performances instrumentales d’Euclid ainsi qu’aux stratégies observationnelles de la mission. Ceci permettra de préciser les spécifications instrumentales et observationnelles optimales de la mission pour la recherche de ces objets, et d’itérer avec ses performances annoncées. Il faudra en particulier étudier le lien, les performances respectives et la complémentarité entre observations photométriques et spectroscopiques, par exemple pour la minimisation des effets de contamination. Ce travail s’inscrit dans le cadre d’une problématique scientifique d’actualité (la ré­ionisation de l’Univers) et sera d’intérêt pour d’autres missions spatiales ou sol de l’astronomie contemporaine. Le travail se fera au sein du consortium Euclid, et plus particulièrement au sein du groupe de travail ‘Primeval galaxies’, dont Jean­Gabriel Cuby est coordinateur.
Large Scale Stucture of the Universe. Halo Occupation
Distibution modeling.
ANNA DURKALEC
Laboratoire d’Astrophysique de Marseille
Technopole de Château-Gombert
38, rue Frédéric Joliot-Curie
13388 MARSEILLE
Directeur de thèse: Olivier le Fèvre
Among all cosmological theories, which try to explain formation and evolution of cosmic structure, the ΛCDM model seem to be in the best agreement with a broad variety of
astrophysical observations. In general, according to this model, the small scale dark matter overdensities (separated from the cosmic expansion) started to grow “hierarchically”
- small haloes collapse first ant then merge to form larger ones. In this scenario barionic
matter assemble via collapse within the dark matter halos and follow this hierarchical
evolution - creating clusters and superclusters of galaxies.
Therefore the key issue and our first aim is to find the relation between luminous and
dark matter components on different epochs. We are going to accomplish it by using data
from spectroscopic surveys such as zCOSMOS (Cosmological Evolution Survey), VUDS
(VIMOS Ultra Deep Survey) and VVDS (VIMOS-VLT Deep Survey).
Recently big contribution to better understanding this problem have halo occupation
models. In this models the bias of given galaxy sample, is specified by the probability
P (N |M ) that a dark matter halo of mass M contains N galaxies - halo occupation
distribution (HOD) formalism. This approach leads to distinguish different description of
galaxy clustering on different scales: one-halo term - depending of complex physics of the
barionic component, governs the behavior of galaxy correlations on small scales (< 2h−1
Mpc) and for larger separations two-halo term - dominated by gravitational clustering of
dark matter component.
To make the HOD model quantitative one needs formula for the abundance, spatial
distribution of halos and typical density run around halo, as well as the average number of
galaxies in halo of a given mass. At this point we have created HOD model which contains
all those components and expressed number of galaxies per halo of a given mass, as the
sum of two terms corresponding to the contribution from central and satellite galaxies.
Formation and evolution of galaxies within halos is influence by many processes such
as accretion, feedback and galaxy mergering. Contribution from each of those processes
on large scale structure evolution is not fully understand. Therefore our second aim is
to modify existing HOD models to find impact of those processes on galaxy correlation
function and describe it in consistent way from high z to present days.
1
Dark matter: N-Body simulations and astroparticles
Nom et prénom: Mollitor Pol
Intitulé et adresse du laboratoire: Laboratoire d'Astrophysique de Marseille
38, rue Frédéric Joliot-Curie 13388 Marseille
Nom du Directeur de thèse: Emmanuel Nezri
Probing the fundamental laws of nature and the understanding of the Universe have always been
existential and evolving questions. In the most popular contemporary vision, the so-called concordance
model, more than 95% of the universe is dark. Among this darkness and provided general relativity
(GR) holds, around 30% behaves like pressureless matter, which has led to assume the existence of a
new (still unknown) type of matter, dubbed "dark matter" (DM), over cosmological scales. Among the
successes of this hypothesis, DM is the main ingredient to sketch a viable theory of structure formation
in the context of GR, and its gravitational effects are manifest over an impressively large part of
astrophysical scales (e.g. galaxy rotation curves; galaxy clusters --- among which clusters in collision
like the Bullet cluster; CMB). On infinitely small scales and apparently disconnected to such
astrophysical issues, despite its very impressive successes, the standard model of elementary particles
fails to address some questions like neutrino mass, hierarchy problem, forces unification. These gaps
have generated wider frameworks and models. It turns out that numerous extensions beyond the
standard model (BSM) generically provide new and stable weakly interacting massive particles
(WIMPs), which yields quite natural candidates to solve the DM issue. On the one hand, the popular
BSM (Beyond Standard Model) dark matter scenarios are typically supersymmetric models, models
with extra dimensions, light dark matter, little Higgs model, inert doublet model or any extensions
providing new WIMP candidates. The question of the dark matter nature generates flurry of activity in
high energy physics model building and phenomenology. In most of models, dark matter particles have
the capability of self annihilation or decay, which is decisive for their detection. Current and near future
instrumental projects could bring important clues to the dark matter enigma. Actually, the detectability
of dark matter depends strongly on both the astrophysical assumptions concerning the dark matter
distribution in the halos and on the evoked high energy physics scenario beyond the standard model.
On the other hand, structure formation and galaxies evolution are very hot topics in astrophysics and
cosmology. The improvement of computing power makes numerical simulations reach unprecedented
levels of precision. Now, numerical simulations are developed to describe large scale structures of
matter in the universe just as the formation and the dynamics of galaxies. Modelling the behaviour of
dark matter by solving the gravity numerically, these simulations yield the most sophisticated and
realistic results for the distribution of dark matter. The simulations of cosmological structure formation
as well as galaxy evolution now include the physics of baryons (hydrodynamics, stellar formation,
feedbacks …) which is determining especially on small, i.e. (sub) galactic, and cluster scales. Some
crucial problems are still debated like the number of satellites in galaxies, the dark matter profile in the
(sub)halo innermost region, the size of the generated disk or the different possible sources of feedback.
During the first part of the PhD thesis, we started to run cosmological simulations with the adaptive
mesh refinement code RAMSES. In particular, we made a movie of a Dark Matter only simulation of a
20 Mpc3 box and identified a Milky-way sized dark matter halo. We also started to include
hydrodynamics in our simulations to study the evolution of gas and stars especially in the selected halo.
By studying different aspects of baryonic physics (stellar formation, SN feedback, cooling ...), we are
going to analyze the impact on the shape of cosmological structures on different scales. We aim to
obtain a disky Milky-Way like galaxy from our cosmological set-up/scenario including baryon physics.
Furthermore, we are willing to link our results to astroparticle physics, i.e we take advantage of all the
relevant informations (like dark matter, gas and star distribution, SN feedback) given by the
simulations to calculate consistently dark matter direct and indirect (gammas, neutrinos, cosmic rays)
detection rates and associated backgrounds in the most realistic and consistent framework provided by
the cosmological simulations.
Recherche, développement et réalisation d’un contrôleur de Fabry-Pérot de
nouvelle génération
OUATTARA Issa
Laboratoire d'Astrophysique de Marseille
38, Rue Frédéric Joliot-Curie
13388 Marseille cedex 13
Directeur de thèse: Philippe AMRAM
L’équipe « Physique des Galaxies» du Laboratoire d’Astrophysique de Marseille
(LAM) a développé un nouveau type d'interféromètre de Fabry-Pérot. Cet instrument de
nouvelle technologie utilise un nouveau type d’actuateur piézo-électrique permettant
d'atteindre des déplacements de quelques microns à quelques 200 microns (les anciens
interféromètres permettant des déplacements de l’ordre de 10 à 20µm) avec une précision
de positionnement de l'ordre du nm.
Les différents espacements entre les plaques de verre permettent à cet
interféromètre d'être utilisé de façon versatile depuis un mode en filtre accordable
(pour atteindre les basses résolutions spectrales et les grands domaines spectraux à
l’aide de faibles espacements) jusqu'aux modes interférométriques à haute résolution
spectrale (lorsque les espacements sont plus grands).
Pour le pilotage de cet interféromètre, un nouveau contrôleur est entrain d’être
développé et réalisé. Pour cela la modélisation des actionneurs piézoélectriques, des
capteurs capacitifs et bien sûr du système complet a été réalisée.
Pour la commande des actionneurs piézoélectriques, des solutions nouvelles sont
entrain d’être trouvées: commande en charge et/ou commande robuste (LQG) en vue de
compenser les phénomènes de non linéarité que sont l’hystérésis et le fluage.
Pour la commande en charge, des amplificateurs haute tension (-20V à 150V) et à
haute dynamique et faible bruit (110 dB), conçus avec des amplificateurs opérationnels
dédiés seront développés.
Ce nouveau contrôleur a l’ambition d’être de faible encombrement, de faible poids, de
forte intégration, de faible consommation électrique et utilisera des composants
nouveaux (DSP, µC, FPGA, …).
Il devra pouvoir compenser automatiquement les variations de température, d’humidité
ou de pression de sorte que le système pourra fonctionner dans des conditions variées
d’utilisation.
Analyse de front d’onde post-coronographique pour l’imagerie à
haut contraste, application sol et espace.
Baptiste Paul
Directeurs de thèse : M. Ferrari - LAM / L. Mugnier - Onera
Encadrants : J.F. Sauvage - Onera / K. Dohlen - LAM
Laboratoire d'Astrophysique de Marseille, Site de l'Etoile Technopole de Château Gombert
38 rue Frédéric Joliot-Curie, 13388 Marseille Cedex 13 – France
L’observation de planètes extrasolaires est rendue difficile par l’énorme contraste entre une
planète et l’étoile autour de laquelle elle gravite (106 à 1010), ainsi que la faible séparation
angulaire entre ces deux corps (0.1’’ à 1’’). Un tel niveau de contraste aussi proche de l’étoile
n’est accessible qu’en supprimant une grande partie du flux en provenance de cette dernière,
sans pour autant diminuer celui en provenance de la planète. Un tel but peut être atteint en
couplant l’imagerie à haute résolution angulaire, garantissant la séparation des deux objets
observés, et la coronographie, qui atténue le flux en provenance de l’étoile. L’utilisation
d’optique adaptative (OA) pour l’observation sol espace est dans ce cadre indispensable, afin
de minimiser les défauts optiques (notamment la turbulence atmosphérique) qui dégrade la
qualité de l’extinction fournie par le coronographe.
Une fois la turbulence atmosphérique corrigée par une OA à hautes performances et
l’essentiel de la lumière stellaire éliminée par le coronographe, les performances ultimes de
l’instrument pour la détection d’exoplanètes sont limitées par les aberrations quasi-statiques
propres à l’instrument. La mesure et compensation de ces aberrations permettraient
d’optimiser l’atténuation de la lumière en provenance de l’étoile d’augmenter encore les
performances de détection.
Dans un système d’optique adaptative classique, le front d’onde aberrant est prélevé par une
lame séparatrice, qui le dirige ainsi dans une voie annexe, dite voie d’analyse. Dès lors, les
performances du système optique sont limitées par les aberrations différentielles présente
entre cette voie d'analyse et la voie d'imagerie. Afin de s'affranchir d'une telle limitation, une
solution possible consiste à estimer les aberrations à partir de données acquises sur le
détecteur scientifique lui-même.
La méthode développée au cours de cette thèse est basée sur la diversité de phase, technique
permettant d'estimer les aberrations entachant le système optique à partir de deux images plan
focal. Afin d'appliquer cette méthode à un système d'imagerie à haut contraste, il a été
nécessaire, dans un premier temps, d'y inclure une modélisation précise du coronographe, qui
rend le système optique notablement plus complexe.
L’analyseur de surface d’onde ainsi développé (baptisé COFFEE (COronagraphic Focal-plane
wave-Front Estimation for Exoplanet detection)) a été dans un premier temps validé pour être
appliqué à un modèle de coronographe particulier, le coronographe de Roddier & Roddier.
Suite à cette étude, nous avons modifié le modèle de formation d'image utilisé par COFFEE
afin de pouvoir utiliser cette méthode avec tout type de coronographes. Cette nouvelle version
de COFFEE, validée par simulation, a été testée avec succès sur l'instrument VLT-SPHERE
lors de sa phase d'intégration finale à Grenoble : l'estimation des aberrations en amont du
coronographe à l'aide de COFFEE a permis d'obtenir, après compensation, un gain notable en
contraste sur le détecteur scientifique.
Une nouvelle méthode de compensation, permettant de minimiser l'énergie présente dans une
zone localisée du détecteur, est actuellement en cours de développement. Il est par ailleurs
prévu d'étudier expérimentalement les performances de COFFEE couplé avec un autre
analyseur de surface d'onde, ZELDA, toujours dans un souci de compensation optimal des
aberrations situées en amont du coronographe.
Herschel view on the formation of Massive Stars
Tigé Jérémy
LAM - Laboratoire d’Astrophysique de Marseille
Pôle de l’Étoile Site de Château-Gombert
38, rue Frédéric Joliot-Curie 13388 Marseille cedex 13 FRANCE
Under the supervision of Delphine Russeil
My thesis goal is to study and understand the earliest phases of the formation of high-mass stars
(Masse > 8 Sun Mass) using the recent Herschel data.
I make use of Herschel maps of NGC6334 and NGC6357, two main star-forming regions located at
1.7kpc in our Galaxy.
I have been doing extraction and SED fitting so far, in order to establish in these regions a catalogue
of infrared-quiet massive dense cores (potential progenitors of massive stars) and estimate their
properties.
My next step is to observe a representative sample of such massive dense cores with high resolution
interferometry (like ALMA) so as to characterise their possible fragmentation and thus maybe
constrain the massive star formation processes.
Premiere phase d'assemblage de la masse dans les galaxies
Pinwei Wang
Laboratoire d'Astrophysique de Marseille
Pôle de l’Étoile Site de ChâteauGombet
38, rue Frédéric JoliotCurie
13388 Marseille cedex 13 FRANCE
Supervisor: Olivier, Le Févre
Galaxy assembly in early universe plays a crucial role for evolution of today galaxy population.
Understanding these various physical properties (color, mass, luminosity, metallicity, Star
formation rate, etc) of galaxy formation in detail and the correlation among them is a great
challenge to our knowledge of modern cosmology. Under this major project, the first stage of my
work is preselecting the very high redshift galaxies (z > 7) with dropout techniques in the
photometric data observed by near infrared telescope (VISTA). Dropout technique is the wellknown traditional method for astronomer to probe objects with nearly complete absorption of the
flux shortward of Lyman Alpha (1216 Angstroms) as a result of the large neutral hydrogen column
density in the Intergalactic Medium (IGM). Based on this ultra deep infrared survey with Vista and
infrared imaging overlapped in the COSMOS (The Cosmological Evolution Survey) field. This
complementary optical and near infrared database can provide us sufficient area and depth to
discover these very distant galaxies more efficiently.
The attached figure is our preliminary result; these 2 high redshift candidates are displayed in 6
different optical (Bvgriz) and 4 near infrared (YJHK) bands. The criteria of our high redshift
galaxies selection here are the magnitude difference in z and J bands which is over 2.5 and these
objects should be undetected in B, V, g, r and i bands. According to our simplified examination,
these images have revealed the significant pattern of high redshift star forming galaxies. Our next
phase will be to identify galaxy populations at 4 < z < 6 to build luminosity functions / mass
functions, and trace evolution at these early times.
B
V
g
r
i
z
Y
J
H
Figure. The images are displayed in 10 different filters. The object in upper
panel shows clear signal in H and K band, and the object in lower panel shows
significance in J band.
K
L'optique et l'astrophysique pour l'imagerie directe des systèmes
planétaires extrasolaires : vers le premiers résultats de SPHERE sur le
VLT.
Zurlo Alice
Laboratoire d`Astrophysique Marseille
Pôle de l’Étoile Site de Château-Gombert
38, rue Frédéric Joliot-Curie
13388 Marseille cedex 13 FRANCE
Moutou Claire/ Gratton Raffaele
Mon travaille de thèse est sur l'instrument SPHERE pour le VLT (Very Large Telescope, ESO
Chili). L'instrument va bientôt commencer ses observations, première lumière prévue au début
2014.
SPHERE est un système d’imagerie à haut contraste et haute résolution angulaire, d’imagerie
polarimétrique et de spectroscopie à basse résolution. Il sera capable d'obtenir l'image
directe de systèmes planétaires jeunes dans le voisinage du Soleil. Mesurer le flux des
planètes avec SPHERE doit permettre de caractériser les compagnons planétaires. Les
objectifs de ma thèse sont la validation scientifique des performances combinées d’IRDIS et
de IFS, la participation à son installation au télescope et une contribution pour l'analyse des
données scientifiques.
Le LAM s’est engagé en 2002 sur le projet SPHERE et a conçu et réalisé l’instrument focal
IRDIS, caméra principale et multi-mode de SPHERE. SPHERE comprend 2 autres instruments
focaux, ZIMPOL et IFS, construits par ETH (Zürich) et l’INAF (Padoue). IRDIS est un
spectro-imageur, permettant d’obtenir l’image à très haut contraste de l’environnement
stellaire des étoiles brillantes et proches
La validation instrumentale des performances des sous-systèmes de SPHERE représentera
un pas en avant considérable vers la caractérisation des planètes. L’optique adaptative
extrême nécessaire a l’objectif scientifique de l’instrument SPHERE est une étape vers les
grands instruments du futur qui équiperont le télescope européen Extremely Large Telescope
(42m) dans une dizaine d’années. Sur le plan des résultats attendus de SPHERE, il s’agit de
connaître la population des planètes extrasolaires dans le voisinage du Soleil et d’étudier
leurs propriétés. Ce programme sera effectué par un consortium européen dont le LAM et
Padoue sont des acteurs majeurs, grâce aux 260 nuits de temps garanti attribuées par l’ESO
pour la construction de SPHERE.
Mon travaille en particulier c'est la caractérisation des planètes a travers la photométrie et
l’astrométrie. Pour cela on préparer des outils que on aidera dans ce domaine et on étude
aussi les erreur liées à l'instrument et au détecteur.
Récemments on a publié un cas de ¨false positive¨ dans le cadre du programme NACO-LP où
une naine blanche a été étiquetée erronément comme une objet sous-stellaire.
Age et époque de formation des Galaxies, Évolution de la constante de Hubble.
Romain THOMAS
Directeur de Thèse : Olivier LeFèvre
Laboratoire d'Astrophysique de Marseille
Pôle de l'étoile Site de Château Gombert
38, rue Frédéric Joliot-Curie
13388 Marseille cedex 13
Depuis maintenant une quinzaine d'année nous savons que l'expansion de l'univers accélère. Pour
expliquer cette accélération nous considérons ce qu'on appelle l'énergie noire, composante inconnue
de l'univers.
Plusieurs modèles théorique peuvent expliquer cette énergie noire, comme le modèle Lambda-CDM
(CDM : Cold Dark Matter), ou l'énergie noire correspond à la constante cosmologique. D'autres
prennent pour représentation une équation d'état de l'énergie noire dépendante du redshift (modèle
de quintessence).
Le but de ma thèse est de déterminer le taux d'expansion de l'Univers (paramètre de Hubble)
lorsque celui ci était plus jeune. Pour cela nous devons déterminer les âges des galaxies. Nous
utilisons deux méthodes pour dater les galaxies :
- La première est la méthode de SED-fitting. Cette méthode consiste à comparer les observations
que l'on a sur une galaxie (photométrie et spectroscopie) à une large bibliothèque de modèles de
galaxies. Pour cette étude j'utilise le Logiciel GOSSIP qui permet de faire 3 fits différents : un fit sur
la spectroscopie seule, un fit sur la photométrie seule ainsi qu'un fit sur le spectre et la photométrie
en même temps. Ayant accès au code source de ce programme j'ai pu ajouté mes propres fonctions
ainsi que corriger certains bugs.
- La deuxième méthode de datation des galaxies consiste à étudier de façon individuelle les indices
présents dans les spectres. Dans le domaine optique nous connaissons beaucoup d'indices (break
D4000, Hdelta....) et il est possible de les relier à l'âge des populations stellaires. Lorsque l'on veut
étudier des galaxies à plus haut redshift (typiquement à partir de z~1.4) le spectre se décale dans
l'UV (nous voulons travailler jusqu’à z~3). Il nous faut donc déterminer, dans l'UV, quels sont les
indices spectraux sensibles à l'âge et tracer leur évolution. Ceci nous permettra de dater les galaxies
à partir d'une mesure des indices sélectionnés.
Ces deux méthodes, indépendantes, seront ensuite comparées. Elles nous permettrons d'en déduire
un échantillon de galaxies dont les âges sont les plus robuste. Cet échantillon nous donnera ensuite
la possibilité de mettre des contraintes sur l'époque de formation des galaxies et sur l'évolution de la
constante de Hubble en fonction du redshift.
De plus, cette étude ,n'est basé sur aucun modèle cosmologique, elle est donc un discriminant entre
les différentes cosmologie.
Ch arac t e ris at io n an d pe rfo rm an c e s o f a glo w dis c h arge as a
s o u rc e o f e le c t ro n s fro m at m o s ph e ric air fo r po rt able m as s
s pe c t ro m e t e r
Ach ou a k Ch a lk h a
ch a lk h a .a ch ou a k @ya h oo.com
E qu ip e In s t ru m en t a t ion d es Pr océd és Ph ys ico -ch im iqu es et Nu cléa ir es ; la b or a toir e LIS A
E A-4 6 7 2 ;
Un iver s it é d ’Aix-Ma r s eille ; Cen t r e d e S a in t J ér ôm e, b â t im en t MADIRE L, Aven u e
E s ca d r ille-Nor m a n d ie-Niem en , 1 3 3 9 7 Ma r s eille Ced ex 2 0 - Fr a n ce
Dir ect ion a n d co-d ir ect ion : Yves ZE RE GA et Au r ik a J ANULYTE
In a p or t a b le m a s s s p ect r om et er ,
con s id er a t ion s s u ch a s , low p ower
con s u m p t ion , h igh p r es s u r e in t h e va cu u m
ch a m b er (u p t o 1 0 -3 t or r ) a n d lon g lifetim e
m u s t b e t a k en in t o a ccou n t . In t h es e
con d ition s , a DC Glow Dis ch a r ge cell with a
cold ca t h od e ca n op era t e a s E lect r on Sou r ce
(GDE S), fu r t h er m or e red u cin g ou t -ga s s in g
p h en om en a com p a r ed t o a h ea t ed fila m en t 1 .
Th e cell con s is t s of a p a r a llel p la n a r ca t h od e
a n d a n od e fixed b y a Teflon s p a cer , b a s ed
u p on t h e d es ign p r op os ed b y Ga o 2 . In
a d d it ion to Ga o’s wor k s , t h e glow d is ch a r ge
r egim e a n d th e r es u ltin g elect ron b ea m a r e
ch a r a ct er is ed wit h a con tin u ou s ly in let flow fr om a t m os p h er ic a ir in or d er t o h a ve a fin e
m et er in g a n d con t rol of t h e elect r on cu r r en t a n d k in et ic en ergy.
GDES is p la ced in a va cu u m ch a m b er . Ga s in let flow fr om a m b ien t r oom p a s s es
t h r ou gh a ca p illa r y a n d en t er s t h e cell b y a cen t r ed ca th od e a p er t u r e. Pr es s u r e in s id e t h e
cell va r ies a r ou n d 1 0 -5 t or r d ep en d in g on ca p illa r y len gth , t o op er a t e a r ou n d Pa s ch en 's
m in im u m . Th e elect r on s exit fr om cen t r ed a n od e a p er t u r e.
A DC s u p p ly a cr os s t h e ca t h od e a n d a n od e m a in t a in s t h e d is ch a rge. Th e va cu u m
ch a m b er wa lls a r e gr ou n d ed . To s t a b ilis e u n d es ir ed d is ch a r ges , a r es is t a n ce is con n ect ed
b et ween a n od e a n d gr ou n d . E lect r on b ea m ch a r a ct er is a tion is p er for m ed b y m ea n s of a
collect ion p la t e loca ted in fr on t of t h e a n od e a p er t u r e p ola r is ed with a DC p ower s u p p ly.
Th e ca t h od e, a n od e a n d p la t e cu r r en t s a r e r ecor d ed a s t h e volt a ges a cr os s a n od e,
ca t h od e a n d p la te.
Th e cu r r en t -volt a ge ch a r a ct er is t ic of t h e d is ch a r ge u n d er a ir flow is m ea s u r ed wit h
a lim it in g-cu r r en t r es is t a n ce in s eries b et ween t h e d is ch a r ge s u p p ly a n d t h e ca th od e in
or d er t o s t a b ilis e th e cu r r en t in t h e glow d is ch a r ge r egim e. E xp er im en t a l d a t a a r e t a k en
s t a r t in g fr om t h e d a r k d is ch a r ge r egion u p to t h e glow d is ch a r ge r egion a t a b ou t 1 -2 m A
of t h e d is ch a r ge cu r r en t . Bot h th e cu r r en t -volt a ge ch a r a cter is tics of t h e glow d is ch a r ge
r egim e a n d Pa s ch en 's cu r ve (b r ea k d own volta ge vs d is t a n ce-p r es s u r e p r od u ct) a r e p lot t ed
for s ix va lu es of t h e GDE S cell p r es s u r e b etween 0 .2 - 1 .4 t or r (a ccor d in g to t h e ca p illa r y
len gt h ). Th e h igh es t va lu es of t h e p r es s u r e lea d t o u n s t a b le r egim e of t h e d is ch a r ge.
Wit h t h e p la t e a t t h e s a m e p ot en t ia l va lu e t h a n t h e a n od e, t h e p ower of t h e
d is ch a r ge s u s t a in in g s u p p ly is p lot t ed vs t h e elect ron b ea m cu r r en t collected b y th e
p la t e. Th e lowes t va lu es of t h e GDE S p r es s u r e lea d t o a p oor em is s ion efficien cy, t h e
la t t er in cr ea s in g with t h e p r es s u r e. In con s equ en ce, op er a t in g con d it ion s of d is ch a r ge a r e
ch os en on th e r igh t of Pa s ch en 's cu r ve m in im u m a n d with lower p ot en t ia l va lu es of t h e
d is ch a r ge s u s t a in in g s u p p ly. E m is s ion efficien cy ob t a in ed is ca 0 .0 3 µ A/ m W.
Th e d is t r ib u t ion of elect r on k in et ic en er gy is es t im a t ed b y va r yin g th e p ola r is a tio n
of p ot en t ia l a p p lied a cr os s t h e a n od e a n d t h e collect ion p la t e. Th e elect r on k in et ic en ergy
r a n ges fr om zer o s om e t en s of eV.
By con t r ollin g t h e em is s ion cu r r en t a n d en ergy k in etic of elect ron s , ion is a tion efficien cy
of s elect ed m olecu les ca n b e in cr ea s ed .
1
2
R. A. Dugdale, J. T. Maskrey, S. D. Ford, P. R. Harmer, and R. E. Lee, Journal of Materials Science 4 (1969) 323-335.
Gao, Q. Song, R. J. Noll, J. Duncan, R. G. Cooks, and Z. Ouyang, Journal of Mass Spectrometry 42 (2007) 675-680.
INSTRUMENTATION ET MESURE EN LIGNE DU RELÂCHEMENT DE PRODUITS DE
FISSION GAZEUX PAR SPECTROMÉTRIE DE MASSE EN LABORATOIRE RADIOCHIMIE.
Elodie GUIGUES
[email protected]
Directeur et co-directrice : Yves ZEREGA, Aurika JANULYTE
Co-encadrant : Yves PONTILLON (CEA)
Aix Marseille Univ (AMU), LISA EA4672, équipe IPCN (Instrumentation des procédés
Physico Chimiques et Nucléaires).
Avenue Escadrille Normandie-Niemen, Bâtiment MADIREL, 13397 Marseille Cedex 20.
Le travail présenté est exécuté dans le cadre d'un programme de recherche commun
entre le CEA de Cadarache et Aix Marseille Université. Le but est de développer un
spectromètre de masse qui sera implanté en ligne en sortie de l'installation MERARG
(Moyen de Recuit.....) de Cadarache. L'installation MERARG est consacrée à l'étude de
mesure de relâchement de gaz de fission des combustibles nucléaires (H2, He, Kr, Xe). Le
spectromètre de masse va permettre de mesurer les cinétiques de relâchement des gaz
de fission afin d'avoir une meilleure compréhension de la dynamique de relâchement de
gaz de fission du combustible lors de transitoires thermiques (situation accidentelle ou
incidentelle).
Selon le procédé MERARG, le spectromètre doit remplir les conditions suivantes:
• L'échantillonnage des gaz à 1-2 bars
• L’analyse en ligne à savoir les mesures de cinétique en temps réel
• La détection de faibles concentrations (ppm) dans un gaz porteur argon, pour les
isotopes du krypton et du xénon ainsi que les masses 2 et 4 u.
Le dispositif d'échantillonnage a pour but d'induire une chute de pression entre la ligne
de balayage de MERARG et le spectromètre de masse. Il est composé d'un dispositif
d'échantillonnage en deux étapes comprenant une entrée par fuite capillaire puis par
fuite moléculaire associées à un dispositif de pompage à deux étages. Les pertes de
charge, la conductance et les débits sont estimés à la fois pour le fonctionnement du
spectromètre de masse et pour la récupération de gaz d'échappement car radioactif. La
ségrégation en masse introduite par ce dispositif est aussi envisagée afin de répondre au
mieux aux mesures de concentration entre les masses 2 et 150 u.
Les étapes de qualification du spectromètre de masse sont actuellement menées, elles
son réalisées avec une bouteille de gaz étalon contenant chacune des espèces
recherchées, à différentes concentrations dans un gaz porteur d'argon.
Cette étape est essentiellement consacrée à l'étalonnage en masse, la résolution en
masse et la quantification sur différentes gammes de masse afin d'estimer les seuils
limites des concentrations mesurables par le dispositif.
Analyse du lait en poudre par Spectroscopie du plasma
induit par laser.
Hammami Afef
[email protected]
1
2
Aix-Marseille Université, CNRS, Laboratoire LP3 et Université de Tunis El Manar-Laboratoire LSAMA
1
2
Directeurs de Thèse : Jörg Hermann et Souad Lahmar
L'analyse de la composition chimique des aliments est nécessaire pour évaluer les
risques sanitaires [1]. Par rapport aux techniques classiques, la spectroscopie du plasma
induit par laser (LIBS) est prometteuse pour le contrôle des qualités des aliments [2,3], car
elle permet l'analyse rapide d'échantillons.
Figure : Spectre expérimental (en noir) et théorique (en rouge) du plasma produit sur pastille du lait sous
air. Délai d’impulsion 300 ns, porte 100 ns.
Nous rapportons dans ce travail le diagnostic du plasma à la surface du lait de bébé
en poudre. La densité électronique a été déduite de l’élargissement Stark et la température
du plasma a été déterminée à partir des intensités relatives des raies spectrales. Les spectres
expérimentaux ont été comparés à la luminance spectrale calculée pour un plasma uniforme
en équilibre thermodynamique local. Les résultats indiquent une densité d'environ 2.1017cm3
et une température de l'ordre de 13000K. En comparant les températures rotavibrationnelles des spectres moléculaires à la température d'excitation électronique des
atomes, nous avons trouvé des valeurs proches ce qui prouve que nous sommes proches de
l'ETL. En plus des éléments majoritaires C, H, O, K, Mg, Ca et le P, nous avons pu détecter le
Fe comme élément trace. La comparaison du spectre mesuré avec le spectre théorique nous
a également permis d’évaluer des limites de détection. Des travaux sont en cours pour
améliorer la sensibilité de l’analyse.
Références
1. Y. Godwal et al. , Spectrochimica Acta Part B 62 (2007) 1443-1447.
2. Lei WQ, El Haddad J, Motto-Ros V, Gilon-Delepine N, Stankova A, Ma QL, Bai XS, Zheng LJ,
Zeng HP, Yu J, Anal Bioanal Chem (2011) 400:3303-3313.
3. S. Beldjilali, D. Borivent, L. Mercadier, E. Mothe, G. Clair, J. Hermann, Spectrochim. Acta
Part B 65 (2010) 727-733.
FEMTOSECOND LASER SYNTHESIS OF ULTRAPURE NANOMATERIALS FOR
BIOLOGICAL APPLICATIONS
Ksenia MAXIMOVA
Laboratoire Lasers Plasmas et Procédés Photoniques (LP3)
163 avenue de Luminy, case 917
13288 Marseille cedex 9, France
Directeur de thèse : Andrei KABASHIN
In the last years there is an explosive growth of the interest to inorganic nanoparticles as a
contrast agent for biological imaging and as photosensitizers and vectors in therapeutics. We present
a method of ultra-fast laser-assisted synthesis of some promising nanomaterials for biological
applications. Unlike traditional chemical synthetic routes implying the usage of chemicals causing
secondary toxicity and therefore limiting in-vivo application prospects of the nanoparticles, our
laser-based method enables the production of pure nanoparticles, free of surfactants and toxic byproducts. Our approach includes two steps: 1) generation of a raw suspension of micro- and
nanoparticles by either mechanical milling or preliminary ablation of a target; 2) ultra-fast laserinduced fragmentation from the suspended colloids leading to the formation of stable, nonaggregated, low-size dispersed and crystalline nanoparticles. Such approach benefits form 3Dgeometry of laser ablation and allows us to maintain homogeneous conditions throughout the whole
process of nanoclasters formation. Indeed, absence of significant concentration gradients offers us
better control over structural characteristics of produced nanoparticles. In particular, we show the
possibility of tuning the mean size and the thickness of an oxide shell of Si nanoparticles by varying
the initial concentration of microparticles and the amount of dissolved oxygen. We also developed
efficient laser ablation and laser fragmentation method for the synthesis of size-tunable gold NPs
and their further functionalization with polymers and anticancer agents. Due to superior optic
properties as well as high purity and complete biocompatibility of laser-synthesized nanoparticles,
the proposed approach offers efficient and versatile tools for the synthesis of nanomaterials for
biomedical applications.
Fabrication of copolymer-embedded titania nanotubes as a negative electrode for
3D Li-ion microbatteries
Nareerat PLYLAHAN
Laboratoire Lasers, Plasmas et Procédés Photoniques (LP3)
Campus de Luminy, C. 917, 163, avenue de Luminy, 13288 Marseille cedex 9
Director: Thierry DJENIZIAN
Co-director: Philippe KNAUTH
Nowadays, microbatteries are in demand as a power source to drive small devices such as smartcards,
medical implants, sensors, etc. Due to their nanostructure, titania nanotubes (TiO2nt) as a negative
electrode for Li-ion batteries offer good rate capability, capacity and cycling performance 1–4. In order
to fabricate 3D Li-ion microbatteries, conventional liquid electrolytes for Li-ion batteries (e.g. LiPF6)
need to be replaced by solid electrolytes such as polymer electrolytes. In the current work, the
conformal electrodeposition of polymethyl methacrylate with side chain of polyethylene oxide
(PMMA-PEO copolymer) into TiO2nt has been achieved.
Self-organized TiO2nt can be fabricated by anodization of Ti foil in an electrolyte containing fluoride
ion. Pt foil was used as a counter electrode. The electrodeposition of the polymer electrolyte PMMA(PEO)n (n = 3, 5, 12 or 475) was done by cyclic voltammetry in the potential window of -0.25 to
-1.75V vs Ag/AgCl 3M KCl.
Figure 1 shows the copolymer-embedded TiO2nt. The top ends of the nanotubes remain open after the
deposition of the polymer electrolyte. This characteristic facilitates the full fabrication of 3D Li-ion
microbatteries by filling a cathode material such as LiNi0.5Mn1.5O4 inside hollow spaces in the
copolymer-embedded TiO2nt.
(a)
(b)
Figure 1. (a) Top view and (b) cross-sectional view of the copolymer-embedded TiO2nt4
__________________________________________________________________________________________
1.
2.
3.
4.
N. A. Kyeremateng, C. Lebouin, P. Knauth, and T. Djenizian, Electrochimica Acta, 2012, 88, 814–820.
N. A. Kyeremateng, V. Hornebecq, H. Martinez, P. Knauth, and T. Djenizian, Chemphyschem : a European journal of chemical
physics and physical chemistry, 2012, 13, 3707–13.
N. A. Kyeremateng, F. Dumur, P. Knauth, B. Pecquenard, and T. Djenizian, Electrochem. Commun., 2011, 13, 894–897.
N. Plylahan, N. A. Kyeremateng, M. Eyraud, F. Dumur, H. Martinez, L. Santinacci, P. Knauth, and T. Djenizian, Nanoscale Res.
Lett., 2012, 7, 349.
JSED2013 : Journées Scientifiques de l'Ecole Doctorale Physique et Sciences de la Matière
"Abaissement de la dimensionnalité dans des solutions solides Mg2(Si,Sn) :
Impact sur les propriétés de transport électronique calculées par DFT”
Hilal Balout1,2, Pascal Boulet1, Marie-Christine Record2
1- MADIREL, UMR 7246 CNRS - Université Aix-Marseille, av Escadrille
Normandie-Niemen, 13397 Marseille Cedex 20, France
2- IM2NP, UMR 7334 CNRS - Université Aix-Marseille, av Escadrille NormandieNiemen, Case 142, 13397 Marseille Cedex 20, France
Une des voies explorées pour augmenter le facteur de mérite (ZT) d’un matériau
thermoélectrique est l’abaissement de la conductivité thermique soit en introduisant des
défauts dans le matériau, soit en utilisant des matériaux à structures complexes ou des
matériaux cages, ou bien par nano-structuration. Cependant la conductivité thermique et la
conductivité électrique sont liées. Il est donc difficile d’ajuster indépendamment les propriétés
définissant le facteur de mérite. Une autre voie d’investigation est l’abaissement de la
dimensionalité qui rend partiellement indépendantes les propriétés intervenant dans le facteur
de mérite et qui permet, en modifiant la densité d’états électroniques du matériau,
d’augmenter l’effet Seebeck.
L’objectif du travail présenté est de déterminer l’impact de l’abaissement de la dimensionalité
sur les propriétés de transport électronique de solutions solides Mg2(Si,Sn). Nous avons pour
cela réalisé des calculs DFT sur des solutions solides massives à différentes compositions en
étain puis nous avons comparé les résultats de ces calculs à ceux obtenus sur des films minces
de solutions solides présentant également des compositions différentes.
Les calculs DFT ont été effectués avec le programme Quantum Espresso, Les effets
d’échange-corrélation ont été pris en compte en utilisant la fonctionnelle Perdew-BurkeErnzerhof dans l’approximation du gradient généralisé. Un ensemble d’ondes planes a été
utilisé pour développer la fonction d’ondes et le cut-off utilisé pour l'énergie cinétique est de
30 Ry. Les interactions entre les électrons de cœur et les ions et les électrons de valence ont
été modélisées avec des pseudopotentiels ultramous de type Vanderbilt. Les calculs de
propriétés de transport ont été réalisés dans le cadre de la théorie de Boltzmann avec
l'approximation du temps de relaxation constant.
Synthèse de nanocomposites mésoporeux
méso
silice/nanoparticules de nickel
Déborah Fernand*
Laboratoire MADIREL – CNRS UMR 7246
Equipe Séparation et Stockage
tockage de Gaz (S2G)
Aix-Marseille Université, Centre de St Jérôme
F-13397
13397 Marseille Cedex 20 France
Thèse dirigée par: Virginie Hornebecq et Philip Llewellyn
L’objectif de l’étude est d’élaborer un matériau de grande aire spécifique
fonctionnalisé par des nanoparticules de métaux de transition.
transition Dans
ns ce projet, nous
nous sommes plus particulièrement intéressés à l’incorporation de nanoparticules de
nickel. En effet, l’analyse des travaux antérieurs portant sur ce sujet met en évidence
des ambigüités concernant le caractère métallique des particules incorporées.
Dans un premier temps, différentes méthodes de synthèse de particules et
nanoparticules de Ni ont été mises en place. En partant de l’acétate de nickel, d’un
intermédiaire amorphe ou de nanoparticules de NiO, nous avons testé deux méthodes
de réduction : par voie liquide avec de l’hydrazine et par voie gazeuse à l’aide d’un
mélange Ar/H2. Comme les enthalpies d’adsorption de H2 à 77K sur une surface de Ni
métallique et de NiO sont très différentes, nous avons utilisé la calorimétrie
d’adsorption de H2 à 77K dans l’objectif de sonder la surface des poudres
synthétisées. Ainsi, à l’issue de cette première étape, nous avons pu sélectionner les
méthodes de synthèse qui conduisent à l’obtention de Ni métallique. Ces dernières ont
ensuite été appliquées
es pour fonctionnaliser des silices mésoporeuses organisées.
organisée Les
silices mésoporeuses ont été synthétisées par la méthode sol--gel. Puis, les
nanoparticules de nickel ont été incorporées au sein de ces matrices
ces par imprégnation
de l’acétate
tate de Ni suivie de la procédure déterminée précédemment.
précédemment Les matrices
mésoporeuses, avant et après incorporation des nanoparticules de Ni, ont été
caractérisées par des techniques conventionnelles telles que la manométrie
d’adsorption/désorption d’azote à 77K, la microscopie électronique
tronique à transmission
(TEM). La calorimétrie d’adsorption de H2 à 77K, nous a permis de vérifier la
présence d’une surface de Ni métallique.
Le nanocomposite final Ni NPs@Silice obtenu peut être utilisé
utilisé dans différents
domaines scientifiques tels que la catalyse, l’optique, l’électronique, le stockage ou la
séparation de gaz.
*
Contact : [email protected]
[email protected]
DEVELOPPEMENT DE BATTERIES AU LITHIUM TOUT SOLIDE.
KUBANSKA Agnieszka
Equipe INPACT, Laboratoire MADIREL UMR7246,
CNRS-Université d'Aix-Marseille,
13397 Marseille cedex 20.
Directeur de Thèse : Renaud BOUCHET, Co-Directeur : Laurence TORTET
Les batteries au lithium tout solide présentent un grand intérêt pour le développement de systèmes de
stockage de grande densité (volumique) d’énergie et sûrs notamment en raison de leur excellente stabilité
thermique par rapport aux technologies lithium-ions à électrolyte liquide. Cependant, avec l'épaisseur de la
batterie, de fortes limitations cinétiques sont observées, en raison i/ de la relativement faible mobilité des ions
dans les matériaux inorganiques et ii/ de la présence de joints de grains généralement bloquants aux interfaces
solide/solide. De plus au cours de la charge/décharge de la batterie, les matériaux actifs (réservoir de l’énergie)
changent de volume ce qui induit des contraintes mécaniques interfaciales qui provoquent la formation de
micro-fractures très dommageables à la cyclabilité de ces systèmes. L’objectif de ma thèse se situe dans cette
perspective et porte sur la réalisation et la caractérisation de batteries inorganiques monolithiques en utilisant
une méthode de frittage en pleine expansion : le frittage Flash ou Spark Plasma Sintering (SPS). Ce travail
s’inscrit dans le cadre d’une ANR (SOLIBAT), fruit d’une collaboration entre 3 laboratoires ; le LRCS à
Amiens où est réalisée la synthèse des matériaux, le CEMES où est réalisée la mise en forme par SPS et le
Madirel à Marseille, avec également un partenaire industriel, la SAFT.
Le principal objectif scientifique de ma thèse est de trouver des relations, pour des matériaux donnés,
entre la texture des poudres initiales, la microstructure des céramiques obtenues par frittage SPS et les
propriétés électriques (électronique et ionique) ainsi que les performances électrochimiques. Cette approche
science des matériaux apporte une connaissance fondamentale pour l’optimisation de l’ensemble des étapes de
la chaîne qui va de la synthèse des matériaux jusqu’au système. Par exemple la formulation des Électrodes
composites est fondamentale car ce sont de multi-matériaux qui doivent présenter de nombreuses
fonctionnalités: 1) une grande densité d'énergie apportée par une teneur élevée en matière électrochimiquement
active (AM), 2) une bonne percolation électronique (resp. ionique) pour collecter de façon efficace et
homogène dans le volume de l’électrode les électrons (les ions) enfin 3) une bonne tenue mécanique avec des
interfaces MA/Electrolyte stables afin d'assurer la durée de vie des cellules.
Considérant toutes les limitations et exigences notamment celle liée à la stabilité chimique des matériaux au
cours du traitement thermique par SPS, nous avons choisi des phosphates: le Li 1.5Al0.5Ge1.5 (PO 4) 3 (LAG) de
structure NASICON comme électrolyte, le LiMPO4 (avec M=Fe, Co, Mn) comme MA d’électrode positive et le
Li 3 V2 (PO4) 3 (LVP) comme MA à la fois d’électrode positive et négative.
Mon travail jusqu'à présent se décompose en deux parties.
1. Synthèse du LAG et caractérisation : Nous avons mis au point un procédé permettant la synthèse du LAG
en grande quantité (par lots de 20 g) et de façon reproductible, à partir d’un verre de même composition. Des
cristaux de taille sub-micrométrique et de haute pureté chimique sont mis en évidence par MEB et DRX. Leur
taille et leur cristallinité varient en fonction du traitement thermique appliqué sur le verre. Des traitements post
synthèse par broyage sont menés afin de dés agglomérer les poudres et de modifier la chimie de surface pour
diminuer les résistances aux joint de grains. Les poudres ainsi obtenues sont ensuite frittées par SPS puis les
propriétés électriques des céramiques sont caractérisées par spectroscopie d’impédance.
2. Caractérisations électrochimiques de batteries.
A) LVP/LAG/LVP : Dans le but d’optimiser la formulation des cellules LVP/LAG/LVP, nous avons étudié 1/
l’effet de la composition de l’électrode et 2/l’influence de l’épaisseur des électrodes et de l’électrolyte sur les
performances électrochimique des batteries.
B) Nous avons développé un montage permettant d’analyser l’influence de la température jusqu’à 300°C sur
les performances.
C) Des tests sur une nouvelle composition LCP/LAG/LVP : Le but d'utiliser LiCoPO4 est d'augmenter la
tension de la batterie pour améliorer augmenter la densité d'énergie. En effet le LCP présente une tension de
4.9V (vs Li+/Li) contre 3.5 V(Vs Li+Li) pour le LFP et LVP.
Proton conducting membranes for Fuel Cells
Riccardo Narducci 1
1
Università di Roma “Tor Vergata”, Dipartimento di Scienze e Tecnologie Chimiche, Via della
Ricerca Scientifica 1, 00133 Roma, Italy
Prof. ssa Maria Luisa Di Vona1 ; Prof. Philippe Knauth2
2
Universitè d’Aix-Marseille, Madirel UMR 7246, Centre de St Jérome, 13397 Marseille CEDEX
20, France
PhD work is taking place both in the Department of Chemical Science and Technology of the
University of Rome Tor Vergata and at Madirel Laboratory of the Universitè d’Aix-Marseille. Two
kinds of ionomers were used: aromatic and perfluorinated polymers.
Aromatic polymers. At the Department of Chemical Science and Technology were synthesized
SPEEK, SPPSU, SPES ionomers and other aromatic polymers. Ionomers were characterized with
different techniques including 1H and 13C NMR. Casting procedures were carried out with petri dish
or Dr. Blade like apparatus. During the casting procedures heat treatments at different temperatures
and times were carried out to obtain crosslinked materials. Crosslinked membranes were
characterized by measurements of the water uptake at room temperature and 100 °C in liquid water
and by the counter pressure index nc. Kinetics of water uptake were also studied. Potentiometric
titrations were performed to determine the values of the Ion Exchange Capacity. To improve the
elasticity of membranes and to facilitate the hot-pressing procedure, we studied the use of
plasticizers such as naphthalene sulfonate, dimethyl sulfoxide (DMSO) and tributyl phosphate
(TBF). The procedures have also been applied to membranes used in the European Project
LoliPEM, (membranes provided by FumaTech). Perfluorinated polymers. Tests were carried out
heating (annealing) different types on Nafion 1100 using heat treatments from 120 ° C to 180 ° C
for several hours (12-750) or using annealing agents like DMSO and TBF, with a new procedure
which involves the use of little quantities of DMSO at a temperature of 140 ° C for several days (17). This treatment results in a stabilization of membranes, with an increase of stability of
approximately 20 °C. The measurements carried out on these stabilized membranes, by nc and
related nc/T plots, also confirmed with DSC measurements, show an increase in the degree of
crystallinity of the material. For Nafion 1100 were also prepared layered phases and studied their
behavior through nc/T plots.
At the Laboratoire de Chimie Provence (Madirel) of the Aix-Marseille Université I have done both
mechanical tests and conductivity measurements for different membranes including membranes of
LoliPEM project. A particular attention was placed to membranes with plasticizers inside.
Conductivity measurements were obtained by impedance techniques using a Swagelok device at a
temperature of 25 ° C and at 100% of relative humidity. Membranes were previously swelled at 100
° C in liquid water for 24 hours. Different temperatures were tested up to 80 °C. σ/T plots were
elaborated and the memory effect of the material under study was quantified. We tried to minimize
the measurement errors by improving the device provided. The life time and the current at different
temperatures and RH were measured. The mechanical tests were performed on membranes not
swelled in water at room RH (40-50%) and T. In particular we measured Young's modulus,
elongation at break, and maximum stress.
Etude de l’implantation de deutérium dans des composants face au plasma constituants
du Tokamak ITER.
Othmen SAIDI
PIIM Faculté des Sciences de Saint-Jérome, Case 241
Avenue de l'Escadrille Normandie-Niemen
13397 Marseille Cedex 20
Directeur de thèse : Thierry ANGOT
Résumé :
Le projet ITER est destiné à valider scientifiquement et techniquement la fusion
thermonucléaire contrôlée par confinement magnétique. L’un des enjeux majeurs pour ce
tokamak est lié à l’interaction plasma paroi. Lors de l’opération d’Iter des flux importants de
particules vont être libérés du plasma, implantés puis diffusés dans les composants face au
plasma(CFP). Le Tritium, l’un des deux éléments principaux du fuel de la réaction, est un
élément radioactif. Son piégeage dans les parois constitue un problème crucial pour des
raisons de sureté. En effet son inventaire sera très limité. De plus la quantité de fuel piégé
influe fortement sur la densité du plasma de fusion. Il est donc essentiel de connaître la
quantité de tritium piégé dans les CFP et de déterminer les procédés de piégeages dans les
couches déposées et dans les composés métalliques. Différentes techniques sont envisagées au
cours de cette étude, dont nous pouvons citer:
 La spectroscopie par thermo-désorption qui consiste à provoquer la désorption des
molécules adsorbées sur une surface en chauffant celle-ci sous basse pression
 La NRA (Nuclear Reaction Analysis) qui permet de définir le profil de piégeage dans
le matériau
 L’AFM, une technique de microscopie à sonde locale qui permet de visualiser la
topographie d’une surface
La première partie de mon travail de thèse a été consacré à l’amélioration et l’optimisation du
notre dispositif expérimental. La deuxième partie a concerné la caractérisation et la
préparation du substrat, nous avons réussi à développer une procédure de désoxydation des
surfaces de tungstène adapté à notre dispositif expérimental. A l’heure actuelle, nous sommes
dans l’étape de l’étude de la rétention de deutérium dans le tungstène. Nous sommes
intéressés à l’étude de l’effet des faibles fluences allant de 10+18D.m-2 jusqu’à 10+20D.m-2 sur
le mécanisme de la rétention. En plus l’effet du temps d’attente entre l’implantation et
l’analyse de la spectroscopie par thermo-désorption a été étudié. Les dernières expériences
semblent montrer une augmentation de façon linéaire de la rétention en fonction de la fluence.
Il a été observé aussi que la quantité de deutérium pièges diminue considérablement en
augmentant le temps d’attente sous vide. Le processus de la désorption commence même à
température ambiante. Nous pensons que le deutérium implanté diffuse lentement vers la
surface avant peut-être de se recombiner pour désorber. Ceci peut avoir des implications à
court et moyen termes sur le bilan concernant la rétention des matériaux faces au plasma des
parois de réacteurs de fusion.