Summary AUTOMATED ANALYSIS AND VALIDATION OF
Transcription
Summary AUTOMATED ANALYSIS AND VALIDATION OF
Summary AUTOMATED ANALYSIS AND VALIDATION OF EXPERIMENTAL DATA USING BAYESIAN METHODS Irishkin Maxim Institute for magnetic fusion research CEA Cadarache Cadarache, bg 507 13108 St Paul Lez Durance, FRANCE Supervisors: Dr. Peter Beyer (Aix-Marseille), Dr. Frederic Imbeaux (IRFM) The goal of the PhD work is to develop methods for automated analysis and validation of experimental data using Bayesian methods. The work consists of three steps: i) reconstruction of plasma profiles using experimental data (application of Bayesian methods), ii) obtaining theoretical profiles using the METIS code, representing typical expectations and used for data consistency analysis, iii) development of automated methods for comparison and analysis of the profiles. The novelty of the work will be in the third part. The comparison of the experimental data constructed during the step i) and the simulated data obtained in the step ii) shall provide an automated analysis of the shot characteristics, a high level data consistency check, a check whether the shot is normal or has significant deviations with respect to a number of usual scalings or assumptions, i.e. aim at being an expert system reporting elements of physics interest to physicists. At the moment the step i) was performed for the electron and ion densities and temperatures. Theoretical profiles described in the step ii) were obtained from the METIS code. Analysis and comparison was concentrated on the electron density profile. We chose two parameters to compare: a line-average density and a profile peaking factor (ratio of the density in the core (normalised rho is equal to zero) to the average density). Using Bayesian inference probability histograms were constructed for these ratios. On the left graph below you can see, as an example, an electron density profile for the shot 45530, time-slice 21.5 seconds. The profile was constructed based on interferometry and Thomson scattering data. The blue area represents 95% highest probability density (HPD) interval. For this shot METIS profile lays within the reasonable range. On the right hand side there are histograms of peaking factor (upper graph) and average density (lower graph). The doted lines represent 95% HPD and the red lines represent corresponding values from the METIS code. As we may see all the values lay within the reasonable intervals for this particular shot and time slice. At the moment there are 20 shots under analysis to establish sustainable methods for the automated analysis and comparison. Thermo-chemo-mechanical couplings in the ALCYONE fuel code Application to Pellet Cladding Interaction Nom : Baurens Bertrand Laboratoire d’accueil : CEA/DEN/DEC/SESC/LSC - F-13108 Saint-Paul-lez-Durance, France Laboratoire de rattachement : IM2NP – Université Aix Marseille – Avenue Escadrille Normandie Niemen 13397 Marseille Cedex 20 France Directeurs de Thèse : Philippe Maugis (IM2NP), Laurent Trotignon (CEA) Résumé : ALCYONE is the fuel code co-developed by CEA, EDF and AREVA. It performs multidimensional calculations describing the fuel thermo-mechanical behavior in accidental and non accidental situations. The 3D scheme models the hourglassing of a fuel pellet fragment and its contact with the cladding during base irradiation or power ramps. The impact of the pellet geometry (chamfer, dishing) on Pellet Cladding Interaction can thus be taken into account. ANGE is a Gibbs energy minimizer co-developed by CEA and EDF. It models the thermochemical state of irradiated UO2 or MOX fuels. The description of chemical equilibria includes a solid solution model for UO2 and its fission products. The input data are the initial chemical composition of the irradiated fuel obtained from the CESAR code, which calculates its isotopic composition from burn-up by considering the radioactive decay chains. In this work, a description coupling the ALCYONE and ANGE codes of the thermo-chemomechanical behavior of UO2 fuel during power ramps is developed. For each node and time step, a thermochemical calculation is performed by ANGE using the input quantities (temperature, pressure, burnup) given by ALCYONE. The burn-up calculated in ALCYONE gives the fission product distribution in the fuel coming from CESAR quantities estimations. The release of gaseous species like Cesium and Iodine which are of importance for PCI failures are evaluated by considering the value of the Xe gas release fraction in ALCYONE. It is shown that the use of the Xe gas release fraction to the sole gaseous phases calculated by ANGE leads to consistent results with respect to experimental radial profile measurements of Cesium and Iodine in pellets subjected to power ramps with various holding times. Coupled 3D calculations are then presented to illustrate the strong chemo-mechanical couplings that take place in UO2. The kinetics and the localization of Iodine and Cesium releases in a pellet subjected to power ramps are estimated. It is shown that the dishing triggers the gas release due to its impact on the stress field (by reducing the gas pressure). Réduction uide sous-jacente lors de l'évolution cinétique de la turbulence dans le plasma d'ITER Thomas Cartier-Michaud, Responsable CEA : Ph. Ghendrih, Directeur de thèse : Y. Sarazin CEA, IRFM, F-13108 Saint-Paul-lez-Durance, France. Journées de l'Ecole Doctorale, 30-31 mai 2013 Fusion par connement magnétique Avant qu'un jour la production d'électricité par la fusion nucléaire puisse être rentable, de nombreuses barrières technologiques doivent encore être franchies. L'un des points clefs concerne directement l'ecacité des machines utilisées, cela s'exprime par le critère de Lawson. Il détermine les conditions physiques qui doivent être réunies pendant un temps donné pour maintenir les conditions nécessaires à la fusion. Atteindre ce critère impose de conner un plasma susamment dense 20 −3 4 (n ' 10 m ), susamment chaud (T ' 10 eV ) pendant susamment longtemps 24 −3 (τ ' 5s) : nT τ ≥ 10 eV.s.m . Actuellement, des recherches se concentrent sur l'étude du transport turbulent via des simulations numériques dans le but d'améliorer le temps de connement. Comparaison des approches cinétique et uide Un plasma de fusion conné magnétiquement est faiblement collisionnel. En théorie une approche cinétique est donc nécessaire par rapport à une approche uide qui suppose une forte collisionalité. Cependant les fonctions de distributions obtenues restent très proches de maxwelliennes, distributions caractéristiques d'une description uide. Le coût de calcul de codes cinétiques étant largement supérieur aux coûts de codes uides, il est pertinent d'étudier ce faible écart. L'objectif de la thèse est d'une part de caractériser l'écart à la maxwellienne en fonction du temps et en fonction de son rôle dans la dynamique turbulente. D'autre part d'évaluer dans quelle mesure l'évolution de la fonction de distribution peut être caractérisée par une évolution due aux équations de Navier Stokes complétée par une composante dont l'évolution est purement cinétique tout en maintenant une relative séparation entre ces deux contributions. Travaux en cours : code cinétique N espèces Actuellement, mes travaux se concentrent sur l'amélioration d'un code cinétique 4D auquel j'intègre la possibilité d'utiliser N espèces en simultanées. Cette étape permettra de supprimer une hypothèse forte du modèle, l'adiabaticité des élèctrons. Un eort d'optimisation a été entrepris an de supporter les nouvelles contraintes numériques (résolution du maillage 40 fois plus haute dans deux dimensions). La qualité du code est vériée via l'utilisation de la méthode des manufactured solutions an d'étendre la vérication à des régimes non linéaires complexes. EFFET DES PARTICULES RAPIDES SUR LA VITESSE DE ROTATION DU PLASMA DE TOKAMAK SANS INJECTION DE MOMENT ANGULAIRE EXTERIEUR CHOULI Billal CEA Cadarache 13108 Saint-Paul-Lez-Durance Encadrant : SARAZIN Yanick Durant cette première année de thèse, les objectifs suivants ont été atteints: Familiarisation avec le diagnostic et prise en main du logiciel de traitement des données (CXSFIT : code d’analyse spectrale qui permet la reconstitution des profils de rotation toroïdale du plasma). Exploration de la base de données Tore Supra en se concentrant pour cette première année sur l’analyse des chocs avec chauffage à la fréquence hybride basse (LH) pour mettre en évidence l’effet des électrons rapides (électrons suprathermiques) sur la vitesse de rotation toroïdale du plasma. Les principaux résultats obtenus sont résumés ci-après : A faible courant plasma, on observe un incrément de vitesse dans la direction cocourant (direction parallèle au courant plasma). A fort courant plasma, on observe un incrément de vitesse dans la direction contrecourant. L’existence d’un seuil en courant plasma pour lequel l’effet s’inverse (passage d’un effet co-rotation à un effet contre-rotation) a ainsi été mise en évidence. Ces résultats expérimentaux ont été comparés à ceux de C-Mod, JET et EAST où des observations similaires ont été rapportées (en particulier dans C-Mod). En parallèle à ce travail d’analyse de données, une étude théorique a été initiée afin d’expliquer les observations expérimentales. Dans un premier temps, toutes les forces à l’origine de la rotation du plasma en présence de chauffage LH ont été identifiées (un terme lié à l’effet du ripple sur les électrons suprathermiques, un terme source dû à l’injection d’ondes hybrides, un terme de friction néoclassique et un terme lié aux processus turbulents). Dans un second temps, une estimation des ordres de grandeur des différents termes a été faite afin d’évaluer un effet éventuellement dominant. Ces termes ont ensuite été injectés dans l’équation de conservation des moments. La prochaine étape (en cours) consiste à calculer l’incrément de vitesse résultant de la compétition entre ces différents termes, et de donner une prédiction du profil de vitesse résultant. Le changement de tendance observé pour la rotation serait vraisemblablement lié à des processus turbulents (changement des modes turbulents ITG, TEM). Ce point est actuellement en cours d’investigation. « IDENTIFICATION DES PHASES CRISTALLOGRAPHIQUES DANS LA STRUCTURE A HAUT TAUX DE COMBUSTION (HBS). » Giannina Dottavio CEA, DEN/DEC/SA3C/LAMIR 13108 Saint Paul les Durance, France Directeur de thèse : Lionel Desgranges- Encadrant CEA : Yves Pontillon. Plusieurs changements microstructuraux ont lieu dans le combustible nucléaire à base d’oxyde d’uranium (UO2) pendant son fonctionnement en réacteur. Parmi ceux-ci, l’apparition des « structures à haut taux de combustion » (HBS) mérite une attention particulière. Elles consistent en une modification de la microstructure qui a lieu quand le taux de combustion local du système est supérieur à 60 Gwt/j. Cette nouvelle microstructure se caractérise par une forte porosité et une diminution de la taille originale des grains, entrainant des modifications des propriétés du combustible. Une autre caractéristique importante des HBS est la présence d’une quantité significative de lanthanides dans le réseau cristallin d’UO2. Néanmoins, à ce jour, l’influence spécifique de ces lanthanides vis-à-vis de la cristallographie du système n’est pas complètement expliquée. Ainsi, l’objectif principal de cette thèse est l’étude de l’évolution (potentielle) de la structure cristalline des HBS en fonction de la nature et de la concentration des lanthanides qui y sont dissous. Pour ce faire, la méthodologie suivie dans la thèse repose sur trois axes. Le premier axe est consacré à l’étude de matériaux modèles, le second concerne la caractérisation de matériaux irradiés, et le troisième axe, de modélisation thermodynamique, permettra de capitaliser les résultats sur les matériaux modèles pour les extrapoler aux matériaux irradiés. Pour le premier axe, des échantillons modèles d’UO2 non irradié dopé en Nd à différentes concentrations ont été fabriqués pour simuler les HBS car le Nd est le produit de fission le plus abondant parmi les lanthanides formés par fission. Ces échantillons sont caractérisés par Diffraction des Rayons X (DRX) en fonction de leur position dans le diagramme ternaire U-Nd-O qui est définie par trois paramètres : la concentration en Nd, la température, et le potentiel d’oxygène. Des mesures DRX ont été réalisées in situ pendant des traitements thermiques avec des températures allant jusqu’à 1700 °C, sous atmosphère contrôlée. Ces expériences ont permis de détecter la présence d’une lacune de miscibilité dans le diagramme de phase U-Nd-O pour des concentrations massiques en Nd supérieures à 6% massique, une température inférieure à 420 °C et une atmosphère réductrice. Dans le deuxième axe on cherche à savoir si l’équivalent d’une lacune de miscibilité existe pour le combustible irradié (on parle d’un pseudo diagramme de phases U-TC-O où le Nd serait remplacé par TC : le taux de combustion du combustible irradié). Ainsi on veut vérifier si ce domaine biphasé pourrait exister dans les matériaux irradiés en se basant sur un protocole expérimental en laboratoire « chaud » pour l’étude des phases cristallographiques du combustible irradié que nous avons conçu en nous basant sur l’étude du combustible modèle vierge. Ces études sont maintenant en cours de réalisation. Le dernier axe porte sur la modélisation thermodynamique. L’objectif est d’effectuer, grâce à la méthode Calphad, le calcul du diagramme de phase du système ternaire U-Nd-O. Cela permettra de valider les résultats expérimentaux obtenus sur les matériaux modèles, ainsi que de prédire les bornes du domaine biphasé. De plus, cette prédiction nous aidera à déterminer quelles conditions de fonctionnement du combustible en réacteur pourraient conduire à l’apparition d’une lacune de miscibilité dans les HBS. En conclusion, l’hypothèse de l’apparition d’un domaine biphasé pendant l’irradiation apparaît comme une nouvelle perspective originale pour la compréhension des HBS. Etude et optimisation du conditionnement de la chambre à vide des tokamaks avec ou sans champ magnétique toroïdal, application à ITER Thésard: Dmitry Kogut IRFM, CEA Cadarache, 13108 St Paul Lez Durance Directeur de Thèse: Prof. J.M. Layet (PIIM, UMR Aix-Marseille Université/CNRS) Encadrant: D. Douai Wall conditioning of tokamaks is a common tool to control the surface state of the vacuum vessel, to influence fuel - and impurity recycling and to improve fusion plasma performance and reproducibility. However, wall conditioning techniques have to be adapted to the material of the Plasma Facing Components (full metallic walls in JET and ITER), and to operational constraints, such as the permanent presence of an intense magnetic field in future superconducting devices, like ITER or DEMO. Analysis of JET restart and operation with recently installed ILW (ITER-Like Wall) and comparison with CFC wall was carried out. Levels of impurities in the residual gas in JET vacuum vessel, such as oxygen, water or carbon dioxide, were monitored throughout the experimental campaign. The efficiency of the conditioning techniques such as GDC (Glow Discharge Conditioning) and ICWC (Ion Cyclotron Wall Conditioning) for fuel removal in JET was estimated via hydrogen isotopic exchange experiments. D2-ICWC experiment was done using ITER fullfield scenario, identical to those used on JET-CFC. The gas balance results show that comparable amounts of H atoms were removed by D2-ICWC discharges both with CFC and ILW; accessible reservoir was similar to the value found in the GDC experiments and that of dynamic retention in limiter plasmas in ILW. The major difference is that no extra wall retention is present after ICWC with ILW, whereas D retention was about 3 times higher than H removal in JET-CFC. This is a promising result for the control of the isotopic ratio, and hence of the fusion plasma performance, in the future D:T experiments in ITER. In order to study the efficiency of the newly designed ITER GDC system a 2D modeling of glow discharge in collaboration with LAPLACE Laboratoire de Toulouse was carried out. The model includes both thermal and beam-like fast electrons, emitted by ion impact on the chamber walls, acting as a hollow cathode. Benchmarking of the model was performed in the experimental test-bench at IRFM CEA. Comparison of the model and experiment shows the same trends in the negative glow region for the plasma density and temperature. Interaction of Resonant Magnetic Perturbations with plasma flows in tokamaks François ORAIN CEA Cadarache, IRFM, F-13108, St. Paul lez Durance, France Director: Marina BECOULET Edge Localized Modes (ELMs) are magneto-hydrodynamics events that occur in tokamak plasmas in H-mode. They are characterized by periodic relaxations of heat and density through the external transport barrier (ETB, or pedestal). In particular, large “Type-I” ELMs can reach plasma facing components with an energy corresponding to 10% of the pedestal one, and might be harmful in ITER if they are not controlled. A promising method to control ELMs is the application of external Resonant Magnetic Perturbations (RMPs) [1]. In the theory considering plasma equivalent to vacuum, RMPs are supposed to ergodize the edge magnetic field, so as to keep the pedestal pressure gradient under the ELM-triggering threshold [2]. However, at similar “vacuum-like” edge ergodisation [2], the experimentation on the various existing tokamaks yielded diverse results: ELM suppression, ELM mitigation, ELM triggering or no effects were observed [1]. It shows that the plasma response to RMPs must be taken into account to make reliable predictions for ITER. Indeed, external static magnetic perturbations are likely to be screened by the perturbation currents generated on the corresponding resonant surfaces due to the plasma flows [3-4]. A condition of penetration exists, when the electron perpendicular velocity VExB Ve* cancels on the resonant surfaces [3-4]. The interaction of static RMPs with the plasma flows is modeled in toroidal geometry, using the non-linear resistive MHD code JOREK, which includes an X-point and the ScrapeOff-Layer. JOREK has been extended to include two-fluid diamagnetic effects, the neoclassical poloidal viscosity and a source of toroidal rotation, so that realistic plasma flows are described. RMP penetration is studied whilst self-consistently taking into account the effects of these flows and the radial electric field evolution. JOREK simulations are run for JET and MAST experimental parameters and for the ITER standard H-mode scenario. In the JET case, RMP screening by plasma flows is shown to be increased by two main factors: a larger diamagnetic rotation and a lower plasma resistivity. Scanning these factors reveals different penetration regimes, characterized either by magnetic islands rotating with the plasma or by smaller static islands. In the MAST and ITER geometries, an ergodization of the edge is found, characterized by lobe structures near the X-point. These lobes are shortened by plasma rotation, pointing out the screening effect of the rotation. References: [1] R Hawryluk et al. Nucl. Fus 49 (2009)065012 [2] M Fenstermacher et al, 23rd IAEA Conf., Daejon, 2010 [3] E Nardon et al, Nucl Fusion 50 (2010) 034002 [4] M Becoulet, F. Orain et al, Nucl Fusion 52 (2012) [5] G T A Huysmans et al Plasma Phys Control Fusion 51 (2009) 124012 Modélisation des propriétés de transport atomique dans le dioxyde d’uranium par calcul de structure électronique Vathonne Emerson CEA Cadarache DEN/DEC/SESC/LLCC (Laboratoire des Lois de Comportement des Combustibles), bâtiment 352 13108 Saint Paul lez Durance Directeur de thèse : Guy Tréglia Encadrants de thèse (CEA) : Michel Freyss, Marjorie Bertolus Le dioxyde d’uranium est le combustible nucléaire le plus largement utilisé dans le monde pour alimenter les centrales nucléaires. La fission de l’uranium provoque la production d’un grand nombre de produits de fission volatiles, ce qui est un facteur limitant pour l’efficacité du combustible. En effet, la présence de ces produits de fission mène à des changements dans la microstructure et à un gonflement du matériau combustible. Mon travail de thèse a pour but de modéliser par calcul de structure électronique les dégâts d’irradiation dans le combustible nucléaire et de comprendre le comportement des produits de fission dans l’UO2. Ce travail est inclus dans une approche multi-échelle en lien avec les travaux expérimentaux réalisés au Laboratoire de Lois de Comportement des Combustibles. La technique de modélisation utilisée est basée sur la théorie de la fonctionnelle de la densité (DFT) qui permet de décrire la structure électronique des matériaux. Cette technique a fait ses preuves sur un très grand nombre de matériaux, mais il existe certaines limites dans le cas de la modélisation du dioxyde d’uranium car l’UO2 est un isolant de Mott et les électrons de la couche 5f sont fortement localisés et corrélés. D’une part, la DFT standard ne permet pas une bonne prise en compte de la forte corrélation de ces électrons 5f ce qui induit une description de l’UO2 non satisfaisante (en particulier UO2 est trouvé métallique). Pour pallier ce problème la méthode de DFT+U est couramment utilisée pour localiser les électrons par l’ajout d’un terme coulombien de type Hubbard. D’autre part, la DFT dans ses approximations standards ne permet pas de prendre en compte les interactions de van der Waals car ces approximations sont locales ou semi-locales alors que les interactions de van der Waals sont dispersives. Ma thèse est décomposée en deux parties, une partie validation des approximations pour la description de l’UO2 et une partie application pour comprendre le comportement des produits de fission dans l’UO2. Ainsi pour la première partie, une approximation plus sophistiquée, appelée DFT+DMFT (DFT + Dynamical Mean Field Theory), est utilisée afin de mieux décrire les matériaux contenant des électrons fortement corrélés. Les résultats obtenus avec cette méthode sont très prometteurs et vont permettre de valider les résultats obtenus avec la DFT+U. De même, une étude permettant d’estimer la précision de la DFT lors de l’incorporation de gaz rares dans l’UO2 a été menée en utilisant une fonctionnelle de corrélation non-locale. Concernant la partie application, une étude est en cours sur les mécanismes de migration du krypton dans le dioxyde d’uranium. Enfin, des calculs incluant le couplage spin orbite dans l’UO2 sont réalisés afin de montrer son influence sur les énergies de défauts ponctuels. Croissance par MBE des films minces du Ge sur GaAs(001) et sur In0.53Ga0.47As(001) ZRIR Mohammad Ali Centre interdisciplinaire de nanosciences de Marseille- CINaM CINaM-CNRS Campus de Luminy Case 913 13288 Marseille Cedex 9 Directeur de thèse: LE THANH Vinh Les semi-conducteurs du groupe IV constituent les matériaux de base de la microélectronique. Cependant, à cause de leur gap indirect, on a dû faire appel aux semi-conducteurs du groupe III-V ou II-VI pour réaliser des dispositifs optoélectroniques, en particulier ceux permettant l’émission de lumière. Par rapport au Si, le Ge présente une propriété unique : son gap direct se trouve seulement à 0,14 eV au-dessus du gap indirect tandis que dans le cas du Si, cet écart est de 2 eV. Récemment, il a été montré le gap du Ge peut devenir direct si une contrainte en tension supérieure à 1,9 % lui est appliquée, ouvrant ainsi la voie vers la réalisation de dispositifs optoélectroniques parfaitement compatibles avec la technologie microélectronique [1]. L'une des approches expérimentales permettant d’introduire des contraintes en tension dans le Ge consiste à le déposer sur un substrat ayant un paramètre de maille plus grand. Du fait que le paramètre de maille de GaAs est proche de celui de Ge, l’utilisation des couches tampon relaxées d’InxGa1-xAs/GaAs constitue une démarche exploitée par plusieurs équipes [2]. Cependant, au-delà de 20% d'indium, l’utilisation des pseudo-substrats InGaAs/GaAs devient difficile à cause de la présence de dislocations émergentes et de la rugosité de surface. Afin de pouvoir étudier la croissance de Ge dans un système présentant un fort désaccord de paramètre de maille, nous avons utilisé des substrats d'In0.53Ga0.47As déposé sur un substrat d’InP. Du fait que In0.53Ga0.47As et l’InP ont le même paramètre de maille, le système est accordé en paramètre de maille. Ainsi, la couche d’In0.53Ga0.47As ne contient pas de dislocation et la surface est lisse à l’échelle atomique. Le désaccord de paramètre de maille entre le Ge et In0.53Ga0.47As est de 3,7%, ce qui représente probablement la plus grande valeur utilisée jusqu’à présent. Dans un premier temps, nous avons étudié le dépôt de Ge sur GaAs afin d’optimiser les paramètres de croissance. La croissance de Ge a lieu via le mode bidimensionnel dans toute la gamme de température [RT ; 600°C]. C'est sur une surface de GaAs riche en As et reconstruite (2x4) que les films de meilleure qualité cristalline de Ge ont été observés. Nous avons ensuite étudié la croissance de Ge sur une surface d’In0.53Ga0.47As riche en As en fonction de la température de croissance (TC). La croissance de Ge sur In0.53Ga0.47As se fait selon le mode de croissance Stranski-Krastanov. Les analyses par RHEED révèlent que l'épaisseur critique correspondant à la transition du mode de croissance 2D-3D décroit lorsque TC augmente : 3 monocouches (MC) pour un dépôt à température ambiante ou à 300°C tandis, une seule MC à 450°C. Ces résultats ont été confirmés par le microscope STM, avec lequel on peut distinguer divers types de morphologie d’îlots. Des analyses par spectroscopie de Raman, par spectroscopie de photoluminescence (PL) à température ambiante et à basse température sont en cours afin de sonder les niveaux de contraint dans les ilots de Ge, et les effets de confinement en fonction de leur taille. 1. M. El Kurdi, et al. Appl. Phys. Lett. 96, 041909 (2010). 2. Y. Bai, K. E. Lee, C. Cheng, M. L. Lee, and E. A. Fitzgerald, J. Appl. Phys. 104, 084518 (2008). Étude par des approches atomistiques de la fragilisation des gainages nucléaires due à la précipitation des hydrures Alice Dufresnea,b a CINaM, CNRS – Aix-Marseille Université , UMR 7325, Campus de Luminy, 13288 Marseille b IRSN/PSN/SEMIA/LPTM, Cadarache BP3, 13115 St Paul lez Durance Directeurs de thèse : Guy Trégliaa – Fabienne Ribeirob Dans les réacteurs nucléaires, les éléments structurels et les gainages en zircaloy-4 sont situés dans un environnement aqueux à haute température et soumis à une forte irradiation. L’oxydation qui a lieu à la surface conduit à une production d'hydrogène, qui diffuse ensuite dans le zircaloy. Lorsque la concentration de cet hydrogène dans le zircaloy dépasse la limite de solubilité, il précipite sous forme d’hydrure de zirconium, et peut contribuer, notamment en fonction de son orientation, à la fragilisation de la gaine. Il est ainsi primordial pour les études de sûreté de bien comprendre les mécanismes qui gouvernent la précipitation et la remise en solution des hydrures. Même si les hydrures ont été étudiés ces dernières décennies, des contradictions existent dans la littérature, en particulier concernant la nature et la stabilité des phases d'hydrures et la cinétique de transformation. La plupart des études expérimentales sont basées sur des techniques indirectes ou des analyses post-mortem qui ne permettent pas d'obtenir des informations sur les mécanismes et la cinétique de précipitation et remise en solution des hydrures. Jusqu'ici, la modélisation des hydrures à l'échelle atomique est principalement basée sur des approches ab-initio et ne permet pas l'étude de gammes de température réalistes. Le but de cette thèse est de clarifier le diagramme de phase des hydrures de zirconium ainsi que les mécanismes de précipitation/remise en solution et de mieux comprendre et quantifier les corrélations entre contraintes locales dans le métal et précipitation des hydrures. Pour atteindre ces objectifs, nous avons choisi de mettre en œuvre des approches de modélisation atomistique basées sur la description des interactions électroniques via le formalisme de liaisons fortes. La température sera prise en compte au travers d'approches de type Monte-Carlo. Les étapes du travail sont les suivantes. Nous avons tout d'abord obtenu les potentiels interatomiques du modèle de liaisons fortes pour le zirconium par ajustement à des calculs de structure électronique réalisés en DFT. Nous avons ainsi dérivé des intégrales de saut, un terme répulsif et leur loi de dépendance en fonction de la distance. Une validation systématique de ce modèle est en cours par comparaison de nos résultats avec les données disponibles dans la littérature sur les principaux défauts : lacunaires, interstitiels ... Cette méthodologie va maintenant être utilisée pour décrire l'interaction avec l'hydrogène. Enfin, un code Monte-Carlo dans les ensembles canonique et grand-canonique sera développé afin d'étudier le comportement des hydrures en température. Le diagramme de phase sera ainsi clarifié et une étude systématique nous permettra de mieux comprendre la corrélation entre contraintes locales et solubilité des hydrures. Modélisation de diagrammes de phases de nanoalliages : application aux systèmes à tendance à l’ordre. A. Lopes-Biancarelli, sous la direction de C. Mottet CINaM, CNRS, Aix-Marseille Univ., UMR7325,13288, Marseille, France May 3, 2013 Dans le cadre de l’étude de la matière condensée, les nanoalliages occupent une place particulière. Ce sont des nanoparticules d’alliage dont la taille et la composition chimique peuvent influer sur leurs propriétés physico-chimiques. La relation entre structure et propriétés est d’autant plus intéressante que ces systèmes présentent le plus souvent des écarts de propriétés physique et chimque importants par rapport à l’alliage massif. On s’intéressent en particulier aux systèmes présentant une tendance à l’ordre tels que Pd-Au ou Co-Pt. Grains de matière de quelques centaines, voire quelque milliers d’atomes, les nanoalliages présentent d’importantes applications en catalyse par exemple en augmentant la surface de réaction disponible et en permettant la sélectivité chimique dans le cas de Pd-Au. Un autre intérêt est la possibilité de développer des mémoires magnétiques où chaque nanoparticule porte un spin total, permettant ainsi d’augmenter de façon importante les capacités de stockage d’information dans le cas par exemple de Co-Pt. De nombreuses études expérimentales portent sur l’élaboration et la caractérisation de ces nanoalliages, mais elles présentent toute fois des limitations par exemple concernant la caractérisation de la composition chimique et l’ordre de surface. La simulation numérique apporte ainsi un complément indispensable pour la compréhension voir la prédiction des comportements de ces systèmes. Elle est basée sur la méthode Monte Carlo (dans l’ensemble canonique ou semi-grand canonique) en utilisant un modèle énergétiques en liaisons fortes : – sur réseaux rigides, on peut utiliser un modèle d’Ising, TBIM (Tight Binding Ising Model) qui reproduit de façon satisfaisante les effets d’ordres et de ségrégation superficielle, – pour prendre en compte les relaxations atomiques (au-delà du réseau rigide) et les changements de structure (icosaèdriques ou décaédriques), on peut utiliser un potentiel semi-empirique tel que le SMA ( Second Moment Approximation). Ces deux approches nécessitent une paramétrisation dont les ajustements se font soit sur des données expérimentales lorsqu’elles existent soit sur des calculs ab initio. Les simulations Monte Carlo permettent de parcourir le diagramme de phases à température constante dans l’ensemble semi- grand canonique et à concentration constante dans l’ensemble canonique. On définit alors un diagramme de phase de volume en déterminant et caractérisant les phases ordonnées dans le volume ainsi que la température de transition entre les phases ordonnées et désordonnées pour différentes concentrations. Le cas des surfaces permet d’étudier les phénomènes de ségrégation : effet d’alliage (ségrégation de l’espèce majoritaire), effet de taille (différences de paramètre de maille favorisant la ségrégation de l’atome le plus gros) et effet de surface (l’élément ségréguant est alors celui minimisant l’énergie de surface) pour des systèmes simples. 1 Skeletogenesis of the red coral (Corallium rubrum) Perrin Jonathan CINAM-CNRS Campus de Luminy Case 913, 13288 Marseille Cedex 09, France Supervisor: Vielzeuf Daniel Understanding the growth mechanisms of biominerals is a major goal in biomineralogy. The fact that most biominerals display hierarchical organizations makes this task even more complicated. Here we address the question of the skeletogenesis of a precious red coral: Corallium rubrum. The red coral builds two different biomineral structures: an inner skeleton and sclerites. - The skeleton is composed of several crystallographic hierarchical levels and displays a modular organization with long range spatial order. Two distinct regions are present: the medullar region with a complex shape and the annular domain composed of crenulated concentric growth rings. - Sclerites are small grains (80 µm) made of Mg-rich calcite (10-14 % MgCO3) found in the living tissues surrounding the inner skeleton. They are made of submicrometer crystalline units (80 nm) arranged in crystalline fibers and tight concentric layers. Sclerites constituted of similarly oriented crystalline units with only a low degree of misorientation between them can be defined as mesocrystalline structures. The duality of biomineral structures in the red coral raises the question of their genetic relationships. In other words, do sclerites play a role in the construction of the inner skeleton? The tip of the skeleton is made of an aggregation of calcitic sclerites cemented together by a calcitic cement. In this process, the polyps play a major role in confinement, aggregation and cementation of the sclerites. On the other hand, the annular part of the inner skeleton is made of an assembly of wide layers constituted of sub-micrometer calcite crystallites organized in crystalline fibers. The transition of a construction mode to the other (tip to annular) is controlled by the presence of a dense network of gastrodermal canals in the subapical part of the skeleton. This network prevents the aggregation of sclerites in this part of skeleton. Thus the skeletogenesis of the red coral is closely controlled by the spatial configuration of some organs of the colonial organism, such as the polyps and the deep canal network, and its evolution with time. Search for the Higgs boson in the ZH → ννbb̄ decay channel with the ATLAS detector Candidate: Lion ALIO Laboratory: Centre de Physique des Particules de Marseille (CPPM) Director: Laurent Vacavant; Co-director: Yann Coadou In the proton-proton collisions at LHC, the Higgs boson can be produced in 4 ways: gluongluon fusion, associate production with a pair of top quarks, Higgs-strahlung and diboson fusion. The goal of this study is to search for the Higgs boson using the ATLAS detector in the Higgs-strahlung production associated with a Z boson, which decays to neutrinos (identified as missing transverse energy (MET) in detector), and the Higgs boson decays to bb̄. The search for the Higgs in the ZH → ννbb̄ channel has the advantage from high branching ratio since the Z boson decays to 3 families of neutrinos (about 20% of branching ratio). Moreover, in low mass region, the Higgs decays dominantly to bb̄, and the recently discovered Higgs-like particle has mass around 125 GeV, so it’s important to search for the Higgs decays to bb̄ to confirm the nature of the Higgs boson. The search for Higgs boson decaying to bb̄ relies heavily on b-tagging algorithms, which is a procedure to identify the jets as coming from b quarks in the ATLAS detector. Algorithms are used to associate constituents (tracks, particles, etc...) to the jet. The goal of my work is to study the b-tagging performance on the new track-to-jet association algorithm called ghost-association and compare the performance with the standard cone algorithm. The ghostassociation algorithm is another association of tracks to jets based on the part of calorimeter associated to the jets, which can tell the real shape of jets in detector. When some parameters of track selection for ghost-association algorithm are modified, the b-tagging performance of ghostassociation for certain b-tagging algorithms shows improvement over the standard cone one. If we recalibrate those b-tagging algorithms using this modification on ghost-association, this may leads to further improvements in b-tagging performance, and ghost-association algorithm may become the standard track-to-jet association algorithm in ATLAS detector. My current work for the Higgs search is on MET trigger parametrization. In ATLAS detector, trigger is composed of three levels of event selection: level 1, level 2 and event filter. Its purpose is to reduce the rate of output from the initial LHC bunch crossing rate of 40 MHz to about 300 Hz, rejecting largely the multijets processes while keeping a high efficiency for low cross-section physics processes (Higgs processes, supersymmetry, etc...). I’m working on the parametrization of the efficiency of a specific MET trigger which has been used to collect additional data in 2012. Using this trigger we expect to gain in acceptance of the Higgs signal in low MET region (90-120 GeV) and increase the data to be analyzed in the ZH → ννbb̄ analysis. The framework of the trigger parametrization is: first, to calculate the trigger efficiencies for each level on the data and MC samples, then use those trigger efficiencies to obtain the trigger scale factors between the data and MC. Those steps are implemented using the Z → µµ and W → µν data and MC samples, then the results will be applied to other MC samples, especially the Z → νν samples since it is hard to model the Z → νν on data. In the continuing analysis, towards my thesis in fall 2014, I will continue the work on MET, b-tagging and expect that this will help us to see the Higgs decays to bb̄, or put the better limit on the Higgs mass in the ZH → ννbb̄ channel. Searching for neutrino point sources with the ANTARES experiment. Student: Ekaterina Lambard (Gracheva) Supervisors: Dr. Paschal Coyle, Dr. Heide Costantini Laboratory: CPPM – Case 902 – 163 avenue de Luminy – 13288 Marseille Cedex 09 The main subject of my PhD is a search for cosmic sources of neutrinos with the ANTARES high energy neutrino telescope. These could originate from energetic astrophysical sources such as supernova remnants, microquasars, gamma ray bursts, active galactic nuclei etc. ANTARES is a neutrino telescope located in the Mediterranean Sea at the depth of 2475 m, 40 km of the coast from Toulon, France. It is a three-dimensional array of optical modules (OM) organized in 12 vertical lines, each of which has 25 floors comprising 3 OM. An OM is a photomultiplier with necessary electronics contained in a glass sphere. The detection principle is based on the detection of Cherenkov light induced by a passage of a secondary high energy muon originating from the interaction of a neutrino with the matter in the vicinity of the telescope volume. In addition to the Cherenkov photons, there are other sources of photons (40K decay and bioluminescence) which if included in the track fit deteriorate the angular resolution and the number of selected events. The first aim of my thesis is to study reconstruction efficiency as a function of optical background rate (BR) using Monte Carlo. The study is performed for the signal (upgoing neutrinos) and background (misreconstructed downgoing atmospheric muons). Three energy spectra for the signal are studied: atmospheric, extragalactic and that predicted of the supernova remnant RX J1713.7-3946. Currently, reconstruction procedure of ANTARES is performed using all the sample of available runs without consideration of the value of the BR observed during data taking. Also, when performing the track fit, a default value of optical background of 60 kHz is assumed, which can be far from the actual rates (up to 500 kHz). These disadvantages of the standard procedure lead to a wrong idea that after applying quality cuts, the number of selected neutrinos decreases drastically as the BR is increased. However, my work has demonstrated that by introducing quality criteria dependent on the observed BR and adjusting the probability density functions used in the track fit to reflect the observed BR, the performance at high BR can be significantly improved. For example, for atmospheric neutrinos the relative efficiency loss is reduced from 72% to 41%, while for extragalactic neutrinos from 36% to 14%. The new procedure also yields an angular resolution essentially independent of the BR. As during periods with highest BR ~16% of hits are removed by a high rate veto these results demonstrate the robustness of the track reconstruction against optical background variations. Développement de la tomographie couleur intra-vitale basée sur la caméra à pixels hybrides XPAD3 Carine Kronland-Martinet Centre de Physique des Particules de Marseille & Institut de Biologie du Développement Campus de Luminy, case 902, 13288 Marseille cedex 9 Directeur de thèse : Christian Morel (CPPM) ; Co-directeur : Franck Debarbieux (IBDML) La caméra XPAD3 est une caméra de 560 x 960 millions de pixels de 130 x 130 µm2, à comptage de photons développée au CPPM. Chaque pixel a la particularité de posséder sa propre électronique de lecture connectée à un capteur formé d'une diode semi-conductrice en silicium de 500 µm d'épaisseur par l'intermédiaire d'une microbille conductrice. Cette caméra fonctionne en mode de comptage de photons : les photons sont détectés et comptés individuellement. Un seuillage électronique en énergie permet de ne compter que les photons ayant une énergie supérieure à une valeur prédéfinie et réglable. Avec ce mode de fonctionnement, les mesures ne sont alors affectées que par le bruit de Poisson et l'absence de courant noir permet de réaliser des images à basses statistiques, de meilleure qualité que celles obtenues par les détecteurs à intégration de charges pour une même statistique d'intégration. La dose délivrée pendant l'examen peut ainsi être réduite. Dans le cadre du projet PIXSCAN, l'équipe imXgam du CPPM a développé un démonstrateur de micro-tomodensitomètre incorporant la caméra XPAD3 et offrant une résolution spatiale intrinsèque au centre de l'image de 65 µm : le PIXSCAN II. Doté d'une très grande dynamique de comptage, le PIXSCAN II fournit des images intrinsèquement très contrastées que le seuil de déclenchement permet d'optimiser en sélectionnant l’énergie minimum des photons comptés, tout en rejetant les photons diffusés de basse énergie. De façon unique, ce réglage des seuils permet également de réaliser de l'imagerie au Kedge et d'accéder à une version « couleur » de la tomographie X lorsque plusieurs agents de contrastes sont utilisés simultanément. De multiples acquisitions multi-seuillées placées de part et d'autre du K-edge d'agents de contraste spécifiques permettent d’isoler ces agents indépendamment. En effet, alors que la probabilité d'absorption des photons X tend à diminuer avec la dureté des photons, cette probabilité est brusquement augmentée si les photons ont une énergie correspondant à l'énergie de liaison des électrons de la couche K de l'agent de contraste. La valeur de cette transition est caractéristique de l'élément chimique considéré. La localisation de l'agent de contraste est réalisée par analyse différentielle des cartes d'atténuation obtenues pour différentes fenêtre en énergie. Nos mesures montraient qu'un jeu de projections obtenues pour 3 valeurs de seuils différentes permet de séparer après soustraction des images des compartiments contenant respectivement de l'iode ou de l'argent à concentration physiologique. Appliquée à la biologie, cette méthode devrait permettre de visualiser sélectivement la vascularisation mise en évidence par injection intraveineuse en même temps que l'inflammation mise en évidence par la phagocytose de nanoparticules par les macrophages. De telles informations inaccessibles jusqu’à présent, seraient particulièrement utiles dans le cadre du diagnostique et du suivi de tumeurs cérébrales pour lesquelles l'inflammation coïncide avec les phases terminales de la maladie. L'objectif est donc de démontrer en situation préclinique la faisabilité de la tomographie multicouleur basée sur la caméra XPAD3. Pour cela nous avons déjà mis en place un protocole expérimental permettant d'acquérir et d'analyser des images dans différentes fenêtres spectrales sur des souris porteuses d’inflammation et doublement marquées. Le travail de thèse a déjà consisté à développer une méthode de correction des images a posteriori tout en prenant en compte la spécificité de la caméra XPAD3, en optimisant sur fantôme du protocole d'imagerie spectral en termes de rapidité et de sensibilité. Le travail actuel vise la mise au point d'un protocole intra-vital de double marquage de la vascularisation et de l'inflammation et la validation de la méthodologie pour suivre le développement d'un glioblastome et sa modulation pharmacologique. Search for SUSY in leptonical final state with the ATLAS detector Serre Thomas CPPM, Directeur de thèse : Pascal Pralavorio My first year of PhD was devoted to optimizing the electron performance. I developed a method to measure the efficiency of the electron identification with a high precision (uncertainties lower than 1%). Then I validated the electron performance at high pile-up, in view of helping for the Higgs discovery in the H-->ZZ-->4l channel. Since October I work on the search for direct chargino pair production with all 2012 data (20 fb-1). More specifically, I search for chargino decaying to W and LSP giving two opposite sign leptons and missing transverse energy in the final state. WW background is almost indistinguishable from signal and a good understanding is essential. I developed the data driven estimation of ttbar and WW, main standard model backgrounds with an uncertainty close to the one expected of 15%. I now work on estimation of theoretical uncertainties of the WW background. A CONF note has been approved and a paper will follow shortly. Recherche du Boson de Higgs du modèle standard dans son mode de désintégration H → ZZ ∗ → 4l avec le détecteur ATLAS et performance du calorimètre à Argon liquide Tiouchichine Elodie - Centre de physique des particules de Marseille, superviseur: Emmanuel Monnier ATLAS est l’un des quatre détecteurs les plus importants du LHC (Large Hadron Collider), l’accélérateur de particules le plus puissant jamais construit au monde. Le but de ce détecteur est de découvrir et caractériser le boson de Higgs, la dernière pièce manquante du modèle standard, prédit par les professeurs Englert, Brout et Higgs en 1964 pour expliquer comment les particules acquièrent leur masse. J’ai commencé ma thèse en Octobre 2011, à la fin de la première année de prise de données à 7 TeV d’énergie au centre de masse, de collisions proton-proton fournies par le LHC. ATLAS avait déjà enregistré 4.7 f b−1 de données à ce moment là, alors que les expériences du Tevatron ont accumulé 13 f b−1 en 20 ans. Le 4 Juillet 2012, après un an et demi de fonctionnement les expériences ATLAS et CMS annoncent en conférence de presse regroupant les médias du monde entier la découverte d’une particle consistante avec le boson de Higgs. Une telle découverte dans un temps si court a pu se faire grâce à la très bonne performance de plusieurs groupes de ATLAS: la prise des données, la qualité des données, le sytème de déclenchement du détecteur qui prend la décision d’enregistrer les données, la grille de calcul, la reconstruction et l’identification des objets physiques comme les électrons, muons, photons, l’énergie transverse manquante et la performance des groupes d’analyse de physique. Durant la première et deuxième année de ma thèse j’ai pu contribuer à différents aspects de cette longue chaine. Le détecteur ATLAS est un très grand miscroscope regardant le produit de la collision qui se passe en son centre. Il est composé de plusieurs sous détecteurs, par conséquent la qualité des données de ATLAS repose sur chacun de ces derniers. Ma contribution s’est focalisée sur la réduction de l’inefficacité d’utilisation de données due au calorimètre à Argon liquide. Ce dernier est un détecteur qui permet de mesurer l’énergie des particules chargées. En effet lorsqu’une particule chargée le traverse, la particule ionise l’Argon liquide dans lequel baignent des électrodes et des plaques de Plomb soumises à une très haute tension. Le signal électronique provenant de la collecte des charges d’ionisation est ensuite interpreté comme une quantité d’énergie déposée par la particule dans le milieu. Grâce entre autres à des études que j’ai menées visant à étudier des données prises dans des conditions où ces lignes hautes tensions ont subit des court-circuits, il a été possible de récupérer des données non utilisables jusqu’alors pour faire de l’analyse de physique; ce qui représente 2% des données totales collectées par ATLAS. D’autre part je me suis concentrée sur la mesure d’efficacité de recontruction des électrons par le détecteur ATLAS. En effet les analyses de physique utilisent les données collectées par le détecteur mais également des simulations. Afin d’avoir le même comportement des électrons dans les données et les simulations, on doit corriger ces dernières. J’ai mesuré l’ efficacité de reconstruction des électrons dans les données et dans les simulations. Ceci a permis de créer des coefficients à appliquer aux simulations afin de les corriger. Ces corrections sont très importantes dans la suite pour toutes les analyses de physique utilisant les électrons. Ma contribution dans la collaboration ATLAS a été prise en compte dans le groupe d’analyse de la recherche du boson de Higgs. Selon la théorie le boson de Higgs possède plusieurs canaux de désintégration, dont H → ZZ ∗ → 4l celui dans lequel j’ai pu commencer mon travail d’analyse de physique. Ce canal de recherche présente beaucoup d’avantages puisqu’il est possible de reconstruire entièrement son état final. De plus, la signature dans le détecteur ATLAS est très claire, composé de 4 leptons ce qui lui vaut le nom de canal en or. Cependant le nombre de signaux attendus n’est pas très élevé dans les conditions du LHC. Il est donc très important d’avoir sous contrôle le bruit de fond attendu, qui représente tous les processus qui créent dans le détecteur le même état final. Actuellement, je développe une méthode appelée méthode des facteurs de transfert qui permet d’ estimer le bruit de fond réductible. L’avantage de cette méthode est d’être entièrement basée sur les données. Une présentation de l’analyse de recherche du H → ZZ ∗ → 4l contenant les résultats de la méthode que je développe a été présenté pour la première fois à la conférence internationale de physique à hautes énergies de Monriond 2013. Une note publique de ATLAS contenant ces résultats existe désormais. PPM-DOM for KM3NeT calibration and data analysis Yatkin Konstantin C.P.P.M - 163, avenue de Luminy - Case 902 - 13288 Marseille cedex 09 PhD supervisors: Claude Vallée, Damien Dorniс KM3NeT is a future deep-sea research facility that will host a neutrino telescope with a volume of several cubic kilometres installed at the bottom of the Mediterranean Sea. The telescope will search for neutrinos from distant astrophysical sources like gamma ray bursts, supernovae or colliding stars and will give more material for dark matter studies. An array of thousands of photomultipliers (PMTs) will detect the Cherenkov light in the deep sea from charged particles originating from collisions of the neutrinos and the Earth. The facility will also house instruments for Earth and sea sciences for long term and on-line monitoring of the deep sea environment and the sea bottom at depth of several kilometers. PPM-DOM: The KM3NeT Optical Module (DOM), that we are working with (Fig.1), consists of a 17 inch water-tight glass sphere instrumented with 31 3” photomultipliers: 19 PMTs are located in the lower hemisphere and 12 are located in the upper hemisphere. PPM part in its name means “Pre-Production Model”, this object is a prototype to be tested in laboratory and real deep-sea conditions before starting a mass production. My PhD project covers the testing of PPM-DOM features and analysis of the data obtained during the calibration runs at CPPM and in the deep-sea. Fig.1: PPM-DOM external view Current work status: The basic analysis covers the studies of the measured data outputs behavior: for each significant light pulse detected by one of the PPM-DOM PMTs, the light arrival time (time stamp) is measured from the time at which the pulse signal crosses a threshold, and the light intensity is estimated from the duration by which the signal stays above the threshold (ToT measurement). During the calibration runs at CPPM we used two different types of testing setups for lower and upper hemispheres separately. These test setups cannot measure the absolute time difference between a light pulse and the corresponding PMT hit, but give access to the relative time responses of the PMTs to a common light pulse. This allows determining the individual time offsets of the PMTs relative to one of them chosen as a reference, as well as the time resolutions of all individual PMTs. For both cases we apply an external light (laser or LED) on several PMTs to study their response to the light signal. Time offsets of the photomultipliers were measured and their gain calibration was checked. The measurements performed at CPPM have shown that the basic functionalities of the DOM prototype work correctly. We got a lot of experience for the DOM operation, that will help to perform more complicated tests and analysis steps in future. An internal KM3NeT note summarizing all obtained results was produced. The PPM-DOM has been recently deployed in the deep sea in the ANTARES infrastructure. My work will now concentrate on analysing the data obtained in real conditions in order to optimize reconstruction tools for KM3NeT. Dynamique des systèmes avec interaction longue portée interagissants sur des réseaux complexes. De Nigris Sarah Centre de Physique Théorique CPT-UMR 7332 Campus de Luminy, case 907 13288 Marseille Cedex 09 Thèse encadrée par: Xavier Leoncini La première partie de la thèse s’est focalisée sur l’ étude numérique et analytique du passage entre courte et longue portée dans le cadre du modèle XY. On a défini un paramètre γ , qui quantifie le nombre de connections assignées à chaque spin. Ce paramètre permet, grace à sa formulation, de passer de la configuration topologique de chaine unidimensionelle, qui ne présente pas de transition de phase de la magnétisation, à la configuration de couplage complet qui correspond en litérature au modèle HMF et qui montre une transition de phase du deuxième ordre. Notre étude a mis en lumiére l’existence de deux régimes, correspondants aux intervalles γ ≶ 1.5 : le régime à courte portée (γ < 1.5) où le système est équivalent à la chaine unidimensionelle et ne presente pas de coherence globale sous la forme d’une transition de phase. L’autre régime, pour γ > 1.5, montre le même comportement que le modèle HMF avec une transition de phase du deuxième ordre : il s’agit, donc, d’un régime d’interaction à longue portée. De plus, la condition topologique γ = 1.5 entraîne, du point de vue de la thermodynamique, un état dans lequel la magnétisation oscille sans atteindre, lors des nos études numériques, un état stationnaire. Cet état bistable a été ensuite étudié de façon plus détaillée, en particulier en ce qui concerne l’influence de la taille du système sur l’amplitude des fluctuations. Par la suite, on a pris en consideration aussi un autre modele de réseau, le réseau de type Petit Monde (Small-World) et étudié la réponse thermodynamique du modele XY sur cette topologie. Dans ce type de réseaux, on introduit aléatoirement sur les réseaux réguliers précedents des liens longue portée avec probabilité p. En premier volet, on s’est focalisé sur l’interaction entre les paramètres γ et p pour établir le régime topologique du réseau Petit Monde, qui est caracterisé par une courte distance moyenne entre les spins. Concernant le modèle XY sur ces réseaux, on retrouve la transition de phase susmentionnée du modele HMF mais maintenant les paramètres topologiques γ, p affectent quantitativement la transition en changeant l’energie à laquelle elle apparaît. In fine, on a observé un phénomène de saturation qui porte cette energie critique à se stabiliser à εc = 0.75, la valeur du modele HMF. On a donc défini un nouveau paramètre, pM F , qui indique le seuil de probabilité pour que le régime avec εc = 0.75 s’établit et on en a analysé la dependence en fonction de γ. 1 Gravitation et repères conformes d’ordre deux Jordan François, sous la direction de Serge Lazzarini & Thierry Masson. Centre de Physique Théorique (UMR 62007) Une théorie classique de champ est spécifiée par la donnée d’un lagrangien L(φµ , ∂ν φµ ) construit de façon à exhiber des symétries, lesquelles sont réalisées par l’action d’un groupe de Lie G (ou sa version infinitésimale associée, l’algèbre de Lie g) sur les champs φµ et leurs dérivées. La symétrie est R simplement l’invariance de l’action classique S, sous l’action du groupe. On écrit δS = δ Ldxµ =0. L’importance de ces symétries tient essentiellement à deux points. Le premier est lié aux théorèmes de E. Noether (1918) : à toute symétrie correspond une quantité physique conservée. Le second réside dans la découverte 1 qu’une symétrie dite « de jauge locale » suggère l’existence de champs de jauge pouvant décrire adéquatement les champs d’interaction de la matière. R i Lorsque l’action quantique W = −i ln Z, où Z = dφ e h S est l’intégrale de chemin de Feynman, ne jouit plus de la même invariance sous l’action du groupe de symétrie G que son pendant classique, la symétrie est brisée et apparaît ce qu’on nomme une anomalie : δW = G. De riches méthodes algébriques, les cohomologies de l’opérateur BRST 2 , ont été développées dans les années 70 pour déterminer la nature géométrique et algébrique de ces anomalies dans le cadre naturel des théories de jauges : la théorie des espaces fibrés, où les potentiels et champs de jauge sont décrits respectivement par une 1-forme de connexion A et une 2-forme de courbure F sur un espace fibré P . La plupart des anomalies connues ont trouvé un tel traitement algébrique (à la Stora-Zumino) : partant d’un polynôme invariant de jauge Pn (F ), polynôme qui sert à construire le lagrangien, on construit une chaîne d’équations dites « de descentes » contenant, entre autres termes intéressants, l’anomalie. Seule l’anomalie gravitationnelle de Weyl, ou anomalie conforme, échappe à ce shéma. Elle n’a trouvé que récemment 3 un premier traitement purement algébrique. Toutefois le polynôme invariant dont on pourrait extraire l’anomalie n’a jusqu’ici pas été identifié. On propose donc un candidat pour ce polynôme. Le potentiel de jauge de la théorie est décrit par une connexion de Cartan sur le fibré des 2-repères conformes qui contient et étend le fibré des 1-repères de l’approche Einstein-Cartan de la relativité générale en dimension 4. La méthode de transgression a pu être appliquée au polynôme homogène de degré 3 et la dérivation formelle complète de la chaîne d’équations de descente, contenant une forme de Chern-Simons et une anomalie associée, a été menée à bien. Déterminer la façon dont l’anomalie de Weyl peut être extraite demeure une question en cours d’investigation. En marge, cette année aura vu la soumission, dans le cadre d’une collaboration, d’une nouvelle méthode 4 de création d’invariants de jauge à partir de connexions et sections d’une théorie de jauge et reposant sur l’existence d’un champ auxiliaire aux propriétés prescrites. La méthode se distingue clairement d’une transformation de jauge en dépit de leur frappante ressemblance formelle. Ceci ouvrant la voie à certaines réinterprétations d’approches classiques tel le passage du formalisme de premier ordre de la relativité générale (basée sur une connection de Cartan) à celui de second ordre, où telle la brisure spontanée de symétrie du Model Standard. Dans ce dernier cas (plus généralement les cas de groupes produits) elle donne des résultats coincidant avec ceux obtenus par les fameux théorèmes de réductions de fibrés. Enfin la méthode ne repose aucunement sur une fixation de jauge mais semble en mesure de fournir des services semblables, ce qui pourrait se révéler pertinent pour la quantification des champs de Yang-Mills. 1. dont l’origine peut-être retracée jusqu’aux travaux de Weyl de 1918-1919 s’inspirant eux-même de ceux d’Einstein sur la gravitation. 2. Becchi, Rouet, Stora 1974 puis Tuytin 1975. 3. N.Boulanger, « Algebraic classification of Weyl anomalies in arbitrary dimensions », PRL 98, 261302 (2007). 4. C. Fournel, J. François, S.Lazzarini, Th.Masson, « Gauge invariant composite fields out of connections with examples », arXiv :1212.6702v1. Black Hole Thermodynamic and Quantum Properties Ernesto Frodden1,2 and Alejandro Perez1 (advisor) 1 Centre de Physique Théorique, Aix-Marseille Univ, CNRS UMR 6207, France. 2 Departamento de Fı́sica, P. Universidad Católica de Chile. In the 70’s black hole (BH) theoretical studies established that BH behaves as thermodynamics systems. It means they are able to interact with other systems through thermodynamics laws. In particular, geometric quantity variations can be interpreted as a version of the thermodynamic first law δM = κ δA + ΩH δJ + ΦH δQ. 8π The main result was due to S. Hawking [1]. He shows, by using a framework proper to quantum theories, that BHs should radiate thermally as standard black bodies κ . Mixing with a temperature measured at infinity T = 2π this result with the first law we learn, as a by-product, that the analogue of entropy should be proportional to the area of the horizon. Which are the degrees of freedom that explain the entropy of BHs? is the guiding question of this thesis. As the classical description of BHs is extremely simple the answer should comes from a quantum theory of gravity! The aim of this thesis work is to shed some light on this general problem by dealing with it form different perspectives. For instance, at the classical level we proposed a new quasilocal version of first law of BH mechanics [2]. Counting degrees of freedom naturally requires a local perspective, then, a new definition of BHs which rescues local properties called Isolated Horizons (IH) is used [3]. So, using a description of geometry around the horizon and a specific set of local observers defined as the most static and nearest to the IH, we can show that energy-matter interaction with the black hole is wrapped up simply as δE = n s Finally, a last and different approach being part of this thesis is the statistical one: Computation of the BH entropy based on Spin-Network states counting. In particular, we study the possibility of analytical continuation of the Immirzi parameter γ in statistical formulas for the entropy [7]. In spite of many open question, this technique enables us to recover the classical formula for the BH entropy S = 41 A in a simple and general manner. For instance, the same idea can be also applied to the simpler BH solution in three dimensions [8]. κ 8π δA, with κ = 1/` being the local acceleration needed by the observers to maintain their position at distance `. Three ways of deriving this last result from more particular to more general cases are presented in reference [2]. Another related problem we deal with in this thesis is the construction of a quantization model for rotating BH. The Loop Quantum Gravity community has developed direct entropy calculations based in the Spin-Networks structure of spacetime[4] and IHs (see [5] for a recent version). A detailed study of the phase space in the presence of an IH shows the symplectic structure with AshtekarBarbero variables A = Γ + γK is Z Z βκΩ(δ1 , δ2 ) = δ[1 Σi ∧ δ2] Ai + δ[1 ei ∧ δ2] ei . M In the spherically symmetric (i.e. static) IH case the last boundary term has been shown to represent a ChernSimons (CS) theory, thus standard quantization tools are at our disposal. We extended this perspective a step further to the rotating BHs by constructing a new set of variables at the boundary in order to recover a CS theory [6]. One feature of these variables is the natural appearence of classical defects which we represent graphically as special punctures on the axis of symmetry of the horizon. ∂M [1] S. W. Hawking, Commun. Math. Phys. 43 (1975) 199. [2] E. Frodden, A. Ghosh, and A. Pérez, 1110.4055[gr-qc] [3] A. Ashtekar, C. Beetle, et al., Phys.Rev.Lett. 85 (2000) 3564–3567, gr-qc/0006006. [4] C. Rovelli, Phys. Rev. Lett. 77 (1996) 3288–3291, gr-qc/9603063. [5] J. Engle, A. Pérez, and K. Noui, Phys. Rev. Lett. 105 (2010) 031302, 0905.3168[gr-qc]. [6] E. Frodden, A. Pérez, D. Pranzetti and C. Roeken, arXiv:1212.5166 [gr-qc]. [7] E. Frodden, M. Geiller, K. Noui and A. Pérez, arXiv:1212.4060 [gr-qc]. [8] E. Frodden, M. Geiller, K. Noui and A. Pérez, arXiv:1212.4473 [gr-qc]. Amplitudes de transition en gravité quantique à boucles covariante et leurs divergences Aldo Riello sous la direction de Carlo Rovelli Centre de Physique Théorique, UMR 6207, Luminy The loop quantization of General Relativity (Canonical Loop Quantum Gravity) is an attempt to canonically quantize Einstein’s theory with respect to the so-called Ashtekar’s conjugate variables. Such variables (Ashtekar, 1986) are a reparametrization of the phase space of General Relativity essentially in terms of the holonomies of the connection (i.e. of the parallel transport) and of the tetrads fields (i.e. a collection of inertial frames of reference). This formulation allowed to apply general techniques from quantum gauge field theories and make essential progress towards a quantum theory of gravity ; notably a base for the kinematic Hilbert space was found. This base is that of spin networks, which are gauge invariant under local Lorentz and three dimensional space diffeomorphism transformations. The main problem this approach still has to face is that of writing a viable quantized version of the Hamiltonian constraint, necessary in order to canonically implement the dynamic (or, from a complementary point of view, in order to restore four dimensional diffeomorphism invariance). The difficulties arisen by this issue were one of the main reasons for the birth (Reisenberger and Rovelli, 1997) of a covariant version of the quantum theory. This can be understood as a path-integral like, rather than canonical, quantization of General Relativity. In this formulation four dimensional space-time geometry is encoded in quantum superpositions of (quantum) piece-wise-flat geometries ; quite generally these geometries can themselves be interpreted as dual to the Feynman graphs (known as spin foams) of an auxiliary non local quantum field theory built on four copies of the gauge group (Group Field Theory). During the last fifteen years a few models have been proposed to implement dynamics in the form of a viable spin foam vertex amplitude. The most recent of which, the so called EPRL-FK model (2008), is very promising and is giving rise to a number of results (from a derivation of the graviton propagator - Bianchi and Ding 2011 - to the derivation of the Bekenstein-Hawking entropy of black holes through quantum-gravitational arguments - Perez, Gosh, Frodden, Bianchi, etc.). Still, at this point, it is not completely clear how (and even if) it is possible to coherently go beyond a sort of “tree-level” approximation of the EPRL-FK spin-foam transition amplitudes. In this context, I am trying to face exactly this problem, via an analysis of the most simple diverging foam (the so-called “melon graph”, which plays a prominent role in recent GFT studies). The first result is that its divergence is much tamer than expected (Riello, preprint 2013). As a second step toward a deeper understanding of the theory, we are now trying to apply this result to compute “loopy” quantum corrections to the gravitational two point function. 2 Exploring the physics of cosmic acceleration Heinrich Steigerwald Centre de Physique Theorique Campus de Luminy 163 Avenue de Luminy 13009 Marseille Supervisor: Christian Marinoni My thesis focuses on the exploration of the non-standard physics that might explain the recently discovered phenomenon of cosmic acceleration. I’m attacking this issue from three different but complementary angles. First, I have studied a counterexample to the Weyl hypothesis, which states that the cosmological comoving line element must not contain off-diagonal elements. This hypothesis can also be reformulated as the absence of cosmic shear in the background. Interestingly, by deriving the equation of motion of the cosmic metric without implementing this principle, we can clarify the role of the cosmological constant, and therefore of cosmic acceleration, in a cosmological context. Specifically, we find that a fluid with equation of state w=-1 is not an ad hoc assumption of current theories but it is absolute necessity, a cosmological constraint, in a universe that does not obey to the Weyl postulate. A paper on this topic is ready to be submitted and will be on the arxiv soon. After studying the kinematic of the cosmic background, I then moved on to analyze the perturbed sector of the universe. The goal is to explore the validity of General Relativity as well as the need for its possible non-trivial extensions. As a matter of fact a clear signal that gravity might need a revision could come from studies of cosmic structure formation. The argument goes as follows: All non-standard gravitational models invoked to explain the accelerated expansion of the cosmic background are finely tuned to reproduce the dynamic of the smooth cosmic background. Model predictions, however, are not anymore degenerate when the inhomogeneous sector of the universe is considered. Each model, indeed, makes unique predictions about how density fluctuations evolve as a function of cosmic time. This makes studies of structure evolution the natural 'battle ground' of gravity theories. In this context we are developing an analytical approach to parameterize the redshift scaling of a characteristic quantity describing the evolution of matter density perturbations, the linear growth index, in any general gravitational model that reproduces GR in the due limit. This will allow us to compare data against a variety of theoretical predictions, and, in turn it will allows us to easily spot the gravitational model that best performs in reproducing observations also in the inhomogeneous sector. The main difficulty to overcome was to develope a formalism that minimizes the number of phenomenological parameters and yet retains sufficient flexibility and precision to reproduce the effective predictions of various gravitational theories. Our results are in preparation for submission. Finally, I'm also attacking the problem of detecting eventual departures from the standard description of gravity by designing sensitive cosmic observables. To this purpose, I'm generalizing the clustering ratio test, a formalism for measuring the amplitude of fundamental cosmological parameters that was recently developed by J. Bel and my supervisor C. Marinoni. The main goal is to turn it into a powerful estimator also of estimating gravitational parameters such as the growth index. This work is in progress. Interactions and charge fractionalization in an electronic Hong-Ou-Mandel interferometer Claire Wahl Advisor : Thierry Martin Centre de Physique Théorique Campus de Luminy, Case 907 13288 Marseille cedex 9, France 0.4 0.2 0.2 0 0 I1 I2 −40 −0.2 −30 x −0.4 0.2 0.4 0 0.2 0 −0.2 q1,L −0.4 20 30 x −0.2 40 q2,L q1,R −0.2 q2,R Electron quantum optics aims at transposing quantum optics experiments – such as Hanbury Brown and Twiss (HBT) or Hong Ou Mandel (HOM) setups – for the manipulation and measurement of single electrons propagating in quantum channels. The latter experiment allows to measure the degree of indistinguishability between 2 photons which collide on a beam splitter. Electrons differ from photons because of their fermionic statistics, the presence of the Fermi sea (FS) in condensed matter systems and the fact that they interact. If controlling a single photon at a time has been mastered long ago the emission of single electrons has only been achieved recently. This has now allowed to implement the electronic analogue of the HOM experiment in the integer quantum Hall effect regime: two electrons propagate along opposite edge states and collide at the location of a quantum point contact (QPC), the analog of a beam splitter for photons. Prior to this, several theoretical works have addressed the outcome of this experiment at the single electron level (without interactions, nevertheless taking full account of the Fermi statistics): the modulus of the current correlation at the output of the QHE bar exhibits an HOM dip as a function of the time delay between the two injections. This dip should vanish when the time delay is zero. When the time delay is large enough, the current correlations correspond to twice the HBT signal because the two electrons do not interfere anymore. The puzzle with the recent experiment, Figure 1: Setup. Backscattering occurs for inner channels only, at x = 0. (Left inset) Charge normalized by e as a function of position on both right moving channels. A “wide” packet in energy (γ = 1) is injected at x = −30 on the outer channel and propagates on a length L = 5. (Right inset) An energy resolved packet (γ = 8) is injected at x = 30 on the inner channel and propagates on a length L = 10. which was performed at a filling factor ν > 1, is that the HOM dip does not vanish as expected. The purpose of this work letter is to show that interaction between quantum channels is responsible for this effect. Indeed, at ν > 1, interactions dramatically change the nature of excitations, leading to energy exchange between the channels and to charge fractionalization. Here, we consider a quantum Hall bar at ν = 2, in the strong coupling regime and at finite temperature (Fig. 1). 1 Polarized Resolved Localization-Based Super-Resolution Fluorescence Microscopy H. Ahmed, C. A. Valades-Cruz, J. Savatier, N. Bertaux, S. Monneret, H. Rigneault, G. Baffou, S. Brasselet Institut Fresnel, CNRS UMR 7249, Univ. Aix-Marseille, Marseille, France [email protected] Super-resolution microscopy has brought a significant improvement in nano-scale imaging of molecular assemblies in biological media. However apart from a recent work on proteins aggregates [1], its extension to imaging molecular orientation using fluorescence anisotropy [2] has however not yet been fully explored. Providing orientational order information at the nanoscale would be a considerable progress for the understanding of biological functions since the structure of biomolecular assemblies is strongly interrelated with fundamental processes such as in clustering in cell membranes. In addition, anisotropy imaging combined with superresolution would open new possibilities to measure the temperature of single molecules in nano-structured local environments, following previous approaches already developed in standard microscopy [3]. In this work, we report a super-resolution polarization-resolved microscopy technique able to image molecular orientation behaviors in static and dynamic environments. Using direct Stochastic Optical Reconstruction Microscopy (dSTORM) [4] in combination with polarized detection, fluorescence anisotropy images can be reconstructed at a spatial resolution of 20 nm. We used the improvements of resolution and detection to study molecular position and orientation of some biological systems like amyloid and actin. References : [1] T. J. Gould et al. , Nat. Meth. 5, 1027–1030 (2008). [2] A. Gasecka, T. J. Han, C. Favard, B. R. Cho and S. Brasselet, Biophys. J., 97, 2854–2862 (2009). [3] G. Baffou, M. P. Kreuzer, F. Kulzer, and R. Quidant, Optics Express, 17, 3291–3298 (2009). [4] S.van de Linde, A. et al., Nature Protocols 6, 991–1009 (2011). Etude tridimensionnelle de systèmes biologiques par imagerie de phase quantitative Sherazade Aknoun, directeur de thèse : Serge Monneret, équipe MOSAIC Institut FRESNEL L’objectif global de cette thèse est d'envisager une technique de reconstruction tridimensionnelle d’un échantillon biologique, résolue spatialement dans les 3 dimensions de l'espace. La nouveauté essentielle provient du type de contraste apporté (contraste de phase), mais aussi des conditions d’imagerie qui nous permettent de travailler en gardant l’illumination native d’un microscope classique et de réaliser un unique balayage vertical de l’échantillon. L'imagerie de phase quantitative est une application de l'optique qui permet une mesure complète du champ électromagnétique complexe (i.e. composantes amplitude et phase). Nous utilisons une technique d’interférométrie à décalage quadri-latéral qui nous permet d’imager un échantillon sur microscope sans marquage et en temps réel. Outre un important contraste, cette technique donne également accès à une quantification de la différence de chemin optique, proportionnelle à l’indice de réfraction et à l’épaisseur physique de l’échantillon. L’enjeu est de pouvoir décorréler à terme l’indice de réfraction de l’épaisseur physique, afin de pouvoir obtenir une carte d’indice de réfraction que l’on sait caractéristique des constituants de l’échantillon imagé. Dans le cas de cellules biologiques ou d’échantillons plus épais comme des tissus, le but est d’obtenir une caractérisation tridimensionnelle de l’indice de réfraction en réalisant des coupes optiques de cet échantillon. Ces coupes sont d’autant meilleures que l’on utilise une illumination incohérente spatialement. Il suffit alors d’empiler ces coupes suivant l’axe optique (balayage du focus), puis de réaliser des déconvolutions numériques de la série d’images ainsi enregistrées. Enfin, en utilisant les propriétés de certains constituants anisotropes au sein de ces échantillons, on peut également réaliser des images de contraste spécifique grâce à une excitation de l’échantillon avec différentes polarisations. On peut ainsi révéler spécifiquement des fibres ou des modifications d’architecture locales au sein de tissus. Summary Structured illumination fluorescence microscopy using nanostructured glass substrates Name : Ayuk Roland Ashu Address : Institut Fresnel, Campus Universitaire de Saint Jérôme, Avenue Escadrille Normandie-Niemen, 13397 Marseille Cedex Supervisor : Hugues Giovannini Abstract In structured Illumination Microscopy, (SIM) the sample is illuminated with periodic light patterns in order to obtain an improvement of the resolution beyond the diffraction-limited detection band pass. The smaller the period of the light pattern, the better the resolution improvement. This technique has been extended to Total Internal Reflection Fluorescence Microscopy (TIRFM) in which the excitation field is an evanescent wave obtained through total internal reflection of the light pattern at the interface of a high and low index material. TIRFM has been shown to achieve lateral resolution of 100 nm while keeping the axial 100 nm resolution for an illumination wavelength of 500 nm. In our work, our objective is to generate a pattern light with period much smaller than that possible with TIRFM. The idea is to use a periodically nanostructured glass slide as sample support (here after called grating). The grating is design to create a movable highly contrasted light pattern with period smaller than half the excitation wavelength and consequently a better resolution compared with the TIRFM scheme. We compare the resolution using the standard SIM for a light pattern of period 230 nm and a grating assisted SIM. We used a grating of period 210 nm and 170 nm for our theoretical demonstration and a grating of period 205 nm for experimental demonstration on fluorescent beads of norminal diameter 20 nm. [1] R. Heintzmann , C. Cremer, "Laterally modulated excitation microscopy: improvement of resolution by using a diffraction grating", Proc. SPIE Optical biopsies and microscopic techniques III 3568, 185-196 (1999). [2] M. Gustafsson, "Suprassing the lateral resolution limit by a factor of two using structured illumination microscopy", J. of Microsc. 198, 82-87 (2000). [3] R. Heintzmann, M. G. L.. Gustafsson, "Subdiffraction resolution in continuous samples", Nature Photonics 3, 362-364 (2009). [4] E. Mudry, K. Belkebir, J. Girard, J. Savatier, E. Le Moal, C. Nicoletti, M. Allain, A. Sentenac, "Structured illumination microscopyusing unknown speckle patterns", Nature Photonics 6, 312-315 (2012). Détection et analyse de changements en imagerie hyperspectrale Godefroy BRISEBARRE Institut Fresnel, UMR 7249, D.U. Saint Jérôme 13397 Marseille Cedex Thales Communications & Security, 20-22 rue Grange Dame Rose, 78141 Vélizy Cedex Thèse réalisée sous la direction de Mireille GUILLAUME L’arrivée de la technologie des capteurs hyperspectraux à ouvert de nombreuses possibilités d’évolution et de complexification pour les analyses d’images et les traitements automatisés. Parmi eux, on peut retrouver la détection de changements, autant à application militaire qu’environnementale ou géologique. En effet, pour ces différentes applications, l’utilisation de données hyperspectrales permet une profondeur beaucoup plus conséquente puisqu’elle ouvre la porte à un traitement qualitatif des changements : classification, identification en termes d’ « endmembers » et d’ « abondances » voire même, identification en terme de matériaux. Cependant, l’augmentation considérable de la quantité d’information apportée par cette technologie présente aussi des inconvénients : malédiction de la dimensionnalité, explosion des volumes de données nécessaires pour un apprentissage, images non entièrement interprétables par un humain, … Pour chacun de ces problèmes, des méthodes ou des stratégies de contournement ont étés développées, par exemple, plusieurs processus de réduction de dimension ont étés développées pour solutionner l’ensemble des problèmes sus-cités dans un cadre général. Dans le cadre plus spécifique de la détection de changement, ces méthodes ne sont pas pertinentes puisque l’information d’intérêt est généralement éliminée lors des réductions de dimension classiques. Pour ce cadre spécifique, les résultats les plus prometteurs sont obtenus en créant une base orthonormée de l’espace des données et en travaillant successivement sur les projections selon chacune des directions de cette base. L’utilisation d’une simple base générée aléatoirement apporte déjà des améliorations significatives mais, les résultats les plus intéressants sont obtenus avec des directions maximisant un critère adapté aux problèmes. Pour la détection de changements, par exemple, les directions maximisant le kurtosis des données projetées permettent l’obtention d’améliorations significatives des résultats. L’utilisation de telles séries de projections conduit à l’apparition d’une distinction naturelle entre les résultats obtenus selon les différentes directions. En particulier, dans le cadre de la détection de changements, cette utilisation apporte une classification canonique des changements détectés. Cette classification basique n’apporte pour autant pas une solution effective puisque les classes ainsi séparées sont trop nombreuse pour être significatives. Mes travaux les plus récents consistent à exploiter ces résultats canoniques en les fusionnant pour établir une classification significative des changements détectés sur des données hyperspectrales. Pénétration de Molécules Actives pour la Cosmétique Etudiée par Microscopie Non Linéaire Xueqin CHEN Institut Fresnel, MOSAIC Domaine Universitaire St Jérôme, 13013 Marseille, France Mail : [email protected] Directeur de thèse : Hervé RIGNEAULT [Mots-clés] : microscopie non-linéaire ; la peau ; moléculaire pénétration ; in vitro/vivo La peau est la première couche qui protège le corps de l’environnement externe, elle est une défense anatomique contre les pathogènes et les dommages. La pénétration efficace de molécules actives dans la peau est essentielle pour le traitement des principales maladies dermatologiques et dans l'industrie cosmétique. Bien que les molécules actives puissent être marquées, une telle stratégie n'est pas compatible avec les applications in vivo, de plus, le marquage peut toujours modifier les voies de pénétration des molécules. En revanche, des méthodes sans marquer, par exemple, les techniques d’imageries vibrationnelles offrent des possibilités de localisation des molécules sur les tissus [1]. Dans ce travail, nous utilisons l'imagerie CARS (Coherent Anti-stokes Raman Scattering) pour suivre les molécules actives lors de leur pénétration dans des échantillons de peau artificielle et de peau humaine. La fluorescence excitée à deux photons (TPEF) et la génération de seconde harmonique (SHG) sont également utilisées pour distinguer la morphologie de la peau et la distribution des protéines et du collagène. La peau artificielle vivante de type Episkin [2] est utilisée pour étudier la pénétration de composés moléculaires actifs pour la cosmétique alors que les cryo-sections abdominaux humaines sont utilisées pour étudier la pénétration des médicaments (Figure 1,2,3). Finalement, nous proposons d’appliquer ces méthodes de microscopie non linéaire pour l’étude in vivo. Les expériences sont réalisées sur des mains humaines afin d’étudier le processus de sudation. Figure 1 Echantillon peau humaine (Traitement avec médicament) Figure 2 Image TPEF Taille de champ (2mm*2.3mm) Figure 3 Image non linéaire (TPEF/SHG/CARS) En vert la substance médicamenteuse Taille du champ (0.6mm*0.35mm) Références bibliographiques [1] Saar, Brian G.; Contreras-Rojas, L. Rodrigo; Xie, X. Sunney; Guy, Richard H, Imaging Drug Delivery to Skin with Stimulated Raman Scattering Microscopy, Mol Pharm 8, 969-975 2011. [2] http://www.episkin.fr/, L’OREAL France. Solution quasi universelle au problème récurrent de la détermination des caractéristiques électromagnétiques de tous types de matériaux dans le domaine des hyperfréquences GEORGET Elodie Institut Fresnel - UMR 7249 - Campus Saint-Jérôme - 13013 Marseille, France Directeurs de thèse : ABDEDDAIM Redha, SABOUROUX Pierre Depuis maintenant plusieurs décennies, nous assistons à une croissance extrêmement rapide des télécommunications sans fil et des détections en tous genres au moyen d’ondes électromagnétiques. Dans ce contexte, pour comprendre l’interaction entre la matière en général et ces ondes électromagnétiques, connaître avec la plus grande précision les caractéristiques électromagnétiques des matériaux mis en œuvre est devenu, et reste une préoccupation principale. Actuellement, un grand nombre de techniques et de savoir-faire existent, cependant, un appareil de type Epsilonmètre n’est toujours pas disponible pour le grand public. Quelques solutions techniques sont éventuellement disponibles avec néanmoins des limitations substantielles. Ces solutions ne sont pas toujours simples à utiliser pour la permittivité et/ou la perméabilité complexes. En outre, suivant le type de matériau Figure 1 - Ligne coaxiale pour étudié, qu’il soit solide, en poudre ou bien encore liquide, la solution caractérisation électromagnétique, technique diffère… Pour tenter de résoudre quasiment toutes les EpsiMu® limitations, une solution très connue sur matériaux solides a été extrapolée pour matériaux souples. Une solution basée sur une configuration en propagation guidée et utilisant un Porte Echantillon Universel a été développée (figure 1). Actuellement, le système de caractérisation électromagnétique est validé dans le cadre de matériaux solides, liquides, granulaires ou pulvérulents. Nous testons aujourd’hui le système dans le cas de matériaux fins et souples pour des caractérisations de substrats souples utilisés de plus en plus, notamment en RFiD. Une application très importante de cette technique est de pouvoir caractériser les matériaux entrant dans la constitution d’antennes (substrats, radomes, …). Le projet de ma thèse qui s’inscrit dans la cadre du projet BELOCOPAi,ii, porte entre autre, sur l’étude, la réalisation et la validation d’une antenne multibande sur substrat souple. Pour concevoir une antenne sur substrat souple, nous avons besoin de connaître les caractéristiques électromagnétiques en termes de permittivité et perméabilité du substrat, d’où l’étude du moyen de mesure décrit dans le paragraphe précédent d’une solution permettant la caractérisation des matériaux souples constituant les substrats de nos nouvelles antennes. Pour rappel, le projet BELOCOPA propose de développer un équipement embarqué, extractible et autonome pour localiser avec précision un aéronef abîmé en mer et récupérer rapidement par liaisons radio les principales données de vol (projet recommandé par le BEA suite au vol AF447 Rio-Paris). Ce projet, soutenu Figure 2 - Antenne réalisée sur substrat souple par le pôle de compétitivité Pégase, est porté par le consortium composé des 3 PME Tethys, Acsa et Isei, et des deux laboratoires de recherches : Arts&Metriers-ParisTech-Mécasurf (Aix-en-Provence) et Institut Fresnel. La principale tâche dans le cadre de ma thèse est l’étude théorique et expérimentale de l’antenne déployable de la balise/bouée BELOCOPA. Nous avons besoin de déterminer les caractéristiques électromagnétiques pour la réalisation d’une antenne simple (figure 2) associée à des techniques innovantes pour optimiser les caractéristiques de rayonnement dans l’environnement considéré et pour maitriser les différents bilans de liaison en transmission entre la balise/bouée et les différentes ressources aériennes/satellitaires en fonction des différents matériaux constituant la bouée. i Dossier de presse : http://www.pole-pegase.com/documents/Documents/dossier_de_presse_BELOCOPA.pdf ii Localisation d’aéronefs abîmés en mer, M. Rebeaud, Air & Cosmos, n°2260, 8 Avril 2011 TRANSITION MULTI-ECHELLE ENTRE REGIMES DE POLARISATION DE LA LUMIERE DIFFUSE Ayman GHABBACH Equipes CONCEPT et RCMO Institut Fresnel UMR 7249, D. U Saint Jérome 13397 Marseille cedex 20 Directeurs de thèse : Myriam Zerrad, Michel Lequime et Claude Amra [email protected] Mots-clefs : diffusion, polarisation, cohérence, milieux complexes, discrimination surface/volume, Métrologie optique, optique statistique, Electromagnétisme, Dépolarisation temporelle et spatiale Nombre de techniques contemporaines de détection optique utilisent les interférences polarimétriques comme amplificateur ou révélateur de contraste. Les performances des ces nouveaux outils sont déjà avérées mais restent cependant limitées par les effets de dépolarisation. Dans le cas où la scène étudiée est éclairée par une lumière monochromatique pleinement polarisée, la dépolarisation par le milieu est essentiellement d’origine spatiale, i.e. due à une multiplicité des états de polarisation pris par l’onde diffusée à des échelles sub-speckle. A l’inverse, lorsque cette même scène est éclairée par une lumière pleinement dépolarisée, on assiste à un phénomène de repolarisation, dont l’ampleur est fonction de la microstruture du milieu diffusant. Des études théoriques ont permis d’expliquer et de quantifier l’ensemble de ces phénomènes. Celles ci s’appuient sur le développement de nouveaux modèles dont l’originalité réside dans le fait qu’ils permettent de relier les résultats de l’optique statistique à ceux de l’électromagnétisme. Des résultats expérimentaux précurseurs sur la scène internationale sont, par ailleurs, venus compléter cette analyse dans les cas extrêmes. Du fait de la précision nécessaire, l’étude expérimentale des cas intermédiaires demande, quant à elle, une métrologie dédiée dont le développement constitue le premier volet du travail de thèse. Un banc de caractérisation spécifique a donc été développé et couplé à des modèles analytiques d’optimisation et reconstruction. Le système complet ainsi que les premiers résultats expérimentaux seront présentés dans cette communication. Travaux réalisés dans le cadre du projet ANR TraMEL REFERENCES 1. Amra, C., C. Deumie, and O. Gilbert, Elimination of polarized light scattered by surface roughness or bulk heterogeneity. Opt. Express, 2005. 13(26): p. 10854-10864. 2. Amra, C., et al., Partial polarization of light induced by random defects at surfaces or bulks. Opt. Express, 2008. 16(14): p. 10372-10383. 3. Sorrentini, J., M. Zerrad, and C. Amra, Statistical signatures of random media and their correlation to polarization properties. Opt. Lett., 2009. 34(16): p. 2429-2431. 4. Myriam Zerrad, Jacques Sorrentini, Gabriel Soriano, and Claude Amra “Gradual loss of polarization in light scattered from rough surfaces: Electromagnetic prediction”, Optics Express, Vol. 18, Issue 15, pp. 15832-15843 (2010) 5. J. Sorrentini, M. Zerrad, G. Soriano, and C. Amra, "Enpolarization of light by scattering media," Opt. Express 19, 21313-21320 (2011) Highlight in Nature Photonics 5, 712,(novembre 2011) Protection solaire et Filtrage UV Nom : LECUREUX Marie Laboratoire : Institut Fresnel Université de Saint Jérôme - Avenue Escadrille Normandie-Niemen 13397 Marseille Directeurs de thèse : Carole DEUMIE et Stefan ENOCH Introduction Le rayonnement ultraviolet (UV), de longueur d’onde allant de 280nm à 400nm, favorise le développement de cancers cutanés, ainsi que l’apparition Air d’érythèmes actiniques (coups de soleil). Les crèmes solaires, ayant pour objectif de filtrer les UV, sont composées de diffuseurs (TiO2, ZnO, CeO2) placés dans une émulsion contenant des absorbeurs chimique. Peau Les UV sont alors filtrés par : La couche supérieure de la peau (stratum corneum) qui contient des absorbeurs (mélanine), et qui peut également renvoyer la lumière par diffusion. Les absorbeurs contenus dans la crème Les diffuseurs (particules) qui peuvent renvoyer la lumière par diffusion de volume ou augmenter le parcours de la lumière, qui rencontre plus d’absorbeurs Paramètres d’influence de la protection solaire On compte plusieurs paramètres influençant fortement la réponse de la crème : - La répartition de la crème sur le support : Différentes techniques comme la fluorescence, l’étude de l’état de surface ou l’OCT (Optical Coherence Tomography) peuvent servir à observer la répartition de la crème sur le support. - Les caractéristiques des particules : On peut modéliser l’effet des particules sur la lumière par plusieurs méthodes numériques de résolution des équations de Maxwell comme la théorie de Mie ou la méthode différentielle Segmentation multi-régions hiérarchique fondée sur des algorithmes ultra-rapides de segmentation à deux régions. Application à la segmentation d’image à 2 ou 3 dimensions Doctorant : Siwei LIU FRESNEL – Équipe Physique et Traitement de l’image (PhyTI) Campus Universitaire de Saint Jérôme, Avenue Escadrille Normandie-Niemen 13397 Marseille Directeur : Nicolas BERTAUX ; Co-directeur : Frédéric GALLAND Cette thèse porte sur la segmentation d’images fortement bruitées à l’aide de techniques fondées sur des contours actifs polygonaux et sur l’optimisation de critères issus de la théorie de l’information (Minimum Description Length). En effet, il a été montré [1] que dans le cas d’une segmentation à deux régions homogènes, cette technique permet d’aboutir à un algorithme de contour actif ultrarapide (10ms pour segmenter une image de 256×256 pixels sur un ordinateur standard) qui ne nécessite ni paramètre à régler dans le critère d’optimisation, ni connaissance a priori sur les fluctuations des niveaux de gris. La segmentation devient alors un outil élémentaire de traitement rapide et non supervisé. L’objectif de cette thèse est de montrer toutes les potentialités offertes par ce contour actif ultra-rapide pour la résolution de problèmes plus complexes. Au cours de 16 premier mois, nous avons ainsi abordé 2 problèmes : la segmentation d’images inhomogènes et la segmentation d’objets non connexe. En effet, pour le premier point, il existe un grand nombre de situations où les niveaux de gris dans chacune des régions ne peuvent pas être considérés comme homogènes, notamment lorsqu’une scène est éclairée de façon non uniforme. Si des solutions ont déjà été proposées dans le cas où les fluctuations des niveaux de gris sont modélisées à l’aide de lois de probabilités gaussiennes, dans le cas de contours actifs non paramétriques la généralisation à des images inhomogènes s’avère beaucoup plus délicate, notamment si l’on veut conserver des temps de calculs faibles. Afin de dépasser cette limitation, nous avons montré qu’il était possible de généraliser ces approches et d’obtenir un algorithme fondé sur ce contour actif ultra-rapide permettant de segmenter des images inhomogènes lorsque les fluctuations de niveaux de gris sont inconnues tout en conservant des temps de calculs réduits. Une autre limitation des algorithmes de segmentation par contours actifs polygonaux est qu’ils ne sont adaptés qu’à la segmentation d’un unique objet connexe. Dans le cas où l’objet n’est pas connexe, différentes solutions ont été proposées pour résoudre ces problèmes, mais elles aboutissent soit à des temps de calcul importants, soit à une grande complexité. Dans ce contexte, plutôt que de chercher à complexifier les algorithmes, nous avons montré qu’il était possible de coupler ce contour actif ultra-rapide avec une étape de post-traitement automatique basée uniquement sur des critères géométriques permettant alors de segmenter des objets non connexes dans une image tout en conservant des temps de calcul réduits. Dans la suite de la thèse nous aborderons le problème de la segmentation d’images comportant un nombre de régions inconnu, l’objectif étant de conserver les avantages du contour actif ultra-rapide tout en étant capable de déterminer automatiquement le nombre de régions dans une image. [1] N. Bertaux, F. Galland and Ph. Réfrégier. Multi-initialisation segmentation with non-parametric minimum description length snake. Electronics Letters, 47(10) : 594-595, 2011. Sur quelques extensions du filtre de Kalman - Application en biométrie dynamique de l'iris. NÉMESIN Valérian Institut Fresnel Encadrant : Stéphane Derrode Nous poursuivons nos travaux selon deux pistes, l'une méthodologique sur les filtres de Kalman couple, l'autre applicative sur la reconnaissance dynamique de l'iris. Les algorithmes robustes sur le filtre de Kalman couple sont exploités pour améliorer et accélérer la poursuite de l'iris dans le flux vidéo. A. Travaux sur le filtre de Kalman couple Nous avons développé, l'année dernière, une méthode robuste d'apprentissage et d'estimation des différents paramètres du filtre de Kalman couple. Notre travail a récemment été validé par la parution de l'article [1], en 2013. De même, nous avons étendu l'apprentissage robuste au cas de séries de petits signaux. Une communication sur ces travaux [2] sera bientôt présentée lors de la conférence Traitement et Analyse de l'Information Méthodes et Applications, Hammamet (Tunisie). B. Travaux sur l'iris L'année dernière, nous avons mis au point une technique de segmentation, de sélection et de fusion des iris de plus grande qualité : ces travaux ont été présentés lors de la conférence Int. Conf. Advanced Concepts for Intelligent Vision Systems [3] en Septembre 2012. Nous avons poursuivi les travaux sur la segmentation et la reconnaissance d'iris en proposant une version multi-processus de l'algorithme proposé dans le papier précédent: nous avons dédié un processus à la segmentation de la pupille, un autre à celle de l'iris et le dernier à la fusion des données. De plus, nous avons instauré des critères de qualité dès la segmentation de la pupille, ce qui nous a permis de réduire encore le nombre d'images exploitées et donc de réduire le temps de segmentation d'une vidéo. Au final, nous sommes passés de 4 images traitées par seconde à un taux oscillant entre 20 et 75 images par seconde. Un article qui décrit précisément la méthode est en cours de préparation. Nous avons également testé nos algorithmes sur la base de données MBGC. Celle-ci comporte une base de 8 589 images d'iris, et une base de 986 vidéos provenant d'un total de 274 individus. Nous avons utilisé la base d'images comme base d'apprentissage et testé la reconnaissance sur la base de vidéos. Nous obtenons respectivement pour la meilleure image, la fusion des 3 meilleures images, des 7 et puis des 15, des EER (Equal Error Rate) de 1,72%, de 0,85%, de 0,60% et puis de 0,44%. Donc, nous pouvons en conclure que la fusion d'iris permet d'améliorer notablement la reconnaissance. En effet, nous avons divisé par 4 l'EER pour la fusion de 15 images par rapport à l'utilisation de la meilleure image uniquement. C. Publications (voir http://www.fresnel.fr/perso/nemesin/index.php?url=publi.php) [1] Valérian Némesin and S. Derrode, Robust blind pairwise Kalman algorithms using QR decompositions, IEEE transactions on signal processing, Volume 61(1) p 5-9, January 2013. [2] Valérian Némesin and S. Derrode, Inferring segmental pairwise Kalman filter with application to pupil tracking, Traitement et Analyse de l'Information Méthodes et Applications, Hammamet (Tunisia), May 13-18, 2013. [3] Valérian Némesin, S. Derrode and A. Benazza, Gradual iris code construction from close-up eye video, Int. Conf. Advanced Concepts for Intelligent Vision Systems (ACIVS'12), Brno (Czech Republic), September 4-7, 2012. OPTICAL NANOANTENNAS TO ENHANCE SINGLE MOLECULE DETECTION DEEP PUNJ Institut Fresnel, Campus Universitaire de St Jérôme, Av Escadrille Normandie-Niemen 13397, Marseille Cedex 20, France Directeurs de thèse: Hervé RIGNEAULT, Jérome WENGER Abstract: Photonic/Optical antennas are promising devices to convert the optical radiation into localized energy and vice versa at nanometric level and also provide the control and manipulation of the optical field alongside. We introduce a novel type of plasmonic nanoantenna especially designed for enhanced single molecule analysis in solutions at high concentrations. The nanoantenna, Antenna-in-box, is based on a dimer made of two gold half-spheres surrounded by a box aperture and is milled in a gold film by focused ion beam (FIB). Plasmonic nanoantennas are promising tools to control and manipulate optical fields at the nanometre scale [1]. The Antenna-in-box measurements are performed with Alexa Fluor 647 molecules at micromolar concentrations in a water-based phosphate bu ffered saline solution containing 200 mM of Methyl Viologen. This concentration of Methyl Viologen quenches the A647 quantum yield of A647 from 30% down to 8%. Fluorescent emitters with low quantum yield can sense much higher fluorescence enhancement factors than emitters with high quantum yield, because their low quantum yield can take larger benefit from the nanoantenna enhancement [2],[3] Using the dominant fluorescence emission from the nanoantenna gap region, we isolated detection volumes down to 58 zL. The large fluorescence enhancement and detection volume reduction combine to make nanoantennas an efficiently parallel platform for studying single molecule dynamics at micromolar concentrations. References: [1] Lukas Novotny and Niek van Hulst, Antennas for light, Nature Photonics, 5, 83–90 (2011) [2] Anika Kinkhabwala, Zongfu Yu, Shanhui Fan, Yuri Avlasevich, Klaus Mullen and W.E.Moerner, Large single- molecule fluorescence enhancements produced by a bowtie nanoantenna, Nat. Photonics 3, 654-657 (2009) [3] Heykel Aouani, Oussama Mahboub, Nicolas Bonod, Eloise Devaux, Evgeny Popov, Hervé Rigneault, Thomas W. Ebbesen, and Jérome Wenger, Bright unidirectional fluorescence emission of molecules in a nanoaperture with plasmonic corrugations, Nano letters 11, 637– 44 (2011) Photoacoustic mammography: coupling optical and ultrasonic waves for breast cancer early diagnosis Ph.D. student: SONG Ningning Laboratory: Institut Fresnel, Campus Universitaire de Saint Jérôme Avenue Escadrille Normandie-Niemen 13397 Marseille Cedex Ph.D. supervisors: DA SILVA, Anabela ; DEUMIE, Carole Breast cancer dominates cancers in females. Imaging of breast cancer has been a field of significant advances in recent years. Optical imaging using near infrared light (NIR) is popular because it’s inexpensive and relatively risk free, but light scattering in biological tissue is highly scattered which often results in difficulties in detection and localization of tumours. Ultrasound propagates conversely with low scattering through tissues and yields higher resolution than purely optical techniques. Photoacoustic (PA) effect combines optics and ultrasound; it refers to the generation of acoustic waves from an object being illuminated by pulses or modulated electromagnetic (EM) radiation. The photoacoustic effect can thus be described through two propagating phenomena: optical and acoustical propagations. The project can be divided into two parts: forward modeling and inverse problem. In forward modeling, we set up an environment to simulate the photoacoustic effect in breast cancer, we should approximate the true environment as much as we can, and we should also set up the experiment, and compare the results obtained from simulation and experiment. For the inverse problem, we refer to the quantitative PAM, the reconstruction of tissue optical and acoustical properties, we have known different reconstruction methods, our next step is to find a proper way to do the quantitative reconstruction. A compact light source for coherent Raman (CARS / SRS) spectroscopy and microscopy Sarah Saint-Jalm(1) Institut Fresnel, UMR CNRS 7249, Campus Universitaire de Saint-Jérôme, Aix-Marseille Université, Marseille Cedex 20, France Supervisors: Esben Andresen and Hervé Rigneault (1) [email protected] One of the biggest challenges in the frame of coherent Raman scattering (CRS) spectroscopy and microscopy is to build a compact system able to investigate a broad region of the vibrational spectrum and acquire in a fast manner spectra, images and hyperspectral images of diverse chemical or biological samples. The present work addresses this problem by implementing coherent anti-Stokes Raman scattering (CARS) and stimulated Raman scattering (SRS)in a compact optical setup (80 x 80 cm) relying on a light source based on a single oscillator (a 1 GHz repetition rate pulsed Ti:Sapphire at 800 nm). The pump beam directly comes from the laser, whereas the Stokes beam is generated in a photonic crystal fiber through self-frequency shift [1; 2]. The pulses are chirped by grating pairs in order to match Raman lines’ bandwidth (δν̄ ≈ 10 cm−1 ) according to the spectral focusing strategy [3–5]. This system allows one to acquire narrow spectra (∆ν̄ ≈ 400 cm−1 ) by moving a simple delay line. The spectra can be acquired anywhere in the whole range of the vibrational spectrum (500 - 3000 cm−1 ) by changing the input power in the fiber and then frequency shifting the soliton. Both CARS and SRS are acquired at the same time. We report high speed spectra collection (few ms) suitable to monitor time varying molecular species for chemical and material sciences applications. References [1] J. P. Gordon, Opt. Lett. 11, 662 (1986). [2] E. R. Andresen, V. Birkedal, J. Thøgersen, and S. K. Keiding, Opt. Lett. 31, 1328 (2006). [3] T. Hellerer, A. M. K. Enejder, and A. Zumbusch, Appl. Phys. Lett. 85, 25 (2004). [4] I. Rocha-Mendoza, W. Langbein, and P. Borri, Appl. Phys. Lett. 93, 201103 (2008). [5] E. R. Andresen, P. Berto, and H. Rigneault, Opt. Lett. 36, 2387 (2011). Contrôle multicritère de filtres interférentiels en cours de dépôt Dragan Stojcevski Institut Fresnel avenue Escadrille Normandie Niemen, 13397 Marseille Cedex 20 Michel Lequime Institut Fresnel – Ecole Centrale Marseille Catherine Grèzes-Besset CILAS avenue de la Roche Fourcade, 13400 Aubagne es filtres optiques réalisés en couches minces présentent des propriétés interférentielles que l’on sait maitriser au moment du design pour aboutir à une fonction spectrale donnée. Que les matériaux mis en œuvre soient diélectriques ou métalliques, la qualité de la fabrication dépendra de la bonne maı̂trise des moyens de contrôle in situ utilisés. De nombreux outils permettent un suivi en temps réel des filtres en cours de dépôt, citons en particulier : la microbalance à quartz, le contrôle optique mono-chromatique ou le contrôle optique large-bande. De manière générale, ces techniques sont utilisées de façon indépendante dans le processus de dépôt car présentant chacune avantages et inconvénients en fonction du type de filtre fabriqué. L’objectif premier de notre travail sera de concevoir à partir des recherches effectuées au sein de l’équipe Couches Minces Optiques de l’Institut Fresnel et des outils développés par la société CILAS un contrôle multicritère permettant le traitement, par fusion simultanée, des données issues des moyens de contrôle disponibles. Dans un second temps, compléter le système multicritère par un procédé innovant dont le principe repose sur le suivi de l’évolution du déphasage de la lumière au cours de la croissance de l’empilement. Une partie importante de notre étude sera consacrée à la modélisation du système de dépôt, c’est-à-dire la prise en compte des caractéristiques et des évolutions au cours du temps de la machine (technologie DIBS) en terme de pression, de température et d’énergie influents sur les vitesses de dépôt; mais aussi à la qualification des moyens de métrologie selon des aspects de dynamique, de linéarité et de bruit de mesure des détecteurs. Ce modèle numérique permettra une simulation complète du processus de fabrication afin d’aider à la mise au point d’une stratégie de dépôt sans échec. L A modified approach of a Dual-Primal Finite Element Tearing and Interconnecting Method for solving scattering problems Ivan Voznyuk Institut Fresnel, Campus de St Jérôme, 13397 Marseille Cedex, France Amélie Litman and Hervé Tortel Due to the increasing number of applications in engineering design and optimization, more and more attention has been paid to full-wave simulations based on computational electromagnetics. In particular, the finite-element method (FEM) is well suited for problems involving inhomogeneous and arbitrary shaped objects. Unfortunately, solving large-scale electromagnetic problems with FEM may be time consuming. A numerical scheme, called the dual-primal finite element tearing and interconnecting method (FETI-DPEM2), distinguishes itself through the partioning on the computation domain into non-overlapping subdomains where incomplete solutions of the electrical field are evaluated independently. Next, all the subdomains are glued together using a modified Robintype transmission condition along each common internal interface, apart from the corner degrees of freedom (DOFs) where a simple Neumann-type boundary condition is imposed. We propose an extension of the FETI-DPEM2 [1] method where we impose a Robin type boundary conditions at each interface DOFs, even at the corner DOFs. Talking about my work in particular I can say that during my first year of the PhD-work I have implemented the new method for 2D electromagnetic problems and showed its efficiency. During the second year I implemented it for computing the field scattered by a set of heterogeneous, eventually anistropic, scatterers for the 3D Scattering Problems. Now we are trying to speed up the proposed method that will allow us to solve real physical problems in my next year of the PhD-work. References [1] I. Voznyuk, H. Tortel, and A. Litman, ”Scattered field computation with an extended feti-dpem2 method”, Progress In Electromagnetics Research, Vol. 139, 247-263, 2013. Low power plasmon–soliton in planar nonlinear structures WALASIK WIKTOR [email protected] Institut Fresnel, UMR CNRS 7249, Université d’Aix-Marseille, Campus de St. Jérôme, 13013 Marseille Supervisors: Gilles Renversez, Yaroslav Kartashov The aim of this work is to study the properties of a new type of interaction between the collective oscillations of electrons at the metal–dielectric interface (plasmons) and nonlinear localised light beams (spatial optical solitons). Nonlinear plasmon–soliton waves were predicted theoretically almost thirty years ago [1] and still attract a lot of attention [2]. Nevertheless, no experimental demonstration has been published so far due to the non-physically high nonlinear index modification required. Therefore, we propose a new 4-layer structures [shown if Fig. 1(a)] that allow a significant decrease of light intensity (3 orders of magnitude). We develop two complementary vector models based on Maxwell’s equations that allow to obtain the nonlinear dispersion relation in analytical form and the field profiles in these structures. The first model (A) is a generalization of the model proposed in Ref. [1] with an improved (but still approximate) nonlinearity treatment and it allows us to obtain the analytical formulas for the field shapes. The second model (B) is an extension to 4 layers of a more recent model developed by Yin [3]. This model gives the dispersion relation with an exact nonlinearity treatment but the field shapes must be computed numerically. In Fig. 1(b) we can see a good agreement between the dispersion curves obtained with both our models. Moreover, we have modified the approach based on the nonlinear solution of the 1D problem from Ref. [2] to obtain a first approximation of a 2D profile of the plasmon-soliton [see Fig. 1(c)]. Using optimization of optical and geometrical parameters, we have found the 4-layer configurations that support plasmon–soliton nonlinear waves with realistic peak intensities (≈ 1GW/cm2 ) at the telecommunication wavelength (λ = 1.55µm). model A model B 0.4 0.3 0.2 0.1 0 0.5 1 E 0 [GV/m] 0 1.5 max 40 35 30 25 20 15 10 5 0 Intensity [GW/cm2] [ NL (b) - ( 1)1/2]103 (a) (a) 1.2 (c) 0.9 0.6 0.3 0 30 15 0 y/ -15 -20 -10 -30 -40 -30 x/ 0 Figure 1: Geometry of the 4-layer nonlinear structure (a). Comparison of dispersion relations obtained with our models (b). Field shape for low power 2D plasmon-soliton in 4-layer structure with realistic parameters (c). References [1] J. Ariyasu, C. T. Seaton, G. I. Stegeman, A. A. Maradudin, and R. F. Wallis, “Nonlinear surface polaritons guided by metal films,” J. Appl. Phys. 58, 2460–2466 (1985). [2] E. Feigenbaum and M. Orenstein, “Plasmon-soliton,” Opt. Lett. 32, 674–676 (2007). [3] H. Yin, C. Xu, and P. M. Hui, “Exact surface plasmon dispersion relations in linear-metal-nonlinear dielectric structure of arbitrary nonlinearity,” Appl. Phys. Lett. 94, 221102 (2009). [4] W. Walasik, V. Nazabal, M. Chauvet, Y. Kartashov, and G. Renversez, “Low-power plasmon–soliton in realistic nonlinear planar structures,” Opt. Lett. 37, 4579–4581 (2012). Étude de l’amorçage et de la croissance des dommages à la surface de composants optiques en silice par plusieurs longueurs d’onde simultanément en régime nanoseconde CHAMBONNEAU Maxime CEA/CESTA/DLP/SMET/LMO ; 15, avenue des sablières 33116 LE BARP CEDEX Thèse débutée le 3 novembre 2011, dirigée par Jean-Yves NATOLI La tenue au flux laser des composants optiques qui composent les chaînes du Laser MégaJoule (LMJ) est l’une des clés de la réussite d’un tel projet. Sur une chaîne du LMJ, un faisceau 1ω[1] est amplifié puis converti en fréquence via des cristaux non-linéaires doubleur et tripleur (respectivement en KDP et DKDP). Le faisceau 3ω[1] obtenu ainsi que les faisceaux résiduels 1ω et 2ω[1] non-convertis illuminent alors simultanément le réseau focalisant 3ω. La spécificité de la tenue au flux laser de ce composant en silice gravée provient de sa structure géométrique d’une part, et du fait qu’il soit illuminé par trois longueurs d’onde simultanément d’autre part. Le comportement en amorçage mono-longueur d’onde sur silice a été établi à 1ω, 2ω et 3ω début 2012. Les lois déduites ont permis de déterminer les domaines de fluences 1ω et 3ω à couvrir lors des études d’amorçage multi-longueurs d’onde (3ω+1ω) synchrones qui ont eu lieu fin 2012. Ces études ont montré l’existence d’un couplage entre les 2 longueurs d’onde. Ce couplage peut être évalué en traitant la courbe de niveau ρ =f(F3ω,F1ω) en isodensités de dommages. Parallèlement à la partie expérimentale, un travail de modélisation basé sur des codes de calcul du CESTA est en cours afin de simuler numériquement les résultats expérimentaux obtenus dans les cas mono et multilongueurs d’onde. Suite à ces travaux de modélisation, de nouvelles expériences multi-longueurs d’onde seront conduites dans un but de compréhension des mécanismes d’endommagement. Des expériences sur réseaux ont permis de montrer expérimentalement l’influence de la gravure et de la largeur des traits sur la tenue au flux de ce type de composant. Les premières lois de croissance des dommages sur réseau ont été établies début 2013. Cette étude montre que les dommages sur réseau croissent de manière exponentielle. Des acquisitions tir à tir de la surface endommagée ont permis de montrer que le coefficient de croissance évolue de manière linéaire avec la fluence déposée sur le dommage, ce qui permet d’en déduire un seuil de croissance. Une étude portant sur la morphologie des dommages amorcés sur silice est en cours. Pour un faisceau laser mono-mode longitudinal, le profil temporel des impulsions est lisse, alors que pour un faisceau multi-modes longitudinal, il existe des pics d’intensité aléatoirement répartis dans les impulsions. Des observations de dommages par différents moyens (microscope à contraste interférentiel, MEB, profilomètre, microscope confocal), ont permis de révéler des différences morphologiques importantes. Ces observations couplées à une mesure précise du profil temporel des impulsions laser mettent en évidence le lien entre ce dernier et la morphologie du dommage créé. Un scénario reposant sur des ablations successives de silice par un plasma de surface a été envisagé. La vitesse de propagation du plasma déduite des recalages morpho-temporels ne dépend ni de la durée d’impulsion laser, ni de la fluence déposée. Une prochaine confrontation du scénario envisagé à des simulations numériques permettra de vérifier sa cohérence physique. Le dépouillement de tirs multimodes dans différentes configurations (modification de la longueur d’onde et de l’angle d’incidence) est en cours, et permettra d’améliorer la compréhension des mécanismes d’endommagement sur silice. [1] : 1ω=1053nm (1,17eV), 2ω=526nm (2,34eV), 3ω=351nm (3,51eV) DIFFUSION VOLUMIQUE AU PREMIER ORDRE PAR DES INHOMOGÉNÉITÉS MAGNÉTO-DIÉLECTRIQUES DIEUDONNÉ Éva CEA, le Ripault, BP 16, 37360 MONTS ENOCH Stefan, MALLÉJAC Nicolas La diusion des ondes électromagnétiques par des milieux est un problème important dans de nombreux domaines des sciences comme la médecine, l'optique, l'acoustique, la géophysique, les communications et la télédétection. Il se pose dès que les milieux possèdent une inhomogénéité. Elle peut être liée à une géométrie particulière de l'objet, à une irrégularité de la surface délimitant le milieu, et/ou à une hétérogénéité dans la répartition des propriétés électromagnétiques du milieu. Il existe déjà de nombreux modèles de diusion, particulièrement pour les surfaces rugueuses où il est possible de se référer aux publications [1, 2, 3]. De même, pour les inhomogénéités volumiques, il existe diverses méthodes similaires au cas surfacique. (A noter, qu'aucun article, à ce jour, ne référence les méthodes pour la diusion volumique.) Cependant, ces méthodes ne prennent pas en compte les uctuations de perméabilité. C'est pourquoi avec l'essor des métamatériaux (matériaux structurés sous longueur d'onde pouvant être décrits par une permittivité et une perméabilité articielle), il nous est apparu nécessaire d'établir une méthode pour calculer le champ diusé par des milieux possédant à la fois une uctuation de permittivité et de perméabilité. Notre méthode est basée sur l'approximation du premier ordre [4, 5, 6], développée sous forme matricielle. Elle permet, de plus, de prendre en compte les uctuations magnétiques et de diminuer les temps de calcul par rapport à la méthode des admittances [6]. La solution analytique fournit par la méthode des admittances (que nous avons également développée pour les uctuations magnétiques) montre qu'il est possible d'écrire l'intensité diusée en fonction du spectre de uctuation. I d = βε γε + βµ γµ + βεµ <(γεµ ) L'étude des paramètres βε et βµ permet de montrer l'impact de n'importe quelle uctuation de permittivité ou de perméabilité et celle de βεµ celle de la corrélation entre les deux uctuations. Cette étude nous à permis de montrer que pour une répartition spatiale identique des uctuations de perméabilité et de permittivité, l'intensité diusée présente une sensibilité signicativement diérente entre les propriétés magnétiques et les propriétés diélectriques, et qu'il existe des extrema très marqués de l'intensité diusée selon les valeurs moyennes de perméabilité et de permittivité. Références 11, R103-R137, (2001). 11, R1-R30, (2001). T. M. Elfouhaily et C.-A. Guérin. Waves Random Media, 14, R1-R40, (2004). P. Bousquet, F. Flory et P. Roche. J. Opt. Soc. Am., 71, 1115-1123, (1981). J. M. Elson. Phys. Rev. B., 30, 5460-5480, (1984). C. Amra. J. Opt. Soc. Am. A, 10, 365-374, (1993). [1] M. Saillard et A. Sentenac. Waves Random Media, [2] K. F. Warnick et W. C. Chew. [3] [4] [5] [6] Waves Random Media, Etudes des interfaces, des boites quantiques et des nanofils à base des II-VI et III-V par sonde atomique tomographique Doctorant : Hammouda BENALLALI Directeur de la thèse : Dominique Mangelinck, directeur de recherche (CNRS) Tuteur de la thèse : Khalid Hoummada, maître de conférences(AMU) Les matériaux semi-conducteurs ont été largement exploités dans les technologies de l’optique et de l’électronique car leurs propriétés électriques peuvent être facilement modifiées par le dopage électrique ou par la réduction de leurs dimensionnalités (couches bidimensionnelles, des fils ou des boites quantiques…) [1]. En particulier, les semi-conducteurs II-VI sont largement utilisés dans l’optoélectronique, notamment les systèmes ZnSe et ZnTe étant des semi-conducteurs à gap direct. Leurs applications sont multiples comme par exemple les lasers verts, l’électronique de spin et les cellules solaires multijonctions. Ces semi-conducteurs sont également utilisés pour fabriquer des boites quantiques et des nano-fils ainsi que des boites quantiques dans les nano-fils. Dans les boites quantiques, les électrons et les trous occupent des états discrets comme dans un atome [2]. La recombinaison de ces paires électrons-trous quantifiées sur ces niveaux donne lieu à l’émission de photons uniques, d’énergie et de polarisation contrôlées [3]. Ces propriétés optiques sont exploitées pour sonder l’état de spin des atomes magnétiques dans les boites quantiques. Afin de comprendre les mécanismes de formation et de dopage des boites quantiques et des nanofils, et, au final les propriétés de ces nanostructures, il est nécessaire de déterminer la composition chimique avec une résolution quasi-atomique. La sonde atomique tomographie (SAT) est un outil qui permet d’obtenir des cartographies chimiques avec une résolution atomique au sein d’un matériau, dans les trois dimensions de l’espace. Ma thèse est basée sur l’utilisation de la sonde atomique tomographique pour l’analyse des interfaces, des boites quantiques, des nanofils des matériaux II-VI. Tout d’abord, nous avons débuté notre étude par l’analyse des multicouches ZnTe/ZnSe/CdSe/ZnSe sur le substrat GaAs. L’analyse de ces multicouches a permis d’optimiser les conditions d’analyses des matériaux II-VI par SAT ainsi que de déterminer les conditions d’analyse de l’interface II-VI/ III-V. Ensuite, nous nous sommes intéressés particulièrement aux compositions chimiques des interfaces ZnSe/GaAs et ZnTe/InAs. Nous avons simulé le profil de composition à travers l’interface en se basant sur quatre modèles d’interfaces connus dans la littérature. Ceci a permis d’interpréter les profils de compositions chimiques unidimensionnels obtenus par SAT. Enfin, nous avons pu conclure qu’il existe la formation d’un composé Ga2Se3 à l’interface entre ZnSe et GaAs et la formation d’une interface mixte (Zn, Ga) à l’interface entre ZnTe et InAs (publication acceptée). Récemment, nous nous sommes intéressés aux boites quantiques CdxZn1-xSe dans ZnSe sur GaAs. Les échantillons ont été d’abord analysés par micro-photoluminescence (µ-PL) puis par SAT. L'analyse par photoluminescence de l'ensemble des boites montre l’émission des photons suivant une gaussienne centrée autour de 2.3 eV avec FWHM=63 meV. L'analyse par µ-PL, qui permet de sélectionner seulement quelques boites, indique l'émission de raies à différentes énergies. Les mesures SAT montrent la formation d’un mélange entre CdSe et ZnSe dans la couche CdSe ainsi que la présence d’inhomogénéités de composition dans la couche CdSe. Ces inhomogénéités concernent uniquement les éléments Cd et Zn avec des zones riches en Cd (65 ± 4 % at. Cd) et des zones pauvres en Cd (30±4 % at. Cd). La taille de ces zones riches en Cd est très variable, ce qui pourrait correspondre à des boites quantiques. La distribution de ces boites est aléatoire dans la couche CdSe. La formation de ces BQs est due à l’inter-diffusion entre le Cd et Zn au cours du traitement thermique. Par contre, l’émission à différentes énergies est sans doute liée à la présence de plusieurs tailles de BQs ainsi qu’à la variation de leurs compositions (publication en cours). Bibliographies : [1] P. V. Radovanovi et all, nano lettres, vol.5, no.7 1407-1411 (2005) [2] L. Besombes et all, Phys. Rev. Lett. 93, 20 (2004) [3] A. Tribu et all, nano lettres, vol.8, no.12 4326-4329 (2008) [4] M.K. Miller, ATOM PROBE TOMOGRAPHY, (2000) New york, USA [5] D. Litvinov et all, Journal of Crystal Growth 263, 348-352 (2004) RESUME Germano-siliciuration d’alliage métallique à base Ni ultra mince pour les technologies 20nm et 14nm Réactions à l’état solide Ni-X/SiGe Emilie BOURJOT CIFRE STMicroelectronics/CEA-LETI/IM2NP Directeur de thèse : Dominique MANGELINCK IM2NP – Réactivité et Diffusion aux Interfaces Avenue Escadrille Normandie Niemen 13397 Marseille Tuteurs : M. GREGOIRE (STMicroelectronics) et F. NEMOUCHI (CEA-LETI) Pour minimiser les résistances d'accès d'un transistor MOS, la reprise de contact des sources/drains passe par des réactions à l’état solide entre un alliage métallique et un semiconducteur. Les mécanismes de base de ces réactions nécessitent d’être compris afin de maîtriser la formation et de stabiliser les phases les moins résistives. L’intégration de contacts Si1-xGex pour les transistors p-MOS de la technologie 20nm FD-SOI – fully depleted silicon on insulator - [1] impose l’utilisation d’un nouvel alliage à base Ni compatible avec ce substrat[2][3]. Il doit être capable de retarder voire d’éviter les phénomènes d’agglomération et de ségrégation du germanium observés dans la littérature[4][5]. Ainsi, nos recherches porteront sur les mécanismes de formation et sur l’élaboration de films ultra-minces de germano-siliciures (Ni-X)(SiGe) à l’aide d’un nouvel alliage à base de nickel. Une étude « matériaux » préliminaire est en cours pour identifier la nature de l’alliage de nickel. De nombreuses techniques de caractérisation sont utilisées : la diffraction de rayons X en laboratoire et à l’ESRF pour l’étude de la séquence de formation et l’évolution des contraintes, la sonde atomique tomographique de l’IM2NP pour déterminer la redistribution et le rôle des éléments d’alliage[6], la microscopie électronique pour des observations morphologiques, structurelles et mécaniques, ainsi que des mesures de résistivité quatre pointes pour l’évaluation des propriétés électriques. En deuxième lieu, l’optimisation du procédé de germanosiliciuration est requise afin de diminuer le budget thermique et d’obtenir des germanosiliciures de l’ordre de 14nm d’épaisseur à l’aide d’un bâti PVD 300mm. Des études « intégration » seront menées en planaire et en fond de cavité dans des environnements dopés et non dopés. Ainsi, les éventuels effets de confinement seront mis en évidence à l’aide de réseaux de tranchées à fort aspect de forme et l’influence des dopants sera abordée. Au niveau des performances électriques, des structures de test seront dédiées à l’extraction des résistivités de contact[7]. Enfin, l’objectif final sera d’adapter le procédé de germano-siliciuration sur une chaine de fabrication 20nm FD-SOI à STMicroelectronics et d’optimiser les performances des transistors. [1] C. Le Royer, et al. Solid-State Electron. 65-66 (2011) 9-15. [2] C. Demeurisse, et al. Microelectron.Eng. 84 (2007) 2547-2551. [3] B. Zhang, et al. Appl. Phys. Lett. 98 (2011) 252101. [4] T. Jarmar, et al. J. Appl.Phys. 98 (2005) 053507. [5] S.-L. Zhang, Microelectron. Eng. 70 (2003) 174185 [6] O. Cojocaru-Mirédin, et al. Ultramicroscopy 109 (2009) 797-801. [7] N. Stavitski, , et al. R.A.M. Wolters, 55 (2008) 1170- 1176. Electrodeposition and characterization of CoSb 3 thermoelectric thin films by Electro-Chemical Atomic Layer Epitaxy (ECALE) CHEN Yuan, RECORD Marie-Christine IM2NP, Facultédes Sciences et Techniques de Saint-Jérôme - Case 142, 13397 Marseille Cedex 20, France The growing concern over increasing energy cost and global warming associated with fossil fuel sources has stimulated the search for cleaner, more sustainable energy sources. Among the viable technologies, thermoelectric (TE) energy converters have received attention as these solid-state devices can generate electricity by harvesting waste thermal energy, thereby improving the efficiency of a system. Cobalt tri-antimonide and its derivatives are considered to be the most suitable thermoelectric materials for applications in the range around 600 K. CoSb3 exhibits excellent electrical transport properties, one of the highest values for hole mobility in a semiconductor due to a high degree of covalent bonding. Thermoelectric materials are renewable energy materials that benefit from low dimensionality. Currently, high quality nanofilms have usually been grown with epitaxy methods, such as MOCVD, ALE and MBE. For CoSb3 compound, they mean not only complicated apparatus but also very expensive precursors and some toxic byproducts. Recently, a novel method named as electrochemical atomic layer epitaxy (ECALE), put forward by Gregory and Stickney [1], was proposed as an approach for high crystalline and ultrathin film deposition. ECALE exploits surface limited electrochemical reactions, such as underpotential deposition (UPD), to form alternate atomic layers of the elements making up a compound. Each deposition cycle forms a monolayer of the compound, and the number of cycles, which determines the thickness of the deposit, can be repeated by means of a wholly automated and computerized system as many times as desired. However, to our knowledge, the deposition of CoSb3 compound, as an important thermoelectric material, has not been investigated with ECALE yet. The growth of cobalt tri-antimonide thin films now is being studied on Au substrate via the equipment of ECALE that developed by us in this work for the first time. The electrochemical behaviors of Co and Sb on bare Au, Co on Sb-covered Au, and Sb on Co-covered Au had been studied by cyclic voltammetry and coulometry. A steady deposition of CoSb3 was attained after negatively stepped adjusting of underpotential deposition (UPD) potentials of Co and Sb on Au in the first 40 deposition cycles. X-ray diffraction (XRD) analysis, EDX quantitative analysis and Fourier transform infrared spectroscopy (FTIR) analysis was used to characterize the material obtained by ECALE. [1] B.W. Gregory, J.L. Stickney, J. Electroanal. Chem. 300 (1991) 543. Effet des éléments d’addition sur la décomposition spinodale dans le système fer-chrome : mesures expérimentales de diffusion et de cinétique Yann Colignon IM2NP (Institut Matériaux Microélectronique Nanoscience de Provence) Directeur de thèse : D. Mangelinck Co-directeur : P. Maugis Les futures installations nucléaires nécessiteront des matériaux résistants notamment au fluage à haute température, ils seront également soumis à des environnements radiatifs qui génèrent du vieillissement par dommage balistique et par gonflement des matériaux sous accumulation de gaz, en particulier de l’hélium. Les alliages fer-chrome renforcés par dispersions d’oxydes (ODS-Oxide dispersion strengthened), de part leurs caractéristiques, sont de bons candidats pour ces futures installations, ils présentent néanmoins certaines complexités dues, en particulier à l’existence d’une décomposition spinodale aux températures de fonctionnement des centrales. L’objectif de ma thèse est d’étudier les cinétiques de décomposition spinodale du système Fe-Cr seul dans un premier temps puis en présence des éléments d’addition des aciers ODS (C, O, Y, Ti). Cette étude se fera à partir d’alliages modèles de composition contrôlée et de d’alliages massifs de composition connue. Pour caractériser à l’échelle atomique les cinétiques de décomposition des alliages, nous utilisons la sonde atomique tomographique (SAT) capable d’analyser en 3D la composition à l’échelle nanométrique. La SAT permettra en particulier de quantifier les contributions de diffusion en volume et aux joints de grains, probable source de contradictions sur les données actuelles de diffusion. D’autres techniques expérimentales seront employées comme la spectrométrie de masse des ions secondaires (SIMS) pour mesurer les coefficients de diffusion des éléments d’additions dans le Fe-Cr, ainsi que des techniques in situ ; diffraction de rayons X (DRX), réflectivité des rayons X (RRX), mesure de résistivité, calorimétrie). Pendant ma première année de thèse, nous avons réalisé des couches minces d’alliage Fe-Cr de différentes concentrations ainsi que leurs caractérisations par DRX, RRX et SAT. Nous allons maintenant procéder à des analyses des échantillons ayant subit des recuits en dedans et en dehors de la lacune de miscibilité afin d’étudier les différents phénomènes. Ces études expérimentales se font en lien étroit avec les approches théoriques en champ moyen autocohérent et en Monte-Carlo développées par M. Nastar et F. Soisson au CEA/SRMP. Ni Silicide Nanowires analysis by atom probe tomography Mike El Kousseifi IM2NP, Aix Marseille Université-CNRS, Faculté de saint Jérôme, 13397 Marseille, France Dominique Mangelinck Over the past few years, several applications based on nanowires have emerged in different fields such as electronics, energy (photovoltaic), optics, biology…[1]. Si nanowire is considered as one of the promising candidates for further extending the device downsizing, owing to its gate-all-around structure which enables better gate control capability than planar transistors [2]. Commonly, metal silicides have been widely used as self-aligned silicide (salicide) contacts on source, drain and polycrystalline silicon gate regions of CMOS devices to reduce contact resistance [3]. Recently, silicide nanowires have been proposed for contact and interconnection by selective transformation of silicon nanowires into Ni silicide nanowires in MOS-FET transistors application [4]. Up to now several studies were performed on Ni silicide as contacts in thin film, for their integration in volume production of integrated electronic circuits [5]. The integration of nanowires and Ni silicide as contacts for these nanowires in the future electronic devices needs understanding for the mechanisms of silicide formation as well as the detection of metallic contamination and distribution of dopants in Si nanowires. Thus, a three dimensional measurement of the distribution of the elements in the nanowire is needed. The development of new characterization tools and methodologies is necessary given the small size and the complexity of the nanowires. Atom probe tomography (APT) can be an essential analysis tool for studying nanowires on the nanometre scale. However the main difficulties are the delicacy in handling the nanowires and the necessity of having a needle-shaped specimen for APT analysis. The aim of this work is to analyse at atomic scale using APT, Si nanowires covered with a shell of silicide. It relies on the determination of the three dimensional composition of silicide in Si nanowires and substrate. For this, a new methodology to manipulate the nanowires with the dual beam focused ions beam (FIB) has been developed. The nanowires used in this study were phosphorous doped silicon nanowires grown using the Vapour Solid liquid (VLS) mechanism with a Gold catalyst. Figure 1: a) SEM image for APT tip, where the silicide nanowire is visible buried in the Ni matrix. b) APT reconstructed volume shows the intefaces Ni/Silicide/Si, and the phosphorous atoms distribution in the nanowire. The silicide formation was obtained by annealing the sample at 200°C for 1h. Ni silicide on the nanowires and on the substrate were then analysed by APT. These analysis show that δ-Ni2Si is the only phase formed on both Si nanowires and substrate with the same thickness. These results suggest the same kinetic of Ni silicide formation of δ-Ni2Si phase on coaxial nanowires and planar substrate. Also Au contamination and P dopant have been detected. Other results will be presented on Ni silicide formation from axial nanowires. References: 1. F. Léonard, A. Alec Talin, Nature Nanotechnology 6, 773-783 (2011). 2. S. D. Suk et al., IEDM Tech Dig, 1 (2006). 3. R.Mukai, S.Ozawa and H.Yagi, Thin Solid Film 270, 567 (1995). 4. Yue Wu, Jie Xiang, Chen Yang, Wei Lu & Charles M. Lieber, Nature 430, 61-65 (2004) 5. F. Panciera, K. Hoummada, M. Gregoire, et al, Appl. Phys. Lett. 99, 051911 (2011). Solidification à trois dimensions simulée par la méthode du champ de phase GHMADH Jihene - Doctorante 2ème année - IM2NP - Marseille - France Directeurs de thèse : Jean-Marc DEBIERRE et Rahma GUÉRIN Le phénomène étudié est la solidification qui est largement présente dans notre environnement quotidien, notamment au travers des métaux. Les microstructures de croissance (cellules, dendrites) formées à l’interface liquidesolide entraı̂nent des inhomogéneités dans la composition du matériau. Elles influent largement sur ses propriétés mécaniques macroscopiques, de manière quelquefois positive ou parfois désastreuse. La thèse a pour objectif une étude théorique et numérique de ces microstructures en utilisant la méthode du champ de phase et s’appuyant sur des études expérimentales réalisées à l’IM2NP et à l’IRPHE. La méthode du champ de phase est maintenant un outil de choix pour étudier la solidification dans des situations expérimentales variées. Elle permet depuis peu de réaliser des calculs numériques quantitatifs pour les systèmes tridimensionnels. Nous utilisons un alliage à base de succinonitrile, un cristal plastique transparent analogue des métaux. Déroulement de la thèse Durant ma deuxième année de thèse, j’ai pu développer un code numérique de type champ de phase avec préconditionnement qui m’a permis d’étudier la solidification dirigée dans des lames minces. Cette étude est menée sur des structures dont l’axe cristallin est désorienté d’un angle Θ0 par rapport au gradient thermique. Les conséquences sur la direction de croissance et la morphologie des microstructures sont importantes. La direction de croissance présente une inclinaison Θ par rapport l’axe cristallin. Celà entraine une dissymétrie de forme, notamment par la présence de branchements développés sur un flan et un changement de taille en fonction de la vitesse de tirage imposée. La recherche d’une relation donnant l’évolution de Θ avec la taille des structures et la vitesse de tirage, nous a amené à considérer une variable combinée qui est le nombre de Péclet. On synthétise simultanément les dépendances de Θ vis à vis de la vitesse et de la largeur des structures. Par ailleurs, on a pu comparer nos résultats numériques avec les résultats expérimentaux ainsi qu’avec la loi d’orientation universelle1 . Nous avons un accord très satisfaisant entre simulation et expérience. Une autre instabilité dynamique a été étudiée en se basant sur le diagramme de stabilité expérimental2 , c’est le mode 2λ − O. C’est un mode d’oscillation (O) de la largeur et de la hauteur des cellules, doublant la longueur d’onde (2λ). Chaque cellule est en opposition de phase avec ses voisines. Le cycle limite obtenu (la variation de la largeur en fonction de la variation de la hauteur) est très proches des expériences, il reste à tester d’autres vitesses pour renforcer les résultats obtenus. 1 2 J. Deschamps. Thèse de doctorat, université de provence. 2007. M. Georgelin. Thèse de doctorat, université de provence. 1997. 1 Fonctionnalisation de nanomatériaux bidimensionnels à base de graphène Yu-Pu LIN Directeur de thèse: Jean-Marc THEMLIN Co-directeur : Younal KSARI Aix-Marseille université, IM2NP, CNRS UMR 7334, équipe Nanostructuration Campus St Jérôme, Case 142, 13397 Marseille Cedex 20 Le graphène est un matériau bidimensionnel doté d’exceptionnelles propriétés physiques, électroniques, thermiques, optiques, et mécaniques [1]. Des applications dans de multiples domaines sont envisagées, en particulier en électronique où des dispositifs comme des transistors sont à l’étude. Le développement de ces futurs dispositifs nanoélectroniques est cependant limité par le fait que le graphène est un matériau très peu réactif et qu’il possède un gap nul. De plus, le dopage conventionnel n'est pas facilement applicable pour les matériaux bidimensionnels comme le graphène. L'objectif de cette thèse est de fonctionnaliser le graphène via la création de différents types de défauts (lacunes, insertion de carbone ou d’hydrogène, substitution d’atomes d’azote ou de bore), obtenus par implantation ionique à basse et à très basse énergie et par exposition à des atomes ou radicaux neutres quasi-thermalisés. On espère ainsi fonctionnaliser de façon contrôlable le graphène déjà formé. Nous maîtrisons la synthése d’une monocouche ou de multicouches de graphène obtenues par décomposition thermique du carbure de silicium (SiC) sous ultra-haut-vide et à haute température (T>1100°C). L’identification du nombre de couches de graphène est réalisée in-situ par l'analyse de l’évolution des spots de diffraction électronique (LEED) du graphène et la spectroscopie de photoémission inverse (IPES). Cette technique est très sensible à la structure électronique (bandes de conduction) d’une seule monocouche de graphène. Par exemple, nous avons montré via la photoémission inverse que la bande π* du système conjugé de graphène peut visiblement apparaître (ou disparaitre) avec l’intercalation (réversible) d’hydrogène qui permet d’obtenir une monocouche de graphène quasi-découplée du substrat. Nous réalisons le dopage in-situ du graphène à l’aide d’une source hybride à plasma (ECR), qui permet d’exposer le graphène soit à un flux d’atomes neutres quasi-thermalisés, soit à un flux d’ions issus d’un gaz précurseur. L’analyse IPES des états π*, qui donnent lieu au cône de Dirac aux points K de la zone de Brillouin, permet de déduire la position de point du Dirac par rapport au niveau de Fermi. L’exposition à un flux d’ions azote d’énergie E ≈ 25eV et de dose variable permet d’abaisser le point de Dirac de 0.1 à 0.7 eV sous EF. Ce dopage de type-n est attribué à des azotes substitutionnels mis en évidence grâce à la spectroscopie des niveaux de cœur (XPS). A contrario, l’exposition à un flux d’atomes d’azote quasi-thermalisés n’induit le dopage du graphène qu’en présence d’une concentration de défauts préexistante. ____________________________________________________ 1. Novoselov, K. S. et al., Science 306, 666–669 (2004). MONOCOUCHES MOLECULAIRES AUTO-ASSEMBLEES ET NANOPARTICULES POUR LA CONVERSION PHOTOVOLTAÏQUE MALYTSKYI Volodymyr a Institut Matériaux Microélectronique Nanosciences de Provence, IM2NP - CNRS UMR 7334: Aix-Marseille Université, site de St Jérôme, av. Escadrille Normandie Niemen, case 142, 13397 Marseille cedex 20, & ISEN-Toulon, Maison des Technologies, Place G. Pompidou, 83000 Toulon. b Centre Interdisciplinaire de Nanosciences de Marseille, CINaM – CNRS UMR 7325, 163 avenue de Luminy, case 913, 13009 Marseille. Directeur de thèse: Lionel Patronea – Co-directeurs: Jean-Manuel Raimundob, Jean-Jacques Simona Au cours des dernières décennies, les chromophores organiques « push-pull » (donneurespaceur-accepteur) ont vu leur intérêt grandir en raison de leurs applications potentielles dans les domaines des transistors à effet de champ, de l'optique non linéaire, des OLEDs, et du photovoltaïque. Parmi les différents systèmes pi-conjugués connus, les structures basées sur le thiophène ont conduit à une large variété d'applications en science des matériaux [1, 2] en raison notamment de la flexibilité de leur synthèse permettant de modifier aisément leurs propriétés optiques et électrochimiques. En revanche, à ce jour les couches auto-assemblées des chromophores push-pull sur une surface et leurs applications n’ont pas fait l’objet d’études approfondies. Pourtant ces structures moléculaires correctement organisées sur une surface [3] devraient permettre, dans le cadre de la conception de cellules photovoltaïques, d’améliorer l’interface donneur/accepteur, l’absorption optique, et d’augmenter le volume de la couche active. C’est dans cette perspective que se place mon sujet de thèse qui envisage aussi la formation de multicouches organiques [4] et l’insertion de nanoparticules de métaux nobles afin de bénéficier d’une exaltation de l’excitation photonique par des effets plasmoniques [5]. Durant la première partie de mon travail j’ai développé une synthèse en plusieurs étapes de nouvelles molécules push-pull prêtes à être auto-assemblées en couches sur une surface (Fig.1). Fig. 1. Chromophores push-pull synthétisés, avec espaceurs pi-conjugués à base de thiophène. Les produits obtenus possèdent une forte absorption de lumière et peuvent donc être efficaces pour le photovoltaïque. En parallèle, les monocouches moléculaires des chromophores ont été préparées sur surface d’or et étudiées principalement par microscopie à effet tunnel (STM). Dans la suite de ces travaux, la préparation de monocouches auto-assemblées sera étudiée et les couches caractérisées (STM, spectroscopie optique,…) pour tous les chromophores synthétisés. Les matériaux obtenus seront ensuite caractérisés électriquement et optiquement pour évaluer leur utilisation potentielle dans le domaine de la conversion d’énergie photovoltaïque. [1] A. Mishra, P. Bäuerle, Ang. Chem. Int. Ed., 51, (2012) 2020-2067 [2] Igor F. Perepichka, Dmitrii F. Perepichka, Handbook of Thiophene-Based Materials: Applications in Organic Electronics and Photonics 2009 © John Wiley & Sons, Ltd. [3] T. Hasobe, Phys. Chem. Chem. Phys. 12 (2010) 44 [4] A. Facchetti, A. Abbotto, L. Beverina, M. E. van der Boom, P. Dutta, G. Evmenenko, G. A. Pagani, T. J. Marks, Chem. Mater. 15 (2003) 1064 [5] D. Duche, Ph. Torchio, L. Escoubas, F. Monestier, J.J. Simon, F. Flory, and G. Mathian, Solar Energy Materials and Solar Cells 93 (2009) 1377 Étude ab initio du mécanisme de détection de molécules en surface d’oxydes de cuivre CuxO : application capteur de gaz Ouali Hela IM2NP (UMR 7334 CNRS) Université Aix-Marseille FST Campus de St. Jérôme Service 152 13397 Marseille Cedex 20 France Directeur de thèse : Oison Vincent L’équipe microcapteurs de l’IM2NP développe et caractérise des dispositifs capteurs de gaz à base d’oxydes métalliques semi-conducteurs afin de réaliser des “ nez électroniques”. Leur but ultime est l’identification et la mesure des concentrations de certains gaz présents dans l’atmosphère. Les oxydes utilisés comme couches sensibles peuvent être de type n comme WO 3 ou SnO2 , ou de type p comme CuαO (α = 1, 2) ou SrTi 1−xFexO2 . Le principe de détection de gaz est lié à la variation de la résistance du matériau induite par l’adsorption de molécules gazeuses.[1] Nous présentons ici les résultats des simulations ab initio de la détection de O 3 en surface (111) de CuO qui est celle observée expérimentalement par diffraction X après recuit et trouvée par le calcul comme la surface de plus faible énergie. Nos calculs sont effectués à l’aide du code SIESTA [2] basé sur la DFT dans lequel les électrons de cœur sont traités à l’aide de pseudopotentiels et la fonction d’onde des électrons de valence est décomposée sur une base de pseudo fonctions d’onde atomiques. L’approximation standard LDA (ou GGA) du terme d’échange-corrélation est insuffisante pour décrire les propriétés électroniques du CuO massif. En effet, pour cet isolant de Mott dont les électrons 3d des Cu sont fortement corrélés, la LDA prédit un matériau conducteur et non magnétique alors que celui-ci est trouvé expérimentalement semiconducteur avec une bande interdite comprise entre 1,2 et 1,9 eV et présente un ordre antiférromagnétique sur les atomes de Cu. Un moyen relativement peu coûteux en terme de temps de calcul pour pallier à l’insuffisance de la LDA est d’inclure un terme de Hubbard (U) dans l’expression de l’énergie d’échange-corrélation.[3] Les oxydes CuO et Cu 2O présentent une réponse électrique à l’ozone très similaire. Le mécanisme de détection s’effectue en quatre temps. En premier temps, la résistance du matériaux sans flux de gaz est mesurée ; en seconde étape le matériau est soumis à un flux de O3 et la résistance diminue instantanément ; ensuite le flux de O 3 est stoppé et la résistance retrouve au bout de quelques minutes sa valeur initiale. Nous avons simulé le chemin réactionnel correspondant suivant lequel la molécule de O 3 s'adsorbe puis se dissocie à la surface pour finalement aboutir à la désorption d’une molécule de O 2 et à la création d’un adatome de O en surface. Sous flux de O3 , des molécules sont constamment adsorbées avec une énergie calculée de plus d’un eV et un transfert de charge vers la molécule de 0,5 électrons. La densité électronique montre que l’adsorption de O3 induit un décalage du niveau de Fermi vers la bande de valence typique d’un dopage p, pouvant être relié à la diminution de résistance observée expérimentalement. [1] A. Labidi, A. Bejaoui, H. Ouali, F. Chaffar-Akkari, A. Hajjaji, M. Gaidi, M. Kanzari, B. Bessaïs, M. Maaref, Appl. Surf. Sci. 257 (2011) 9941–9945. [2] P. Ordejón, D. Drabold, M. Grumbach, R. Martins, Phys. Rev. B 53 (1996) R10441–R10444. [3] S. Dudarev, G. A. Botton, S. Savrasov, C. Humphreys, A. Sutton, Phys. Rev. B 57 (1998) 1505– 1509. Characterization of dendrite fragment motion by X-ray radiographic observation on Earth and under microgravity environment SALLOUM ABOU JAOUDE Georges Aix-Marseille Univ & CNRS, IM2NP UMR 7334, Campus Saint-Jérome Case 142, 13397 Marseille Cedex 20, France Thesis supervisors: NGUYEN-THI Henri & REINHART Guillaume Solidification takes part in the fabrication of almost every metallic material, for that the understanding of its fundamental mechanisms is crucial for building and developing cutting edge metals. Gravity has a major impact on solidification and can cause fragmentation of dendrites and is at the origin of micro and macro segregation (solute heterogeneities). A part of my thesis treats the effects of gravity on solidification. In the frame of ESAMAP (Microgravity Application Promotion) project entitled XRMON (In situ X-Ray MONitoring of advanced metallurgical processes under microgravity and terrestrial conditions), a microgravity (µg) experiment in the XRMON-GF (Gradient Furnace) setup was successfully launched in 2012 on board MASER 12 sounding rocket. During this experiment, in situ and real time observations of the formation of the solidification microstructures in diffusive conditions were carried out for the first time1,2 by using X-ray radiography. In addition, two reference experiments with the same control parameters but in ground-based conditions were performed to enable a direct comparison with the µg experiment and therefore to enlighten the effects of gravity upon microstructure formation. In the first reference test, the growth direction was perpendicular to the gravity vector (i.e. horizontal solidification), while it was parallel and in the opposite direction to the gravity vector in the second ground-reference test (i.e. upward solidification). Fragmentation phenomenon was observed during the experiments. For upward solidification, fragmentations mainly take place in the upper part of the mushy zone. After their detachments, dendrite fragments are carried away by buoyancy force in the bulk liquid where they are gradually remelted. In the µg experiment and for horizontal solidification, this type of fragmentation is not observed. However, a great number of fragmentations are surprisingly revealed by in situ observation in the deep part of the mushy zone, when the liquid fraction is very small. Moreover, as soon as they are detached, the dendrite fragments move toward the “cold” part of the mushy zone, even in the case of the µg experiment. The observations suggest that fluid flow induced by sample shrinkage may be at the origin of this fragment motion. [1] H. Nguyen-Thi et al., J. of Crystal Growth, http://dx.doi.org/10.1016/j.jcrysgro.2013.03.032 [2] A.G. Murphy et al., J. of Alloys and Compounds, http://www.sciencedirect.com/science/article/pii/S0925838813009080 Organisation et dynamique lors de l’adhésion de cellules vivantes sur des substrats contrôlés Pierre Dillard, CINaM AMU-CNRS, UMR 7325, Campus de Luminy, Case 913, et LAI, CNRS UMR7333, Inserm UMR 1067, Case 937, 13288 Marseille Cedex 9 Directeurs : Kheya Sengupta (CINaM), Laurent Limozin (LAI) Les lymphocytes, un sous groupe des leucocytes circulent librement dans le sang, mais en cas d’infection, d’inflammation ou de lésion, ils forment des jonctions adhésives spécialisées pour mener à bien leur fonction de recherche et destruction des pathogènes. Les lymphocytes T sont à la base de la réponse immunitaire adaptative et remplissent de nombreux rôles tels que la mémoire des pathologies rencontrées, la destruction de pathogènes…Toutes ces fonctions sont possibles grâce à une structure qui permet la communication intercellulaire : la synapse immunologique. Cette structure est un assemblage supramoléculaire de protéines intimement lié à la membrane cellulaire et qui joue un rôle d’interface de communications entre les différentes cellules engagées dans ce processus. Au moins deux types de protéines sont redistribués dynamiquement pour permettre l’adhésion des cellules T : d’une part le récepteur des cellules T qui se liguent de manière très spécifique sur les antigènes des cellules cibles (des fragments de protéines (peptides) présentés par le complexe majeur d’histocompatibilité (pMHC)) et d’autre part des protéines d’adhésion de type intégrine sur la surface des cellules T qui vont se lier à l’ICAM-1 sur la surface des cellules cibles. Le principal but de cette thèse est d’observer la dynamique de la formation de la synapse immunologique de manière contrôlée. Pour cela nous allons être amenés à utiliser des systèmes hybrides cellules/substrat où la cellule cible est remplacée par une surface contrôlée présentant des protéines d’intérêt de manière variée (mobile, fixe, sur différentes matrices chimiques, sous différentes formes…). Deux défis techniques doivent ainsi être surmontés : un contrôle des propriétés physiques et chimiques du substrat et un développement des moyens d’observation de la synapse. En ce qui concerne les substrats, cela passe notamment par une étude de la mobilité des protéines et la cinétique d’assemblage de ces dernières en structures supramoléculaires mais également par la fabrication de substrats présentant les protéines sous forme de bouquets nanométriques pouvant interagir spécifiquement avec la cellule pour former la synapse. En ce qui concerne les techniques d’observation, nous avons pour objectif de développer des techniques permettant de caractériser de manière quantitative les substrats et de mesurer l’interaction des cellules avec ces derniers. Ces techniques seront basées en grande partie sur la microscopie de contraste interférentiel en réflexion (RICM) pour avoir des mesures topographiques des domaines d’adhésion mais également sur la fluorescence, en particulier en réflexion totale interne (TIRF) pour observer la dynamique de formation de la synapse. A l’heure actuelle, nous avons réussi à construire de manière reproductible les substrats précités, à contrôler leur qualité, leur composition et à mesurer de manière quantitative l’adhérence des cellules et potentiellement leur spécificité. Nous sommes actuellement dans une étape de caractérisation de la réponse cellulaire en fonction de la mobilité des ligands, nous faisons également varier la composition et la concentration de ces molécules ainsi que leur matrice d’adhésion. Nous avons d’ores et déjà pu identifier plusieurs comportements cellulaires différents en fonction de ces paramètres. Etude de l’hypersécrétion et de l’activité mucociliaire de l’épithélium bronchique reconstitué in vitro : particularité de l’asthme sévère. KHELLOUFI Mustapha-Kamel Laboratoire Adhésion et Inflammation, INSERM U1067/CNRS UMR 7333, Bâtiment TPR2 - Bloc 5, 163 Avenue de Luminy, Case 937, 13288 Marseille Cedex 09 Directeurs de Thèse : Dr Annie Viallat et Pr Pascal Chanez Les maladies chroniques sévères des bronches affectent des millions d’Européens. A ces pathologies respiratoires est généralement associée une hypersécrétion délétère de mucus dans les voies respiratoires dont les mécanismes restent largement inconnus. Le projet est d’étudier les mécanismes impliqués dans la clairance mucociliaire, dont les anomalies pourraient expliquer l’hypersécrétion de mucus. Les cycles, la fréquence et la coordination des battements ciliaires responsable du transport du mucus, ainsi que la composition en mucines et les propriétés rhéologiques du mucus seront analysés sur les cellules épithéliales saines et pathologiques, à partir d’un modèle original de reconstitution 3D in vitro de l’épithélium bronchique de patients, et tel qu’il est observé dans les voies aériennes humaines. Nous explorerons comment le couplage entre les propriétés rhéologiques du mucus et la mécanique interne des cils responsables des battements assure ou empêche un transport efficace du mucus. Nous aborderons aussi les questions de la relation entre le remodelage des voies aériennes (l'espace sous-épithélial, la stratification de l'épithélium) et l'activité spécifique des cellules dendritiques dans l'hypersécrétion. Nous proposons un test du rôle potentiel inflammatoire de l'épithélium de l'hypersécrétion dans l'asthme sévère. Pour tester la puissance des marqueurs inflammatoires sécrétés dans les surnageants de l'expectoration induite ou dans les surnageants de culture de cellules épithéliales, les sécrétions seront mises en contact avec des cellules dendritiques confinées dans un environnement qui imite la membrane basale sous-épithéliale. Cet environnement bio-mimétisme sera constitué d'un réseau de polymère à base de collagènes et/ou matrigel commercial. La composition de cette matrice biomimétique peut être modifiée pour sonder le remodelage bronchique. Nous utilisons pour cela un dispositif microfluidique. Euclid et l'univers très lointain. Thésard : Jérémie Chatron (directeur de thèse : JeanGabriel Cuby / codirecteur : Stéphane Basa) L'objet de ma thèse est de caractériser la période de temps où l'univers était alors très jeune, période où l'univers commençait à peine la réionisation du milieu intergalactique. Nous savons que l’état de l’Univers est passé par trois phases distinctes depuis le Big Bang. Initialement ionisé sous la forme d’un plasma d’hydrogène, l’Univers a connu une phase neutre après la recombinaison des atomes d’hydrogène environ 380 000 ans après le Big Bang. Aujourd’hui, sauf en de rares nuages isolés, les atomes d’hydrogène du milieu intergalactique sont à nouveau tous ionisés. Déterminer quand cette transition de phase eu lieu et quelle est son histoire sont les motivations principales amenant les astronomes à pousser les instruments jusqu’à leurs limites. L’objectif est également d'identifier quelles sont les sources à l’origine du flux de photons nécessaire à la réionisation du milieu intergalactique. Pour se faire on se sert de très jeunes galaxie (appelées quasar) en tant que sonde. En étudiant le rayonnement de ces quasars on pourra alors caractériser l'environnement qui les entourent. Il faut donc trouver ces quasars, actuellement nous disposons d'images issues du ‘Large Programme’ accepté au CFHT(CanadaFrance Hawaï Télescope) pour la recherche de quasars à décalage spectral~7 (soit 12,888 milliards d'année lumière). Afin de sélectionner des candidats de quasars nous nous basons sur une inspection visuelle et sur des critères de sélection de couleurs pour éliminer des faux candidats (contaminants, naine brune, etc). Une fois de bons candidats sélectionnés nous pourrons obtenir la spectrométrie de ces objets. Ces données, ainsi que la littérature existante, permettront d’estimer et/ou de contraindre les fonctions de luminosité des galaxies et quasars très distants ainsi que les effets de contamination, lesquels sont particulièrement importants à prendre en compte pour établir les performance scientifiques d’Euclid pour la recherche et la détection de ces objets. Pour le futur de ma thèse le travail consistera alors à simuler des catalogues et échantillons d’objets et à les confronter aux performances instrumentales d’Euclid ainsi qu’aux stratégies observationnelles de la mission. Ceci permettra de préciser les spécifications instrumentales et observationnelles optimales de la mission pour la recherche de ces objets, et d’itérer avec ses performances annoncées. Il faudra en particulier étudier le lien, les performances respectives et la complémentarité entre observations photométriques et spectroscopiques, par exemple pour la minimisation des effets de contamination. Ce travail s’inscrit dans le cadre d’une problématique scientifique d’actualité (la réionisation de l’Univers) et sera d’intérêt pour d’autres missions spatiales ou sol de l’astronomie contemporaine. Le travail se fera au sein du consortium Euclid, et plus particulièrement au sein du groupe de travail ‘Primeval galaxies’, dont JeanGabriel Cuby est coordinateur. Large Scale Stucture of the Universe. Halo Occupation Distibution modeling. ANNA DURKALEC Laboratoire d’Astrophysique de Marseille Technopole de Château-Gombert 38, rue Frédéric Joliot-Curie 13388 MARSEILLE Directeur de thèse: Olivier le Fèvre Among all cosmological theories, which try to explain formation and evolution of cosmic structure, the ΛCDM model seem to be in the best agreement with a broad variety of astrophysical observations. In general, according to this model, the small scale dark matter overdensities (separated from the cosmic expansion) started to grow “hierarchically” - small haloes collapse first ant then merge to form larger ones. In this scenario barionic matter assemble via collapse within the dark matter halos and follow this hierarchical evolution - creating clusters and superclusters of galaxies. Therefore the key issue and our first aim is to find the relation between luminous and dark matter components on different epochs. We are going to accomplish it by using data from spectroscopic surveys such as zCOSMOS (Cosmological Evolution Survey), VUDS (VIMOS Ultra Deep Survey) and VVDS (VIMOS-VLT Deep Survey). Recently big contribution to better understanding this problem have halo occupation models. In this models the bias of given galaxy sample, is specified by the probability P (N |M ) that a dark matter halo of mass M contains N galaxies - halo occupation distribution (HOD) formalism. This approach leads to distinguish different description of galaxy clustering on different scales: one-halo term - depending of complex physics of the barionic component, governs the behavior of galaxy correlations on small scales (< 2h−1 Mpc) and for larger separations two-halo term - dominated by gravitational clustering of dark matter component. To make the HOD model quantitative one needs formula for the abundance, spatial distribution of halos and typical density run around halo, as well as the average number of galaxies in halo of a given mass. At this point we have created HOD model which contains all those components and expressed number of galaxies per halo of a given mass, as the sum of two terms corresponding to the contribution from central and satellite galaxies. Formation and evolution of galaxies within halos is influence by many processes such as accretion, feedback and galaxy mergering. Contribution from each of those processes on large scale structure evolution is not fully understand. Therefore our second aim is to modify existing HOD models to find impact of those processes on galaxy correlation function and describe it in consistent way from high z to present days. 1 Dark matter: N-Body simulations and astroparticles Nom et prénom: Mollitor Pol Intitulé et adresse du laboratoire: Laboratoire d'Astrophysique de Marseille 38, rue Frédéric Joliot-Curie 13388 Marseille Nom du Directeur de thèse: Emmanuel Nezri Probing the fundamental laws of nature and the understanding of the Universe have always been existential and evolving questions. In the most popular contemporary vision, the so-called concordance model, more than 95% of the universe is dark. Among this darkness and provided general relativity (GR) holds, around 30% behaves like pressureless matter, which has led to assume the existence of a new (still unknown) type of matter, dubbed "dark matter" (DM), over cosmological scales. Among the successes of this hypothesis, DM is the main ingredient to sketch a viable theory of structure formation in the context of GR, and its gravitational effects are manifest over an impressively large part of astrophysical scales (e.g. galaxy rotation curves; galaxy clusters --- among which clusters in collision like the Bullet cluster; CMB). On infinitely small scales and apparently disconnected to such astrophysical issues, despite its very impressive successes, the standard model of elementary particles fails to address some questions like neutrino mass, hierarchy problem, forces unification. These gaps have generated wider frameworks and models. It turns out that numerous extensions beyond the standard model (BSM) generically provide new and stable weakly interacting massive particles (WIMPs), which yields quite natural candidates to solve the DM issue. On the one hand, the popular BSM (Beyond Standard Model) dark matter scenarios are typically supersymmetric models, models with extra dimensions, light dark matter, little Higgs model, inert doublet model or any extensions providing new WIMP candidates. The question of the dark matter nature generates flurry of activity in high energy physics model building and phenomenology. In most of models, dark matter particles have the capability of self annihilation or decay, which is decisive for their detection. Current and near future instrumental projects could bring important clues to the dark matter enigma. Actually, the detectability of dark matter depends strongly on both the astrophysical assumptions concerning the dark matter distribution in the halos and on the evoked high energy physics scenario beyond the standard model. On the other hand, structure formation and galaxies evolution are very hot topics in astrophysics and cosmology. The improvement of computing power makes numerical simulations reach unprecedented levels of precision. Now, numerical simulations are developed to describe large scale structures of matter in the universe just as the formation and the dynamics of galaxies. Modelling the behaviour of dark matter by solving the gravity numerically, these simulations yield the most sophisticated and realistic results for the distribution of dark matter. The simulations of cosmological structure formation as well as galaxy evolution now include the physics of baryons (hydrodynamics, stellar formation, feedbacks …) which is determining especially on small, i.e. (sub) galactic, and cluster scales. Some crucial problems are still debated like the number of satellites in galaxies, the dark matter profile in the (sub)halo innermost region, the size of the generated disk or the different possible sources of feedback. During the first part of the PhD thesis, we started to run cosmological simulations with the adaptive mesh refinement code RAMSES. In particular, we made a movie of a Dark Matter only simulation of a 20 Mpc3 box and identified a Milky-way sized dark matter halo. We also started to include hydrodynamics in our simulations to study the evolution of gas and stars especially in the selected halo. By studying different aspects of baryonic physics (stellar formation, SN feedback, cooling ...), we are going to analyze the impact on the shape of cosmological structures on different scales. We aim to obtain a disky Milky-Way like galaxy from our cosmological set-up/scenario including baryon physics. Furthermore, we are willing to link our results to astroparticle physics, i.e we take advantage of all the relevant informations (like dark matter, gas and star distribution, SN feedback) given by the simulations to calculate consistently dark matter direct and indirect (gammas, neutrinos, cosmic rays) detection rates and associated backgrounds in the most realistic and consistent framework provided by the cosmological simulations. Recherche, développement et réalisation d’un contrôleur de Fabry-Pérot de nouvelle génération OUATTARA Issa Laboratoire d'Astrophysique de Marseille 38, Rue Frédéric Joliot-Curie 13388 Marseille cedex 13 Directeur de thèse: Philippe AMRAM L’équipe « Physique des Galaxies» du Laboratoire d’Astrophysique de Marseille (LAM) a développé un nouveau type d'interféromètre de Fabry-Pérot. Cet instrument de nouvelle technologie utilise un nouveau type d’actuateur piézo-électrique permettant d'atteindre des déplacements de quelques microns à quelques 200 microns (les anciens interféromètres permettant des déplacements de l’ordre de 10 à 20µm) avec une précision de positionnement de l'ordre du nm. Les différents espacements entre les plaques de verre permettent à cet interféromètre d'être utilisé de façon versatile depuis un mode en filtre accordable (pour atteindre les basses résolutions spectrales et les grands domaines spectraux à l’aide de faibles espacements) jusqu'aux modes interférométriques à haute résolution spectrale (lorsque les espacements sont plus grands). Pour le pilotage de cet interféromètre, un nouveau contrôleur est entrain d’être développé et réalisé. Pour cela la modélisation des actionneurs piézoélectriques, des capteurs capacitifs et bien sûr du système complet a été réalisée. Pour la commande des actionneurs piézoélectriques, des solutions nouvelles sont entrain d’être trouvées: commande en charge et/ou commande robuste (LQG) en vue de compenser les phénomènes de non linéarité que sont l’hystérésis et le fluage. Pour la commande en charge, des amplificateurs haute tension (-20V à 150V) et à haute dynamique et faible bruit (110 dB), conçus avec des amplificateurs opérationnels dédiés seront développés. Ce nouveau contrôleur a l’ambition d’être de faible encombrement, de faible poids, de forte intégration, de faible consommation électrique et utilisera des composants nouveaux (DSP, µC, FPGA, …). Il devra pouvoir compenser automatiquement les variations de température, d’humidité ou de pression de sorte que le système pourra fonctionner dans des conditions variées d’utilisation. Analyse de front d’onde post-coronographique pour l’imagerie à haut contraste, application sol et espace. Baptiste Paul Directeurs de thèse : M. Ferrari - LAM / L. Mugnier - Onera Encadrants : J.F. Sauvage - Onera / K. Dohlen - LAM Laboratoire d'Astrophysique de Marseille, Site de l'Etoile Technopole de Château Gombert 38 rue Frédéric Joliot-Curie, 13388 Marseille Cedex 13 – France L’observation de planètes extrasolaires est rendue difficile par l’énorme contraste entre une planète et l’étoile autour de laquelle elle gravite (106 à 1010), ainsi que la faible séparation angulaire entre ces deux corps (0.1’’ à 1’’). Un tel niveau de contraste aussi proche de l’étoile n’est accessible qu’en supprimant une grande partie du flux en provenance de cette dernière, sans pour autant diminuer celui en provenance de la planète. Un tel but peut être atteint en couplant l’imagerie à haute résolution angulaire, garantissant la séparation des deux objets observés, et la coronographie, qui atténue le flux en provenance de l’étoile. L’utilisation d’optique adaptative (OA) pour l’observation sol espace est dans ce cadre indispensable, afin de minimiser les défauts optiques (notamment la turbulence atmosphérique) qui dégrade la qualité de l’extinction fournie par le coronographe. Une fois la turbulence atmosphérique corrigée par une OA à hautes performances et l’essentiel de la lumière stellaire éliminée par le coronographe, les performances ultimes de l’instrument pour la détection d’exoplanètes sont limitées par les aberrations quasi-statiques propres à l’instrument. La mesure et compensation de ces aberrations permettraient d’optimiser l’atténuation de la lumière en provenance de l’étoile d’augmenter encore les performances de détection. Dans un système d’optique adaptative classique, le front d’onde aberrant est prélevé par une lame séparatrice, qui le dirige ainsi dans une voie annexe, dite voie d’analyse. Dès lors, les performances du système optique sont limitées par les aberrations différentielles présente entre cette voie d'analyse et la voie d'imagerie. Afin de s'affranchir d'une telle limitation, une solution possible consiste à estimer les aberrations à partir de données acquises sur le détecteur scientifique lui-même. La méthode développée au cours de cette thèse est basée sur la diversité de phase, technique permettant d'estimer les aberrations entachant le système optique à partir de deux images plan focal. Afin d'appliquer cette méthode à un système d'imagerie à haut contraste, il a été nécessaire, dans un premier temps, d'y inclure une modélisation précise du coronographe, qui rend le système optique notablement plus complexe. L’analyseur de surface d’onde ainsi développé (baptisé COFFEE (COronagraphic Focal-plane wave-Front Estimation for Exoplanet detection)) a été dans un premier temps validé pour être appliqué à un modèle de coronographe particulier, le coronographe de Roddier & Roddier. Suite à cette étude, nous avons modifié le modèle de formation d'image utilisé par COFFEE afin de pouvoir utiliser cette méthode avec tout type de coronographes. Cette nouvelle version de COFFEE, validée par simulation, a été testée avec succès sur l'instrument VLT-SPHERE lors de sa phase d'intégration finale à Grenoble : l'estimation des aberrations en amont du coronographe à l'aide de COFFEE a permis d'obtenir, après compensation, un gain notable en contraste sur le détecteur scientifique. Une nouvelle méthode de compensation, permettant de minimiser l'énergie présente dans une zone localisée du détecteur, est actuellement en cours de développement. Il est par ailleurs prévu d'étudier expérimentalement les performances de COFFEE couplé avec un autre analyseur de surface d'onde, ZELDA, toujours dans un souci de compensation optimal des aberrations situées en amont du coronographe. Herschel view on the formation of Massive Stars Tigé Jérémy LAM - Laboratoire d’Astrophysique de Marseille Pôle de l’Étoile Site de Château-Gombert 38, rue Frédéric Joliot-Curie 13388 Marseille cedex 13 FRANCE Under the supervision of Delphine Russeil My thesis goal is to study and understand the earliest phases of the formation of high-mass stars (Masse > 8 Sun Mass) using the recent Herschel data. I make use of Herschel maps of NGC6334 and NGC6357, two main star-forming regions located at 1.7kpc in our Galaxy. I have been doing extraction and SED fitting so far, in order to establish in these regions a catalogue of infrared-quiet massive dense cores (potential progenitors of massive stars) and estimate their properties. My next step is to observe a representative sample of such massive dense cores with high resolution interferometry (like ALMA) so as to characterise their possible fragmentation and thus maybe constrain the massive star formation processes. Premiere phase d'assemblage de la masse dans les galaxies Pinwei Wang Laboratoire d'Astrophysique de Marseille Pôle de l’Étoile Site de ChâteauGombet 38, rue Frédéric JoliotCurie 13388 Marseille cedex 13 FRANCE Supervisor: Olivier, Le Févre Galaxy assembly in early universe plays a crucial role for evolution of today galaxy population. Understanding these various physical properties (color, mass, luminosity, metallicity, Star formation rate, etc) of galaxy formation in detail and the correlation among them is a great challenge to our knowledge of modern cosmology. Under this major project, the first stage of my work is preselecting the very high redshift galaxies (z > 7) with dropout techniques in the photometric data observed by near infrared telescope (VISTA). Dropout technique is the wellknown traditional method for astronomer to probe objects with nearly complete absorption of the flux shortward of Lyman Alpha (1216 Angstroms) as a result of the large neutral hydrogen column density in the Intergalactic Medium (IGM). Based on this ultra deep infrared survey with Vista and infrared imaging overlapped in the COSMOS (The Cosmological Evolution Survey) field. This complementary optical and near infrared database can provide us sufficient area and depth to discover these very distant galaxies more efficiently. The attached figure is our preliminary result; these 2 high redshift candidates are displayed in 6 different optical (Bvgriz) and 4 near infrared (YJHK) bands. The criteria of our high redshift galaxies selection here are the magnitude difference in z and J bands which is over 2.5 and these objects should be undetected in B, V, g, r and i bands. According to our simplified examination, these images have revealed the significant pattern of high redshift star forming galaxies. Our next phase will be to identify galaxy populations at 4 < z < 6 to build luminosity functions / mass functions, and trace evolution at these early times. B V g r i z Y J H Figure. The images are displayed in 10 different filters. The object in upper panel shows clear signal in H and K band, and the object in lower panel shows significance in J band. K L'optique et l'astrophysique pour l'imagerie directe des systèmes planétaires extrasolaires : vers le premiers résultats de SPHERE sur le VLT. Zurlo Alice Laboratoire d`Astrophysique Marseille Pôle de l’Étoile Site de Château-Gombert 38, rue Frédéric Joliot-Curie 13388 Marseille cedex 13 FRANCE Moutou Claire/ Gratton Raffaele Mon travaille de thèse est sur l'instrument SPHERE pour le VLT (Very Large Telescope, ESO Chili). L'instrument va bientôt commencer ses observations, première lumière prévue au début 2014. SPHERE est un système d’imagerie à haut contraste et haute résolution angulaire, d’imagerie polarimétrique et de spectroscopie à basse résolution. Il sera capable d'obtenir l'image directe de systèmes planétaires jeunes dans le voisinage du Soleil. Mesurer le flux des planètes avec SPHERE doit permettre de caractériser les compagnons planétaires. Les objectifs de ma thèse sont la validation scientifique des performances combinées d’IRDIS et de IFS, la participation à son installation au télescope et une contribution pour l'analyse des données scientifiques. Le LAM s’est engagé en 2002 sur le projet SPHERE et a conçu et réalisé l’instrument focal IRDIS, caméra principale et multi-mode de SPHERE. SPHERE comprend 2 autres instruments focaux, ZIMPOL et IFS, construits par ETH (Zürich) et l’INAF (Padoue). IRDIS est un spectro-imageur, permettant d’obtenir l’image à très haut contraste de l’environnement stellaire des étoiles brillantes et proches La validation instrumentale des performances des sous-systèmes de SPHERE représentera un pas en avant considérable vers la caractérisation des planètes. L’optique adaptative extrême nécessaire a l’objectif scientifique de l’instrument SPHERE est une étape vers les grands instruments du futur qui équiperont le télescope européen Extremely Large Telescope (42m) dans une dizaine d’années. Sur le plan des résultats attendus de SPHERE, il s’agit de connaître la population des planètes extrasolaires dans le voisinage du Soleil et d’étudier leurs propriétés. Ce programme sera effectué par un consortium européen dont le LAM et Padoue sont des acteurs majeurs, grâce aux 260 nuits de temps garanti attribuées par l’ESO pour la construction de SPHERE. Mon travaille en particulier c'est la caractérisation des planètes a travers la photométrie et l’astrométrie. Pour cela on préparer des outils que on aidera dans ce domaine et on étude aussi les erreur liées à l'instrument et au détecteur. Récemments on a publié un cas de ¨false positive¨ dans le cadre du programme NACO-LP où une naine blanche a été étiquetée erronément comme une objet sous-stellaire. Age et époque de formation des Galaxies, Évolution de la constante de Hubble. Romain THOMAS Directeur de Thèse : Olivier LeFèvre Laboratoire d'Astrophysique de Marseille Pôle de l'étoile Site de Château Gombert 38, rue Frédéric Joliot-Curie 13388 Marseille cedex 13 Depuis maintenant une quinzaine d'année nous savons que l'expansion de l'univers accélère. Pour expliquer cette accélération nous considérons ce qu'on appelle l'énergie noire, composante inconnue de l'univers. Plusieurs modèles théorique peuvent expliquer cette énergie noire, comme le modèle Lambda-CDM (CDM : Cold Dark Matter), ou l'énergie noire correspond à la constante cosmologique. D'autres prennent pour représentation une équation d'état de l'énergie noire dépendante du redshift (modèle de quintessence). Le but de ma thèse est de déterminer le taux d'expansion de l'Univers (paramètre de Hubble) lorsque celui ci était plus jeune. Pour cela nous devons déterminer les âges des galaxies. Nous utilisons deux méthodes pour dater les galaxies : - La première est la méthode de SED-fitting. Cette méthode consiste à comparer les observations que l'on a sur une galaxie (photométrie et spectroscopie) à une large bibliothèque de modèles de galaxies. Pour cette étude j'utilise le Logiciel GOSSIP qui permet de faire 3 fits différents : un fit sur la spectroscopie seule, un fit sur la photométrie seule ainsi qu'un fit sur le spectre et la photométrie en même temps. Ayant accès au code source de ce programme j'ai pu ajouté mes propres fonctions ainsi que corriger certains bugs. - La deuxième méthode de datation des galaxies consiste à étudier de façon individuelle les indices présents dans les spectres. Dans le domaine optique nous connaissons beaucoup d'indices (break D4000, Hdelta....) et il est possible de les relier à l'âge des populations stellaires. Lorsque l'on veut étudier des galaxies à plus haut redshift (typiquement à partir de z~1.4) le spectre se décale dans l'UV (nous voulons travailler jusqu’à z~3). Il nous faut donc déterminer, dans l'UV, quels sont les indices spectraux sensibles à l'âge et tracer leur évolution. Ceci nous permettra de dater les galaxies à partir d'une mesure des indices sélectionnés. Ces deux méthodes, indépendantes, seront ensuite comparées. Elles nous permettrons d'en déduire un échantillon de galaxies dont les âges sont les plus robuste. Cet échantillon nous donnera ensuite la possibilité de mettre des contraintes sur l'époque de formation des galaxies et sur l'évolution de la constante de Hubble en fonction du redshift. De plus, cette étude ,n'est basé sur aucun modèle cosmologique, elle est donc un discriminant entre les différentes cosmologie. Ch arac t e ris at io n an d pe rfo rm an c e s o f a glo w dis c h arge as a s o u rc e o f e le c t ro n s fro m at m o s ph e ric air fo r po rt able m as s s pe c t ro m e t e r Ach ou a k Ch a lk h a ch a lk h a .a ch ou a k @ya h oo.com E qu ip e In s t ru m en t a t ion d es Pr océd és Ph ys ico -ch im iqu es et Nu cléa ir es ; la b or a toir e LIS A E A-4 6 7 2 ; Un iver s it é d ’Aix-Ma r s eille ; Cen t r e d e S a in t J ér ôm e, b â t im en t MADIRE L, Aven u e E s ca d r ille-Nor m a n d ie-Niem en , 1 3 3 9 7 Ma r s eille Ced ex 2 0 - Fr a n ce Dir ect ion a n d co-d ir ect ion : Yves ZE RE GA et Au r ik a J ANULYTE In a p or t a b le m a s s s p ect r om et er , con s id er a t ion s s u ch a s , low p ower con s u m p t ion , h igh p r es s u r e in t h e va cu u m ch a m b er (u p t o 1 0 -3 t or r ) a n d lon g lifetim e m u s t b e t a k en in t o a ccou n t . In t h es e con d ition s , a DC Glow Dis ch a r ge cell with a cold ca t h od e ca n op era t e a s E lect r on Sou r ce (GDE S), fu r t h er m or e red u cin g ou t -ga s s in g p h en om en a com p a r ed t o a h ea t ed fila m en t 1 . Th e cell con s is t s of a p a r a llel p la n a r ca t h od e a n d a n od e fixed b y a Teflon s p a cer , b a s ed u p on t h e d es ign p r op os ed b y Ga o 2 . In a d d it ion to Ga o’s wor k s , t h e glow d is ch a r ge r egim e a n d th e r es u ltin g elect ron b ea m a r e ch a r a ct er is ed wit h a con tin u ou s ly in let flow fr om a t m os p h er ic a ir in or d er t o h a ve a fin e m et er in g a n d con t rol of t h e elect r on cu r r en t a n d k in et ic en ergy. GDES is p la ced in a va cu u m ch a m b er . Ga s in let flow fr om a m b ien t r oom p a s s es t h r ou gh a ca p illa r y a n d en t er s t h e cell b y a cen t r ed ca th od e a p er t u r e. Pr es s u r e in s id e t h e cell va r ies a r ou n d 1 0 -5 t or r d ep en d in g on ca p illa r y len gth , t o op er a t e a r ou n d Pa s ch en 's m in im u m . Th e elect r on s exit fr om cen t r ed a n od e a p er t u r e. A DC s u p p ly a cr os s t h e ca t h od e a n d a n od e m a in t a in s t h e d is ch a rge. Th e va cu u m ch a m b er wa lls a r e gr ou n d ed . To s t a b ilis e u n d es ir ed d is ch a r ges , a r es is t a n ce is con n ect ed b et ween a n od e a n d gr ou n d . E lect r on b ea m ch a r a ct er is a tion is p er for m ed b y m ea n s of a collect ion p la t e loca ted in fr on t of t h e a n od e a p er t u r e p ola r is ed with a DC p ower s u p p ly. Th e ca t h od e, a n od e a n d p la t e cu r r en t s a r e r ecor d ed a s t h e volt a ges a cr os s a n od e, ca t h od e a n d p la te. Th e cu r r en t -volt a ge ch a r a ct er is t ic of t h e d is ch a r ge u n d er a ir flow is m ea s u r ed wit h a lim it in g-cu r r en t r es is t a n ce in s eries b et ween t h e d is ch a r ge s u p p ly a n d t h e ca th od e in or d er t o s t a b ilis e th e cu r r en t in t h e glow d is ch a r ge r egim e. E xp er im en t a l d a t a a r e t a k en s t a r t in g fr om t h e d a r k d is ch a r ge r egion u p to t h e glow d is ch a r ge r egion a t a b ou t 1 -2 m A of t h e d is ch a r ge cu r r en t . Bot h th e cu r r en t -volt a ge ch a r a cter is tics of t h e glow d is ch a r ge r egim e a n d Pa s ch en 's cu r ve (b r ea k d own volta ge vs d is t a n ce-p r es s u r e p r od u ct) a r e p lot t ed for s ix va lu es of t h e GDE S cell p r es s u r e b etween 0 .2 - 1 .4 t or r (a ccor d in g to t h e ca p illa r y len gt h ). Th e h igh es t va lu es of t h e p r es s u r e lea d t o u n s t a b le r egim e of t h e d is ch a r ge. Wit h t h e p la t e a t t h e s a m e p ot en t ia l va lu e t h a n t h e a n od e, t h e p ower of t h e d is ch a r ge s u s t a in in g s u p p ly is p lot t ed vs t h e elect ron b ea m cu r r en t collected b y th e p la t e. Th e lowes t va lu es of t h e GDE S p r es s u r e lea d t o a p oor em is s ion efficien cy, t h e la t t er in cr ea s in g with t h e p r es s u r e. In con s equ en ce, op er a t in g con d it ion s of d is ch a r ge a r e ch os en on th e r igh t of Pa s ch en 's cu r ve m in im u m a n d with lower p ot en t ia l va lu es of t h e d is ch a r ge s u s t a in in g s u p p ly. E m is s ion efficien cy ob t a in ed is ca 0 .0 3 µ A/ m W. Th e d is t r ib u t ion of elect r on k in et ic en er gy is es t im a t ed b y va r yin g th e p ola r is a tio n of p ot en t ia l a p p lied a cr os s t h e a n od e a n d t h e collect ion p la t e. Th e elect r on k in et ic en ergy r a n ges fr om zer o s om e t en s of eV. By con t r ollin g t h e em is s ion cu r r en t a n d en ergy k in etic of elect ron s , ion is a tion efficien cy of s elect ed m olecu les ca n b e in cr ea s ed . 1 2 R. A. Dugdale, J. T. Maskrey, S. D. Ford, P. R. Harmer, and R. E. Lee, Journal of Materials Science 4 (1969) 323-335. Gao, Q. Song, R. J. Noll, J. Duncan, R. G. Cooks, and Z. Ouyang, Journal of Mass Spectrometry 42 (2007) 675-680. INSTRUMENTATION ET MESURE EN LIGNE DU RELÂCHEMENT DE PRODUITS DE FISSION GAZEUX PAR SPECTROMÉTRIE DE MASSE EN LABORATOIRE RADIOCHIMIE. Elodie GUIGUES [email protected] Directeur et co-directrice : Yves ZEREGA, Aurika JANULYTE Co-encadrant : Yves PONTILLON (CEA) Aix Marseille Univ (AMU), LISA EA4672, équipe IPCN (Instrumentation des procédés Physico Chimiques et Nucléaires). Avenue Escadrille Normandie-Niemen, Bâtiment MADIREL, 13397 Marseille Cedex 20. Le travail présenté est exécuté dans le cadre d'un programme de recherche commun entre le CEA de Cadarache et Aix Marseille Université. Le but est de développer un spectromètre de masse qui sera implanté en ligne en sortie de l'installation MERARG (Moyen de Recuit.....) de Cadarache. L'installation MERARG est consacrée à l'étude de mesure de relâchement de gaz de fission des combustibles nucléaires (H2, He, Kr, Xe). Le spectromètre de masse va permettre de mesurer les cinétiques de relâchement des gaz de fission afin d'avoir une meilleure compréhension de la dynamique de relâchement de gaz de fission du combustible lors de transitoires thermiques (situation accidentelle ou incidentelle). Selon le procédé MERARG, le spectromètre doit remplir les conditions suivantes: • L'échantillonnage des gaz à 1-2 bars • L’analyse en ligne à savoir les mesures de cinétique en temps réel • La détection de faibles concentrations (ppm) dans un gaz porteur argon, pour les isotopes du krypton et du xénon ainsi que les masses 2 et 4 u. Le dispositif d'échantillonnage a pour but d'induire une chute de pression entre la ligne de balayage de MERARG et le spectromètre de masse. Il est composé d'un dispositif d'échantillonnage en deux étapes comprenant une entrée par fuite capillaire puis par fuite moléculaire associées à un dispositif de pompage à deux étages. Les pertes de charge, la conductance et les débits sont estimés à la fois pour le fonctionnement du spectromètre de masse et pour la récupération de gaz d'échappement car radioactif. La ségrégation en masse introduite par ce dispositif est aussi envisagée afin de répondre au mieux aux mesures de concentration entre les masses 2 et 150 u. Les étapes de qualification du spectromètre de masse sont actuellement menées, elles son réalisées avec une bouteille de gaz étalon contenant chacune des espèces recherchées, à différentes concentrations dans un gaz porteur d'argon. Cette étape est essentiellement consacrée à l'étalonnage en masse, la résolution en masse et la quantification sur différentes gammes de masse afin d'estimer les seuils limites des concentrations mesurables par le dispositif. Analyse du lait en poudre par Spectroscopie du plasma induit par laser. Hammami Afef [email protected] 1 2 Aix-Marseille Université, CNRS, Laboratoire LP3 et Université de Tunis El Manar-Laboratoire LSAMA 1 2 Directeurs de Thèse : Jörg Hermann et Souad Lahmar L'analyse de la composition chimique des aliments est nécessaire pour évaluer les risques sanitaires [1]. Par rapport aux techniques classiques, la spectroscopie du plasma induit par laser (LIBS) est prometteuse pour le contrôle des qualités des aliments [2,3], car elle permet l'analyse rapide d'échantillons. Figure : Spectre expérimental (en noir) et théorique (en rouge) du plasma produit sur pastille du lait sous air. Délai d’impulsion 300 ns, porte 100 ns. Nous rapportons dans ce travail le diagnostic du plasma à la surface du lait de bébé en poudre. La densité électronique a été déduite de l’élargissement Stark et la température du plasma a été déterminée à partir des intensités relatives des raies spectrales. Les spectres expérimentaux ont été comparés à la luminance spectrale calculée pour un plasma uniforme en équilibre thermodynamique local. Les résultats indiquent une densité d'environ 2.1017cm3 et une température de l'ordre de 13000K. En comparant les températures rotavibrationnelles des spectres moléculaires à la température d'excitation électronique des atomes, nous avons trouvé des valeurs proches ce qui prouve que nous sommes proches de l'ETL. En plus des éléments majoritaires C, H, O, K, Mg, Ca et le P, nous avons pu détecter le Fe comme élément trace. La comparaison du spectre mesuré avec le spectre théorique nous a également permis d’évaluer des limites de détection. Des travaux sont en cours pour améliorer la sensibilité de l’analyse. Références 1. Y. Godwal et al. , Spectrochimica Acta Part B 62 (2007) 1443-1447. 2. Lei WQ, El Haddad J, Motto-Ros V, Gilon-Delepine N, Stankova A, Ma QL, Bai XS, Zheng LJ, Zeng HP, Yu J, Anal Bioanal Chem (2011) 400:3303-3313. 3. S. Beldjilali, D. Borivent, L. Mercadier, E. Mothe, G. Clair, J. Hermann, Spectrochim. Acta Part B 65 (2010) 727-733. FEMTOSECOND LASER SYNTHESIS OF ULTRAPURE NANOMATERIALS FOR BIOLOGICAL APPLICATIONS Ksenia MAXIMOVA Laboratoire Lasers Plasmas et Procédés Photoniques (LP3) 163 avenue de Luminy, case 917 13288 Marseille cedex 9, France Directeur de thèse : Andrei KABASHIN In the last years there is an explosive growth of the interest to inorganic nanoparticles as a contrast agent for biological imaging and as photosensitizers and vectors in therapeutics. We present a method of ultra-fast laser-assisted synthesis of some promising nanomaterials for biological applications. Unlike traditional chemical synthetic routes implying the usage of chemicals causing secondary toxicity and therefore limiting in-vivo application prospects of the nanoparticles, our laser-based method enables the production of pure nanoparticles, free of surfactants and toxic byproducts. Our approach includes two steps: 1) generation of a raw suspension of micro- and nanoparticles by either mechanical milling or preliminary ablation of a target; 2) ultra-fast laserinduced fragmentation from the suspended colloids leading to the formation of stable, nonaggregated, low-size dispersed and crystalline nanoparticles. Such approach benefits form 3Dgeometry of laser ablation and allows us to maintain homogeneous conditions throughout the whole process of nanoclasters formation. Indeed, absence of significant concentration gradients offers us better control over structural characteristics of produced nanoparticles. In particular, we show the possibility of tuning the mean size and the thickness of an oxide shell of Si nanoparticles by varying the initial concentration of microparticles and the amount of dissolved oxygen. We also developed efficient laser ablation and laser fragmentation method for the synthesis of size-tunable gold NPs and their further functionalization with polymers and anticancer agents. Due to superior optic properties as well as high purity and complete biocompatibility of laser-synthesized nanoparticles, the proposed approach offers efficient and versatile tools for the synthesis of nanomaterials for biomedical applications. Fabrication of copolymer-embedded titania nanotubes as a negative electrode for 3D Li-ion microbatteries Nareerat PLYLAHAN Laboratoire Lasers, Plasmas et Procédés Photoniques (LP3) Campus de Luminy, C. 917, 163, avenue de Luminy, 13288 Marseille cedex 9 Director: Thierry DJENIZIAN Co-director: Philippe KNAUTH Nowadays, microbatteries are in demand as a power source to drive small devices such as smartcards, medical implants, sensors, etc. Due to their nanostructure, titania nanotubes (TiO2nt) as a negative electrode for Li-ion batteries offer good rate capability, capacity and cycling performance 1–4. In order to fabricate 3D Li-ion microbatteries, conventional liquid electrolytes for Li-ion batteries (e.g. LiPF6) need to be replaced by solid electrolytes such as polymer electrolytes. In the current work, the conformal electrodeposition of polymethyl methacrylate with side chain of polyethylene oxide (PMMA-PEO copolymer) into TiO2nt has been achieved. Self-organized TiO2nt can be fabricated by anodization of Ti foil in an electrolyte containing fluoride ion. Pt foil was used as a counter electrode. The electrodeposition of the polymer electrolyte PMMA(PEO)n (n = 3, 5, 12 or 475) was done by cyclic voltammetry in the potential window of -0.25 to -1.75V vs Ag/AgCl 3M KCl. Figure 1 shows the copolymer-embedded TiO2nt. The top ends of the nanotubes remain open after the deposition of the polymer electrolyte. This characteristic facilitates the full fabrication of 3D Li-ion microbatteries by filling a cathode material such as LiNi0.5Mn1.5O4 inside hollow spaces in the copolymer-embedded TiO2nt. (a) (b) Figure 1. (a) Top view and (b) cross-sectional view of the copolymer-embedded TiO2nt4 __________________________________________________________________________________________ 1. 2. 3. 4. N. A. Kyeremateng, C. Lebouin, P. Knauth, and T. Djenizian, Electrochimica Acta, 2012, 88, 814–820. N. A. Kyeremateng, V. Hornebecq, H. Martinez, P. Knauth, and T. Djenizian, Chemphyschem : a European journal of chemical physics and physical chemistry, 2012, 13, 3707–13. N. A. Kyeremateng, F. Dumur, P. Knauth, B. Pecquenard, and T. Djenizian, Electrochem. Commun., 2011, 13, 894–897. N. Plylahan, N. A. Kyeremateng, M. Eyraud, F. Dumur, H. Martinez, L. Santinacci, P. Knauth, and T. Djenizian, Nanoscale Res. Lett., 2012, 7, 349. JSED2013 : Journées Scientifiques de l'Ecole Doctorale Physique et Sciences de la Matière "Abaissement de la dimensionnalité dans des solutions solides Mg2(Si,Sn) : Impact sur les propriétés de transport électronique calculées par DFT” Hilal Balout1,2, Pascal Boulet1, Marie-Christine Record2 1- MADIREL, UMR 7246 CNRS - Université Aix-Marseille, av Escadrille Normandie-Niemen, 13397 Marseille Cedex 20, France 2- IM2NP, UMR 7334 CNRS - Université Aix-Marseille, av Escadrille NormandieNiemen, Case 142, 13397 Marseille Cedex 20, France Une des voies explorées pour augmenter le facteur de mérite (ZT) d’un matériau thermoélectrique est l’abaissement de la conductivité thermique soit en introduisant des défauts dans le matériau, soit en utilisant des matériaux à structures complexes ou des matériaux cages, ou bien par nano-structuration. Cependant la conductivité thermique et la conductivité électrique sont liées. Il est donc difficile d’ajuster indépendamment les propriétés définissant le facteur de mérite. Une autre voie d’investigation est l’abaissement de la dimensionalité qui rend partiellement indépendantes les propriétés intervenant dans le facteur de mérite et qui permet, en modifiant la densité d’états électroniques du matériau, d’augmenter l’effet Seebeck. L’objectif du travail présenté est de déterminer l’impact de l’abaissement de la dimensionalité sur les propriétés de transport électronique de solutions solides Mg2(Si,Sn). Nous avons pour cela réalisé des calculs DFT sur des solutions solides massives à différentes compositions en étain puis nous avons comparé les résultats de ces calculs à ceux obtenus sur des films minces de solutions solides présentant également des compositions différentes. Les calculs DFT ont été effectués avec le programme Quantum Espresso, Les effets d’échange-corrélation ont été pris en compte en utilisant la fonctionnelle Perdew-BurkeErnzerhof dans l’approximation du gradient généralisé. Un ensemble d’ondes planes a été utilisé pour développer la fonction d’ondes et le cut-off utilisé pour l'énergie cinétique est de 30 Ry. Les interactions entre les électrons de cœur et les ions et les électrons de valence ont été modélisées avec des pseudopotentiels ultramous de type Vanderbilt. Les calculs de propriétés de transport ont été réalisés dans le cadre de la théorie de Boltzmann avec l'approximation du temps de relaxation constant. Synthèse de nanocomposites mésoporeux méso silice/nanoparticules de nickel Déborah Fernand* Laboratoire MADIREL – CNRS UMR 7246 Equipe Séparation et Stockage tockage de Gaz (S2G) Aix-Marseille Université, Centre de St Jérôme F-13397 13397 Marseille Cedex 20 France Thèse dirigée par: Virginie Hornebecq et Philip Llewellyn L’objectif de l’étude est d’élaborer un matériau de grande aire spécifique fonctionnalisé par des nanoparticules de métaux de transition. transition Dans ns ce projet, nous nous sommes plus particulièrement intéressés à l’incorporation de nanoparticules de nickel. En effet, l’analyse des travaux antérieurs portant sur ce sujet met en évidence des ambigüités concernant le caractère métallique des particules incorporées. Dans un premier temps, différentes méthodes de synthèse de particules et nanoparticules de Ni ont été mises en place. En partant de l’acétate de nickel, d’un intermédiaire amorphe ou de nanoparticules de NiO, nous avons testé deux méthodes de réduction : par voie liquide avec de l’hydrazine et par voie gazeuse à l’aide d’un mélange Ar/H2. Comme les enthalpies d’adsorption de H2 à 77K sur une surface de Ni métallique et de NiO sont très différentes, nous avons utilisé la calorimétrie d’adsorption de H2 à 77K dans l’objectif de sonder la surface des poudres synthétisées. Ainsi, à l’issue de cette première étape, nous avons pu sélectionner les méthodes de synthèse qui conduisent à l’obtention de Ni métallique. Ces dernières ont ensuite été appliquées es pour fonctionnaliser des silices mésoporeuses organisées. organisée Les silices mésoporeuses ont été synthétisées par la méthode sol--gel. Puis, les nanoparticules de nickel ont été incorporées au sein de ces matrices ces par imprégnation de l’acétate tate de Ni suivie de la procédure déterminée précédemment. précédemment Les matrices mésoporeuses, avant et après incorporation des nanoparticules de Ni, ont été caractérisées par des techniques conventionnelles telles que la manométrie d’adsorption/désorption d’azote à 77K, la microscopie électronique tronique à transmission (TEM). La calorimétrie d’adsorption de H2 à 77K, nous a permis de vérifier la présence d’une surface de Ni métallique. Le nanocomposite final Ni NPs@Silice obtenu peut être utilisé utilisé dans différents domaines scientifiques tels que la catalyse, l’optique, l’électronique, le stockage ou la séparation de gaz. * Contact : [email protected] [email protected] DEVELOPPEMENT DE BATTERIES AU LITHIUM TOUT SOLIDE. KUBANSKA Agnieszka Equipe INPACT, Laboratoire MADIREL UMR7246, CNRS-Université d'Aix-Marseille, 13397 Marseille cedex 20. Directeur de Thèse : Renaud BOUCHET, Co-Directeur : Laurence TORTET Les batteries au lithium tout solide présentent un grand intérêt pour le développement de systèmes de stockage de grande densité (volumique) d’énergie et sûrs notamment en raison de leur excellente stabilité thermique par rapport aux technologies lithium-ions à électrolyte liquide. Cependant, avec l'épaisseur de la batterie, de fortes limitations cinétiques sont observées, en raison i/ de la relativement faible mobilité des ions dans les matériaux inorganiques et ii/ de la présence de joints de grains généralement bloquants aux interfaces solide/solide. De plus au cours de la charge/décharge de la batterie, les matériaux actifs (réservoir de l’énergie) changent de volume ce qui induit des contraintes mécaniques interfaciales qui provoquent la formation de micro-fractures très dommageables à la cyclabilité de ces systèmes. L’objectif de ma thèse se situe dans cette perspective et porte sur la réalisation et la caractérisation de batteries inorganiques monolithiques en utilisant une méthode de frittage en pleine expansion : le frittage Flash ou Spark Plasma Sintering (SPS). Ce travail s’inscrit dans le cadre d’une ANR (SOLIBAT), fruit d’une collaboration entre 3 laboratoires ; le LRCS à Amiens où est réalisée la synthèse des matériaux, le CEMES où est réalisée la mise en forme par SPS et le Madirel à Marseille, avec également un partenaire industriel, la SAFT. Le principal objectif scientifique de ma thèse est de trouver des relations, pour des matériaux donnés, entre la texture des poudres initiales, la microstructure des céramiques obtenues par frittage SPS et les propriétés électriques (électronique et ionique) ainsi que les performances électrochimiques. Cette approche science des matériaux apporte une connaissance fondamentale pour l’optimisation de l’ensemble des étapes de la chaîne qui va de la synthèse des matériaux jusqu’au système. Par exemple la formulation des Électrodes composites est fondamentale car ce sont de multi-matériaux qui doivent présenter de nombreuses fonctionnalités: 1) une grande densité d'énergie apportée par une teneur élevée en matière électrochimiquement active (AM), 2) une bonne percolation électronique (resp. ionique) pour collecter de façon efficace et homogène dans le volume de l’électrode les électrons (les ions) enfin 3) une bonne tenue mécanique avec des interfaces MA/Electrolyte stables afin d'assurer la durée de vie des cellules. Considérant toutes les limitations et exigences notamment celle liée à la stabilité chimique des matériaux au cours du traitement thermique par SPS, nous avons choisi des phosphates: le Li 1.5Al0.5Ge1.5 (PO 4) 3 (LAG) de structure NASICON comme électrolyte, le LiMPO4 (avec M=Fe, Co, Mn) comme MA d’électrode positive et le Li 3 V2 (PO4) 3 (LVP) comme MA à la fois d’électrode positive et négative. Mon travail jusqu'à présent se décompose en deux parties. 1. Synthèse du LAG et caractérisation : Nous avons mis au point un procédé permettant la synthèse du LAG en grande quantité (par lots de 20 g) et de façon reproductible, à partir d’un verre de même composition. Des cristaux de taille sub-micrométrique et de haute pureté chimique sont mis en évidence par MEB et DRX. Leur taille et leur cristallinité varient en fonction du traitement thermique appliqué sur le verre. Des traitements post synthèse par broyage sont menés afin de dés agglomérer les poudres et de modifier la chimie de surface pour diminuer les résistances aux joint de grains. Les poudres ainsi obtenues sont ensuite frittées par SPS puis les propriétés électriques des céramiques sont caractérisées par spectroscopie d’impédance. 2. Caractérisations électrochimiques de batteries. A) LVP/LAG/LVP : Dans le but d’optimiser la formulation des cellules LVP/LAG/LVP, nous avons étudié 1/ l’effet de la composition de l’électrode et 2/l’influence de l’épaisseur des électrodes et de l’électrolyte sur les performances électrochimique des batteries. B) Nous avons développé un montage permettant d’analyser l’influence de la température jusqu’à 300°C sur les performances. C) Des tests sur une nouvelle composition LCP/LAG/LVP : Le but d'utiliser LiCoPO4 est d'augmenter la tension de la batterie pour améliorer augmenter la densité d'énergie. En effet le LCP présente une tension de 4.9V (vs Li+/Li) contre 3.5 V(Vs Li+Li) pour le LFP et LVP. Proton conducting membranes for Fuel Cells Riccardo Narducci 1 1 Università di Roma “Tor Vergata”, Dipartimento di Scienze e Tecnologie Chimiche, Via della Ricerca Scientifica 1, 00133 Roma, Italy Prof. ssa Maria Luisa Di Vona1 ; Prof. Philippe Knauth2 2 Universitè d’Aix-Marseille, Madirel UMR 7246, Centre de St Jérome, 13397 Marseille CEDEX 20, France PhD work is taking place both in the Department of Chemical Science and Technology of the University of Rome Tor Vergata and at Madirel Laboratory of the Universitè d’Aix-Marseille. Two kinds of ionomers were used: aromatic and perfluorinated polymers. Aromatic polymers. At the Department of Chemical Science and Technology were synthesized SPEEK, SPPSU, SPES ionomers and other aromatic polymers. Ionomers were characterized with different techniques including 1H and 13C NMR. Casting procedures were carried out with petri dish or Dr. Blade like apparatus. During the casting procedures heat treatments at different temperatures and times were carried out to obtain crosslinked materials. Crosslinked membranes were characterized by measurements of the water uptake at room temperature and 100 °C in liquid water and by the counter pressure index nc. Kinetics of water uptake were also studied. Potentiometric titrations were performed to determine the values of the Ion Exchange Capacity. To improve the elasticity of membranes and to facilitate the hot-pressing procedure, we studied the use of plasticizers such as naphthalene sulfonate, dimethyl sulfoxide (DMSO) and tributyl phosphate (TBF). The procedures have also been applied to membranes used in the European Project LoliPEM, (membranes provided by FumaTech). Perfluorinated polymers. Tests were carried out heating (annealing) different types on Nafion 1100 using heat treatments from 120 ° C to 180 ° C for several hours (12-750) or using annealing agents like DMSO and TBF, with a new procedure which involves the use of little quantities of DMSO at a temperature of 140 ° C for several days (17). This treatment results in a stabilization of membranes, with an increase of stability of approximately 20 °C. The measurements carried out on these stabilized membranes, by nc and related nc/T plots, also confirmed with DSC measurements, show an increase in the degree of crystallinity of the material. For Nafion 1100 were also prepared layered phases and studied their behavior through nc/T plots. At the Laboratoire de Chimie Provence (Madirel) of the Aix-Marseille Université I have done both mechanical tests and conductivity measurements for different membranes including membranes of LoliPEM project. A particular attention was placed to membranes with plasticizers inside. Conductivity measurements were obtained by impedance techniques using a Swagelok device at a temperature of 25 ° C and at 100% of relative humidity. Membranes were previously swelled at 100 ° C in liquid water for 24 hours. Different temperatures were tested up to 80 °C. σ/T plots were elaborated and the memory effect of the material under study was quantified. We tried to minimize the measurement errors by improving the device provided. The life time and the current at different temperatures and RH were measured. The mechanical tests were performed on membranes not swelled in water at room RH (40-50%) and T. In particular we measured Young's modulus, elongation at break, and maximum stress. Etude de l’implantation de deutérium dans des composants face au plasma constituants du Tokamak ITER. Othmen SAIDI PIIM Faculté des Sciences de Saint-Jérome, Case 241 Avenue de l'Escadrille Normandie-Niemen 13397 Marseille Cedex 20 Directeur de thèse : Thierry ANGOT Résumé : Le projet ITER est destiné à valider scientifiquement et techniquement la fusion thermonucléaire contrôlée par confinement magnétique. L’un des enjeux majeurs pour ce tokamak est lié à l’interaction plasma paroi. Lors de l’opération d’Iter des flux importants de particules vont être libérés du plasma, implantés puis diffusés dans les composants face au plasma(CFP). Le Tritium, l’un des deux éléments principaux du fuel de la réaction, est un élément radioactif. Son piégeage dans les parois constitue un problème crucial pour des raisons de sureté. En effet son inventaire sera très limité. De plus la quantité de fuel piégé influe fortement sur la densité du plasma de fusion. Il est donc essentiel de connaître la quantité de tritium piégé dans les CFP et de déterminer les procédés de piégeages dans les couches déposées et dans les composés métalliques. Différentes techniques sont envisagées au cours de cette étude, dont nous pouvons citer: La spectroscopie par thermo-désorption qui consiste à provoquer la désorption des molécules adsorbées sur une surface en chauffant celle-ci sous basse pression La NRA (Nuclear Reaction Analysis) qui permet de définir le profil de piégeage dans le matériau L’AFM, une technique de microscopie à sonde locale qui permet de visualiser la topographie d’une surface La première partie de mon travail de thèse a été consacré à l’amélioration et l’optimisation du notre dispositif expérimental. La deuxième partie a concerné la caractérisation et la préparation du substrat, nous avons réussi à développer une procédure de désoxydation des surfaces de tungstène adapté à notre dispositif expérimental. A l’heure actuelle, nous sommes dans l’étape de l’étude de la rétention de deutérium dans le tungstène. Nous sommes intéressés à l’étude de l’effet des faibles fluences allant de 10+18D.m-2 jusqu’à 10+20D.m-2 sur le mécanisme de la rétention. En plus l’effet du temps d’attente entre l’implantation et l’analyse de la spectroscopie par thermo-désorption a été étudié. Les dernières expériences semblent montrer une augmentation de façon linéaire de la rétention en fonction de la fluence. Il a été observé aussi que la quantité de deutérium pièges diminue considérablement en augmentant le temps d’attente sous vide. Le processus de la désorption commence même à température ambiante. Nous pensons que le deutérium implanté diffuse lentement vers la surface avant peut-être de se recombiner pour désorber. Ceci peut avoir des implications à court et moyen termes sur le bilan concernant la rétention des matériaux faces au plasma des parois de réacteurs de fusion.