453 resultados para Quotas d’émission


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le recours au plasma pour stériliser des dispositifs médicaux (DM) est un domaine de recherche ne datant véritablement que de la fin des années 1990. Les plasmas permettent, dans les conditions adéquates, de réaliser la stérilisation à basse température (≤ 65°C), tel qu’exigé par la présence de polymères dans les DM et ce contrairement aux procédés par chaleur, et aussi de façon non toxique, contrairement aux procédés chimiques comme, par exemple, l’oxyde d’éthylène (OEt). Les laboratoires du Groupe de physique des plasmas à l’Université de Montréal travaillent à l’élaboration d’un stérilisateur consistant plus particulièrement à employer les effluents d’une décharge N2-%O2 basse pression (2-8 Torrs) en flux, formant ce que l’on appelle une post-décharge en flux. Ce sont les atomes N et O de cette décharge qui viendront, dans les conditions appropriées, entrer en collisions dans la chambre de stérilisation pour y créer des molécules excitées NO*, engendrant ainsi l’émission d’une quantité appréciable de photons UV. Ceux-ci constituent, dans le cas présent, l’agent biocide qui va s’attaquer directement au bagage génétique du micro-organisme (bactéries, virus) que l’on souhaite inactiver. L’utilisation d’une lointaine post-décharge évite du même coup la présence des agents érosifs de la décharge, comme les ions et les métastables. L’un des problèmes de cette méthode de stérilisation est la réduction du nombre de molécules NO* créées par suite de la perte des atomes N et O, qui sont des radicaux connus pour interagir avec les surfaces, sur les parois des matériaux des DM que l’on souhaite stériliser. L’objectif principal de notre travail est de déterminer l’influence d’une telle perte en surface, dite aussi réassociation en surface, par l’introduction de matériaux comme le Téflon, l’acier inoxydable, l’aluminium et le cuivre sur le taux d’inactivation des spores bactériennes. Nous nous attendons à ce que la réassociation en surface de ces atomes occasionne ainsi une diminution de l’intensité UV et subséquemment, une réduction du taux d’inactivation. Par spectroscopie optique d’émission (SOE), nous avons déterminé les concentrations perdues de N et de O par la présence des matériaux dans le stérilisateur, ainsi que la diminution de l’émission UV en découlant. Nous avons observé que cette diminution des concentrations atomiques est d’autant plus importante que les surfaces sont catalytiques. Au cours de l’étude du phénomène de pertes sur les parois pour un mélange N2-%O2 nous avons constaté l’existence d’une compétition en surface entre les atomes N et O, dans laquelle les atomes d’oxygènes semblent dominer largement. Cela implique qu’au-delà d’un certain %O2 ajouté à la décharge N2, seuls les atomes O se réassocient en surface. Par ailleurs, l’analyse des courbes de survie bi-phasiques des micro-organismes a permis d’établir une étroite corrélation, par lien de cause à effet, entre la consommation des atomes N et O en surface et la diminution du taux d’inactivation des spores dans la première phase. En revanche, nous avons constaté que notre principal agent biocide (le rayonnement ultraviolet) est moins efficace dans la deuxième phase et, par conséquent, il n’a pas été possible d’établir un lien entre la diminution des concentrations et le taux d’inactivation de cette phase-là.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette étude est de déterminer qui paie pour le risque de pollution et par conséquent de vérifier si le principe du pollueur-payeur est effectivement mis en œuvre dans le domaine de la gestion du risque environnemental. Il s’agit d’examiner le degré de mutualisation de la gestion du risque dans différentes législations particulière. Les payeurs peuvent a priori se classer dans quatre catégories : les personnes dont l’activité contribue au risque de pollution, les compagnies d’assurance qui acceptent d’assurer ces personnes, les organismes ou autorités publics et les tiers. Divers exemples issus de la législation belge ou européenne seront examinés afin de déterminer s’ils sont conformes à la lettre et/ou à l’esprit du principe pollueur-payeur. Il s’agit notamment de la responsabilité civile, de la responsabilité environnementale, de la gestion des déchets et du marché de quotas d’émissions de gaz à effet de serre. Les techniques de responsabilité qui interviennent après que le dommage ait lieu et requièrent la démonstration de l’existence d’un lien de causalité ne permettent pas toujours d’assurer pleinement la fonction préventive du principe du pollueur-payeur. Elles ne constituent pas des instruments adéquats de gestion de la pollution diffuse ou chronique. En conséquence, des techniques de mutualisation de la gestion du risque environnemental se sont développées. Le recours à ces techniques de mutualisation (par le recours à l’assurance, aux fonds publics financés par la fiscalité environnementale ou aux marchés de droit d’émissions) est-il conforme au principe pollueur-payeur et permet-il d’atteindre l’objectif d’un niveau élevé de protection de l’environnement ? L’effet dissuasif du principe pollueur-payeur n’est-il pas amoindri par la mutualisation ? L’article montre que la définition du principe pollueur-payeur par la Cour de Justice de l’Union européenne est centrée sur la contribution au risque de pollution ce qui permet de recourir aux techniques de mutualisation de la gestion du risque tout en respectant le Traité sur le fonctionnement de l’Union européenne. 

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous savons que la grande majorité des étoiles WC9 produit de la poussière à base de carbone. Cette dernière doit se former dans des zones de très haute densité afin de survivre à l’environnement hostile qu’est celui du vent d’une étoile WR. Les étoiles WC appartenant à un système binaire WR + O produisent de la poussière quand les vents des deux étoiles entrent en collision et forment une zone de choc pouvant augmenter la densité du gaz d’un facteur 1000. Par contre, plusieurs étoiles WC9 n’ont, à ce jour, montré aucun signe de la présence d’un compagnon. Le but du projet est de tenter d’identifier un mécanisme alternatif responsable de la formation de poussière dans les étoiles WC9 n’appartenant pas à un système binaire. Nous présentons les résultats d’une campagne d’observation visant à caractériser la variabilité spectroscopique d’un échantillon de huit étoiles WC9 et une étoile WC8d. Nos résultats indiquent que la majorité des étoiles montrent des variations à grande échelle dans la raie d’émission C III 5696, soit à un niveau d’au moins 5% du flux de la raie et que les structures dans le vent ont une dispersion de vitesses de l’ordre de 150-300 km/s. De manière générale, les variations de vitesse radiales sont anti-corrélées avec le coefficient d’asymétrie de la raie, ce qui semble infirmer la présence d’un compagnon. Des observations en photométrie de l’étoile WR103 montrent une période de 9.1 ± 0.6 jours qui s’accorde avec les variations spectroscopiques et qui ne semble pas, de manière évidente, d’origine binaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le cadre de la Western Climate Iniative, le Québec a déployé en 2012, un système de plafonnement et d’échange de droits d’émission de gaz à effet de serre (SPEDE). Il s’agit de l’un des premiers régimes de ce type en Amérique du Nord et celui-ci pourrait à terme, constituer l'un des maillons d’un marché commun du carbone à l’échelle du continent. Toutefois, le SPEDE appartient à une catégorie d’instruments économiques de protection de l’environnement encore peu connue des juristes. Il s’inscrit en effet dans la régulation économique de l’environnement et repose sur des notions tirées de la théorie économique, dont la rareté, la propriété et le marché. La thèse s’insère donc dans le dialogue entre juristes et économistes autour de la conception et de la mise en œuvre de ce type d’instrument. Afin d’explorer son architecture et de révéler les enjeux juridiques qui le traversent, nous avons eu recours à la méthode de l’analyse économique du droit. Celle-ci permet notamment de montrer les dynamiques d'incitation et d’efficacité qui sont à l'œuvre dans les règles qui encadrent le SPEDE. Elle permet également à donner un aperçu du rôle décisif joué par la formulation des règles de droit dans l’opérationnalisation des hypothèses économiques sous-jacentes à cette catégorie d’instrument. L’exploration est menée par l’entremise d’une modélisation progressive de l’échange de droits d’émission qui prend en compte les coûts de transaction. Le modèle proposé dans la thèse met ainsi en lumière, de manière générale, les points de friction qui sont susceptibles de survenir aux différentes étapes de l'échange de droits d'émission et qui peuvent faire obstacle à son efficacité économique. L’application du modèle aux règles du SPEDE a permis de contribuer à l’avancement des connaissances en donnant aux juristes un outil permettant de donner une cohérence et une intelligibilité à l’analyse des règles de l’échange. Elle a ainsi fourni une nomenclature des règles encadrant l’échange de droits d’émission. Cette nomenclature fait ressortir les stratégies de diversification de l’échange, d’institutionnalisation de ses modalités ainsi que les enjeux de la surveillance des marchés, dont celui des instruments dérivés adossés aux droits d’émission, dans un contexte de fragmentation des autorités de tutelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prévalence de l’arthrose féline augmente fortement avec l’âge atteignant plus de 80% des chats de plus de 11 ans. L'arthrose induit une douleur chronique s’exprimant par des changements de comportements et une diminution de la mobilité. Il n'existe aucun outil validé pour évaluer la douleur chronique associée à l’arthrose chez le chat. Conséquemment, aucun traitement ciblant cette douleur n’a pu être validé. Notre hypothèse de recherche est que la douleur arthrosique chez le chat induit des handicaps fonctionnels, des changements neurophysiologiques et un état d'hypersensibilité qu'il faut évaluer pour quantifier de manière fiable cette douleur et ses répercussions sur la qualité de vie de l'animal. Nos objectifs étaient 1) de développer des outils adaptés aux chats mesurant les handicaps fonctionnels grâce à des outils cinématiques, cinétiques et de suivi de l'activité motrice ; 2) de caractériser les changements fonctionnels et neurophysiologiques secondaires à la douleur arthrosique et de tester avec ces outils un traitement analgésique à base d'anti-inflammatoire non stéroïdien ; 3) de développer une technique adaptée aux chats pouvant caractériser la présence du phénomène de sensibilisation centrale à l'aide d'une évaluation de la sommation temporelle mécanique ; 4) de tester la possibilité de mesurer le métabolisme glucidique cérébral par tomographie d’émission par positrons comme marqueur des changements supraspinaux secondaires à la chronicisation de la douleur. Grâce au développement d’outils de mesure de douleur chronique objectifs, sensibles et répétables nous avons caractérisé la douleur chez les chats arthrosiques. Ils présentent des signes de boiterie quantifiée par une diminution de l’amplitude de l’articulation ou par une diminution de la force verticale d’appui au sol et une diminution de l’activité motrice quotidienne. Ces deux derniers outils ont permis de démontrer qu’un anti-inflammatoire non stéroïdien (le méloxicam) administré pendant quatre semaines réduit la douleur arthrosique. De plus, grâce au développement de tests sensoriels quantitatifs et à l'utilisation d'imagerie cérébrale fonctionnelle, nous avons démontré pour la première fois que la douleur arthrosique conduisait à des modifications du système nerveux central chez le chat. Particulièrement, les chats arthrosiques développent le phénomène de sensibilisation centrale mis en évidence par un seuil de retrait aux filament de von Frey diminué (mesure réflexe) mais aussi par une facilitation de la sommation temporelle mécanique (mesure tenant compte de la composante cognitive et émotionnelle de la douleur). L'augmentation du métabolisme cérébral dans le cortex somatosensoriel secondaire, le thalamus et la substance grise périaqueducale, souligne aussi l'importance des changements liés à la chronicisation de la douleur. Un traitement analgésique adapté à l’arthrose permettra d’améliorer la qualité de vie des chats atteints, offrira une option thérapeutique valide aux praticiens vétérinaires, et profitera aux propriétaires qui retrouveront un chat actif et sociable. La découverte de l'implication du phénomène de sensibilisation central combiné à l'investigation des changements cérébraux secondaires à la douleur chronique associée à l'arthrose par imagerie fonctionnelle ouvre de nouvelles avenues de recherche chez le chat (développement et/ou validation de traitements adaptés à l'état d'hypersensibilité) et les humains (potentiel modèle naturel de douleur chronique associée à l'arthrose).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’imagerie médicale a longtemps été limitée à cause des performances médiocres des fluorophores organiques. Récemment la recherche sur les nanocristaux semi-conducteurs a grandement contribué à l’élargissement de la gamme d’applications de la luminescence dans les domaines de l’imagerie et du diagnostic. Les points quantiques (QDs) sont des nanocristaux de taille similaire aux protéines (2-10 nm) dont la longueur d’onde d’émission dépend de leur taille et de leur composition. Le fait que leur surface peut être fonctionnalisée facilement avec des biomolécules rend leur application particulièrement attrayante dans le milieu biologique. Des QDs de structure « coeur-coquille » ont été synthétisés selon nos besoins en longueur d’onde d’émission. Dans un premier article nous avons modifié la surface des QDs avec des petites molécules bi-fonctionnelles portant des groupes amines, carboxyles ou zwitterions. L’effet de la charge a été analysé sur le mode d’entrée des QDs dans deux types cellulaires. À l’aide d’inhibiteurs pharmacologiques spécifiques à certains modes d’internalisation, nous avons déterminé le mode d’internalisation prédominant. L’endocytose par les radeaux lipidiques représente le mode d’entrée le plus employé pour ces QDs de tailles similaires. D’autres modes participent également, mais à des degrés moindres. Des disparités dans les modes d’entrée ont été observées selon le ligand de surface. Nous avons ensuite analysé l’effet de l’agglomération de différents QDs sur leur internalisation dans des cellules microgliales. La caractérisation des agglomérats dans le milieu de culture cellulaire a été faite par la technique de fractionnement par couplage flux-force (AF4) associé à un détecteur de diffusion de la lumière. En fonction du ligand de surface et de la présence ou non de protéines du sérum, chacun des types de QDs se sont agglomérés de façon différente. À l'aide d’inhibiteur des modes d’internalisation, nous avons corrélé les données de tailles d’agglomérats avec leur mode d’entrée cellulaire. Les cellules microgliales sont les cellules immunitaires du système nerveux central (CNS). Elles répondent aux blessures ou à la présence d’inflammagènes en relâchant des cytokines pro-inflammatoires. Une inflammation non contrôlée du CNS peut conduire à la neurodégénérescence neuronale et est souvent observée dans les cas de maladies chroniques. Nous nous sommes intéressés au développement d’un nanosenseur pour mesurer des biomarqueurs du début de l’inflammation. Les méthodes classiques pour étudier l’inflammation consistent à mesurer le niveau de protéines ou molécules relâchées par les cellules stressées (par exemple monoxyde d’azote, IL-1β). Bien que précises, ces méthodes ne mesurent qu’indirectement l’activité de la caspase-1, responsable de la libération du l’IL-1β. De plus ces méthode ne peuvent pas être utilisées avec des cellules vivantes. Nous avons construit un nanosenseur basé sur le FRET entre un QD et un fluorophore organique reliés entre eux par un peptide qui est spécifiquement clivé par la caspase-1. Pour induire l’inflammation, nous avons utilisé des molécules de lipopolysaccharides (LPS). La molécule de LPS est amphiphile. Dans l’eau le LPS forme des nanoparticules, avec des régions hydrophobes à l’intérieure. Nous avons incorporé des QDs dans ces régions ce qui nous a permis de suivre le cheminement du LPS dans les cellules microgliales. Les LPS-QDs sont internalisés spécifiquement par les récepteurs TLR-4 à la surface des microglies. Le nanosenseur s’est montré fonctionnel dans la détermination de l’activité de la caspase-1 dans cellules microgliales activées par le LPS. Éventuellement, le senseur permettrait d’observer en temps réel l’effet de thérapies ciblant l’inflammation, sur l’activité de la caspase-1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une sonde électrostatique de Langmuir cylindrique a été utilisée pour caractériser une post-décharge d’un plasma d’ondes de surface de N2-O2 par la mesure de la densité des ions et électrons ainsi que la température des électrons dérivée de la fonction de distribution en énergie des électrons (EEDF). Une densité maximale des électrons au centre de la early afterglow de l’ordre de 1013 m-3 a été déterminée, alors que celle-ci a chuté à 1011 m-3 au début de la late afterglow. Tout au long du profil de la post-décharge, une densité des ions supérieure à celle des électrons indique la présence d’un milieu non macroscopiquement neutre. La post-décharge est caractérisée par une EEDF quasi maxwellienne avec une température des électrons de 0.5±0.1 eV, alors qu’elle grimpe à 1.1 ±0.2 eV dans la early afterglow due à la contribution des collisions vibrationnelles-électroniques (V-E) particulièrement importantes. L’ajout d’O2 dans la décharge principale entraîne un rehaussement des espèces chargées et de la température des électrons suivi d’une chute avec l’augmentation de la concentration d’O2. Le changement de la composition électrique de la post-décharge par la création de NO+ au détriment des ions N2+ est à l’origine du phénomène. Le recours à cette post-décharge de N2 pour la modification des propriétés d’émission optique de nanofils purs de GaN et avec des inclusions d’InGaN a été étudié par photoluminescence (PL). Bien que l’émission provenant des nanofils de GaN et de la matrice de GaN recouvrant les inclusions diminue suite à la création de sites de recombinaison non radiatifs, celle provenant des inclusions d’InGaN augmente fortement. Des mesures de PL par excitation indiquent que cet effet n’est pas attribuable à un changement de l’absorption de la surface de GaN. Ceci suggère un recuit dynamique induit par la désexcitation des métastables de N2 suite à leur collision à la surface des nanofils et la possibilité de passiver les défauts de surface tels que des lacunes d’azote par l’action d’atomes de N2 réactifs provenant de la post-décharge. L’incorporation d’O2 induit les mêmes effets en plus d’un décalage vers le rouge de la bande d’émission des inclusions, suggérant l’action des espèces d’O2 au sein même des nanostructures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de ce mémoire de maîtrise est de développer des outils de diagnostics non-invasifs et de caractériser in-situ les dérives de procédé dans un réacteur industriel utilisé en production pour la gravure profonde du silicium par le procédé Bosch. Ce dernier repose sur l’alternance d’un plasma de SF6 pour la gravure isotrope du Si et d’un plasma de C4F8 pour la passivation des parois dans l’optique d’obtenir des tranchées profondes et étroites. Dans un premier temps, nous avons installé une sonde courant-tension sur la ligne de transmission du signal rf au porte-substrat pour l’étude de son impédance caractéristique et un spectromètre optique pour l’étude de l’émission optique du plasma. Nos travaux ont montré que l’évolution temporelle de l’impédance constitue un excellent moyen pour identifier des changements dans la dynamique du procédé, notamment une gravure complète de la photorésine. De plus, à partir des spectres d’émission, nous avons pu montrer que des produits carbonés sont libérés du substrat et des parois lors de l’alternance passivation/gravure et que ceux-ci modifient considérablement la concentration de fluor atomique dans le plasma. Dans un second temps, nous avons développé un réacteur à « substrat-tournant » pour l’analyse in-situ des interactions plasma-parois dans le procédé Bosch. Nos travaux sur ce réacteur visaient à caractériser par spectrométrie de masse l’évolution temporelle des populations de neutres réactifs et d’ions positifs. Dans les conditions opératoires étudiées, le SF6 se dissocie à près de 45% alors que le degré de dissociation du C4F8 atteint 70%. Le SF6 est avant tout dissocié en F et SF3 et l’ion dominant est le SF3+ alors que le C4F8 est fragmenté en CF, CF3 et CF4 et nous mesurons plusieurs ions significatifs. Dans les deux cas, la chaîne de dissociation demeure loin d’être complète. Nous avons noté une désorption importante des parois de CF4 lors du passage du cycle de passivation au cycle de gravure. Un modèle d’interactions plasmas-parois est proposé pour expliquer cette observation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des arts et des sciences en vue de l’obtention du grade de Maître ès sciences (M. Sc.) en criminologie

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette thèse était d’étudier la dynamique de croissance par pulvérisation par plasma RF magnétron des couches minces à base d’oxyde de zinc destinées à des applications électroniques, optoélectroniques et photoniques de pointe. Dans ce contexte, nous avons mis au point plusieurs diagnostics permettant de caractériser les espèces neutres et chargées dans ce type de plasmas, notamment la sonde électrostatique, la spectroscopie optique d’émission et d’absorption, ainsi que la spectrométrie de masse. Par la suite, nous avons tenté de corréler certaines caractéristiques physiques de croissance des couches de ZnO, en particulier la vitesse de dépôt, aux propriétés fondamentales du plasma. Nos résultats ont montré que l’éjection d’atomes de Zn, In et O au cours de la pulvérisation RF magnétron de cibles de Zn, ZnO et In2O3 n’influence que très peu la densité d’ions positifs (et donc la densité d’électrons en supposant la quasi-neutralité) ainsi que la fonction de distribution en énergie des électrons (populations de basse et haute énergie). Cependant, le rapport entre la densité d’atomes d’argon métastables (3P2) sur la densité électronique décroît lorsque la densité d’atomes de Zn augmente, un effet pouvant être attribué à l’ionisation des atomes de Zn par effet Penning. De plus, dans les conditions opératoires étudiées (plasmas de basse pression, < 100 mTorr), la thermalisation des atomes pulvérisés par collisions avec les atomes en phase gazeuse demeure incomplète. Nous avons montré que l’une des conséquences de ce résultat est la présence d’ions Zn+ suprathermiques près du substrat. Finalement, nous avons corrélé la quantité d’atomes de Zn pulvérisés déterminée par spectroscopie d’émission avec la vitesse de dépôt d’une couche mince de ZnO mesurée par ellipsométrie spectroscopique. Ces travaux ont permis de mettre en évidence que ce sont majoritairement les atomes de Zn (et non les espèces excitées et/ou ioniques) qui gouvernent la dynamique de croissance par pulvérisation RF magnétron des couches minces de ZnO.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Éditorial du 24 septembre 2014

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notes d'analyse de la Chaire d’études politiques et économiques américaines

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option administration des services infirmiers

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis is a study of -Equality of Opportunity in Public Employment : Judicial Perspectives on Backwardness. This study is an attempt to evaluate the concept of backwardness and equality of opportunity in employment and to assess the judicial perspectives in relation to them. The study reveals that the recent review petition of the Constitution Bench did not assess the decision of Chakradhar and its import. The study reveals that the Indian judiciary could successfully locate and apply the above principles. It was-Justice Subba Rao's nascent attempt in Devadasan which marked the starting point of such a jurisprudential enquiry. Later Thomas developed the thoughts by a reading new meaning and content to equality provisions of the Constitution which included the elimination of inequalities as the positive content of Articles 14 and 16(1) and elevated reservation provision to the same status of equality principles under the Constitution. Soshit, Vasanth Kumar and Mandal supplemented further to the jurisprudential contents. In this process, the courts were guided by the theories of John Rawls, David Miller, Ronald Dworkin, Max Weber and Roscoe Pound. Thus there was a slow and steady process of transformation of the reservation provision. From an anti-meritarian, unenforceable and enabling provision, it reached a stage of equally relevant and explanatory part of fundamental right to equality. Mandal viewed it as a part of sharing of State power. Though this can be seen by rereading and re-joining thoughts of judges in this regard, the judicial approach lacks coherence and concerted efforts in evolving a jurisprudential basis for protective discrimination. The deliberations of the framers of the Constitution reveals that there was much confusion and indeterminacy with regard to the concept of Backwardness. The study shows that the judiciary has been keeping intact the framers’ expectation of having a reasonable quantum of reservation, preventing the undeserved sections from enjoying the benefit, avoiding its abuse and evolving a new criteria and rejecting the old ones.