94 resultados para Calculs parasismiques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente une série d'études qui visent la compréhension de la structure électronique de complexes de métaux de transition en employant diverses méthodes de spectroscopie. L'information sur la structure électronique aide à comprendre et développer des nouveaux matériaux, des nouvelles voies de synthèses, ainsi que des nouveaux modèles théoriques. Habituellement, afin d'explorer la structure électronique d'un système qui comporte en son centre un métal de transition, l'information fournie par les spectres d'un seul composé n'est pas suffisante. On étudie une série de composés similaires, qui ont le même métal de transition à un degré d'oxydation donné, ainsi que des ligands qui forment des liaisons de différentes forces et caractéristiques avec le métal. Cependant, ces changements, bien qu'on les désire de faible impact, créent une grande perturbation de la structure électronique visée par les études. Afin d'étudier en profondeur une seule structure électronique, nous employons une stratégie d'analyse moins perturbante. Nous appliquons une pression hydrostatique sur les complexes de métaux de transition. Cette pression perturbe le système suffisamment pour nous livrer davantage d'informations sur la structure électronique, sans la « dénaturer ». Afin d'étudier précisément ces systèmes perturbés, la technique d'application de pression est conjuguée, dans la littérature, aux diverses techniques de spectroscopie d'absorption UV-visible, de luminescence, ainsi que de diffusion Raman. Pour extraire un maximum d'informations de ces expériences, on emploie des techniques de calculs de structure électronique ainsi que de dynamique des noyaux. Dans cette thèse, on tente de mettre en lumière la structure électronique de composés de molybdène(IV), de platine(II) et palladium(II) à l'aide de la technique de pression couplée aux spectroscopies de luminescence et de diffusion Raman. Dans le chapitre 3, on observe un déplacement de la bande de luminescence de +12 cm-1/kbar entre la pression ambiante et 25 kbar pour le complexe trans-[MoOCl(CN-t-Bu)4]BPh4, dont le centre métallique molybdène(IV)est de configuration électronique 4d2. Il s'agit de la première variation positive observée pour un complexe de type métal-oxo. À des pressions plus élevées, la tendance s'inverse. Le maximum d'énergie de la bande de luminescence se déplace de -8 cm-1/kbar. Ce changement de variation présage d'une compétition interne entre les ligands situés sur les différents axes de l'octaèdre. À l'aide de calculs basés sur la théorie de la fonctionnelle de la densité, on propose un mécanisme pour expliquer ce phénomène. Au cours du chapitre 4, on étudie des complexes de palladium(II) et de platine(II) qui ont les mêmes ligands. Un de ces ligands est le 1,4,7-trithiacyclononane (ttcn). On constate qu'à basse pression le ligand est bidentate. Par contre, lorsque la pression augmente, on constate, par exemple à l'aide du complexe [Pt(ttcn)Cl2], qu'une interaction anti-liante supplémentaire se produit entre le ligand ttcn et le métal, ce qui change la nature de l'orbitale HOMO. On observe un déplacement de la bande de luminescence de -19 cm-1/kbar. Tel que pour le complexe de molybdène(IV), le déplacement de la bande de luminescence dépend de la compétition entre les ligands situés sur les différents axes de l'octaèdre. L'interaction liante entre l'ion platine(II) et l'atome de soufre axial est l'effet le plus plausible qui peut induire un déplacement de la bande de luminescence vers les basses énergies. Ceci nous indique que cette interaction domine. Par contre, pour ce qui est du complexe palladium(II), la compétition est remportée par d'autres effets, car le déplacement de la bande de luminescence est de +6 cm-1/kbar. Encore une fois, des calculs, basés sur la théorie de la fonctionnelle de la densité, aident à explorer les causes de ces observations en suggérant des explications corroborées simultanément par les diverses expériences de spectroscopie. Lors du chapitre 5, une étude plus exacte de la structure électronique ainsi que de la dynamique des noyaux de complexes de métaux de transition est présentée. En effet, les complexes de palladium(II) et de platine(II), de type [M(X)4]2-, ont une structure simple, très symétrique. Le premier état excité de ces molécules subit la distorsion Jahn-Teller. On veut établir un protocole de travail pour les expérimentateurs afin d'analyser des spectres de molécules pour lesquelles l'approximation de Born-Oppenheimer n'est pas valide. On utilise la théorie de la fonctionnelle de la densité dépendante du temps ainsi que le modèle de Heidelberg afin de décrire des effets non adiabatique. On tente d'établir l'influence des effets non adiabatiques sur les spectres de ce type de complexe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'Université Paris Diderot (Paris 7)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé L’augmentation de l’espérance de vie chez les patients atteints de fibrose kystique (FK) entraine une augmentation de la prévalence des anomalies de tolérance au glucose, soit l’intolérance au glucose (IGT) et le diabète (DAFK). En dépit du fait, que les anomalies de la tolérance au glucose soient associées à un mauvais prognostic, l’origine de ces troubles n’est pas encore clairement établie. Notre objectif était d’examiner le rôle de l’insulinopénie et de la résistance à l’insuline dans la détérioration de la tolérance au glucose dans une cohorte prospective observationelle patients FK non diabétique. Nos résultats démontrent une réduction marquée de la phase précoce de la sécrétion de l’insuline ainsi qu’une augmentation de l’aire sous la courbe de la glycémie (AUC) chez tous les groupes de patients. Nous avons aussi démontré qu’une variation de la sensibilité à l’insuline joue un rôle prépondérant dans les changements de catégorie de tolérance au glucose dans cette population. Finalement, il semblerait que l’augmentation de l’AUC du glucose et la réduction de la phase précose de la sécrétion d’insuline sont des meileurs prédicateurs du status clinique que les catégories de tolérance au glucose. Il existe plusieurs indices pour évaluer la sécrétion d’insuline et pourtant aucun n’a été validé chez les patients FK. Nous avons examiné la validité des index de la sécrétion de l’insuline dérivés de l’hyperglycémie provoquée par voie orale (HGPO) ainsi que des valeurs à jeun par rapport au test de référence. Alors que la plupart des index calculés à partir de l’HGPO corrèlent significativement avec les valeurs du test de référence, cela n’est pas le cas pour les index calculés à partir des valeurs à jeun. La validation de ces index nous permet d’évaluer la sécrétion de l’insuline prospectivement dans notre cohorte de FK à partir de l’HGPO, est un test recommandé pour le dépistage du DAFK. Les recommandations nutritionnelles suggèrent aux patients FK une diète comprenant environ 40% de lipides afin d’éviter la malnutrition. Nous avons examiné le profil lipidique des patients FK diabétiques et non diabétiques après une HGPO et un repas hyperlipidique (RT). Nos résultats démontrent que la FK est associée à des augmentations de l’excursion glycémique lors de l’HGPO ou d’un RT comparativement aux témoins. Cependant, le RT provoque 1) une plus faible excursion glycémique comparativement à l’HGPO ; 2) une meilleure suppression de la production hépatique de glucose et 3) l’excursion lipidique postprandiale des patients FK reste normale. Il est donc peu probable que les anomalies de la sécrétion de l’insuline par les cellules  soient secondaires à une lipotoxicité. Nous avons aussi examiné les taux d’adiponectine, une hormone sécrétée par le tissu adipeux et pouvant moduler l’action de l’insuline. Les niveaux d’adiponectine corrèlent négativement avec plusieurs facteurs présents chez les patients FK incluant l’IGT, l’inflammation et une adiposité centrale en dépit d'un faible poids corporel. Les patients FK ne présentaient aucune altération des taux d’adiponectine malgré la présence d’une résistance à l’insuline, une inflammation sub-clinique et de l’IGT. La FK apparaît donc comme une condition où il existe une discordance entre les taux d’adiponectine et la résistance à l’insuline ou l’inflammation. En conclusion la prévalence de l’IGT est élevée dans cette population caractérisée par une excursion glycémique anormalement plus élevée, due principalement à une altération de la sécrétion de l’insuline exacerbée par une résistance à l’insuline. Mots clés : Adiponectine, Hyperglycémie par voie oral (HGPO), intolérance au glucose, fibrose kystique, diabète, résistance à l’insuline, sécrétion de l’insuline.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes de traduction statistique à base de segments traduisent les phrases un segment à la fois, en plusieurs étapes. À chaque étape, ces systèmes ne considèrent que très peu d’informations pour choisir la traduction d’un segment. Les scores du dictionnaire de segments bilingues sont calculés sans égard aux contextes dans lesquels ils sont utilisés et les modèles de langue ne considèrent que les quelques mots entourant le segment traduit.Dans cette thèse, nous proposons un nouveau modèle considérant la phrase en entier lors de la sélection de chaque mot cible. Notre modèle d’intégration du contexte se différentie des précédents par l’utilisation d’un ppc (perceptron à plusieurs couches). Une propriété intéressante des ppc est leur couche cachée, qui propose une représentation alternative à celle offerte par les mots pour encoder les phrases à traduire. Une évaluation superficielle de cette représentation alter- native nous a montré qu’elle est capable de regrouper certaines phrases sources similaires même si elles étaient formulées différemment. Nous avons d’abord comparé avantageusement les prédictions de nos ppc à celles d’ibm1, un modèle couramment utilisé en traduction. Nous avons ensuite intégré nos ppc à notre système de traduction statistique de l’anglais vers le français. Nos ppc ont amélioré les traductions de notre système de base et d’un deuxième système de référence auquel était intégré IBM1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Dans la présente thèse, nous avons étudié la déformation anisotrope par bombardement ionique de nanoparticules d'or intégrées dans une matrice de silice amorphe ou d'arséniure d’aluminium cristallin. On s’est intéressé à la compréhension du mécanisme responsable de cette déformation pour lever toute ambigüité quant à l’explication de ce phénomène et pour avoir une interprétation consistante et unique. Un procédé hybride combinant la pulvérisation et le dépôt chimique en phase vapeur assisté par plasma a été utilisé pour la fabrication de couches nanocomposites Au/SiO2 sur des substrats de silice fondue. Des structures à couches simples et multiples ont été obtenues. Le chauffage pendant ou après le dépôt active l’agglomération des atomes d’Au et par conséquent favorise la croissance des nanoparticules. Les nanocomposites Au/AlAs ont été obtenus par implantation ionique de couches d’AlAs suivie de recuit thermique rapide. Les échantillons des deux nanocomposites refroidis avec de l’azote liquide ont été irradiés avec des faisceaux de Cu, de Si, d’Au ou d’In d’énergie allant de 2 à 40 MeV, aux fluences s'étendant de 1×1013 à 4×1015 ions/cm2, en utilisant le Tandem ou le Tandetron. Les propriétés structurales et morphologiques du nanocomposite Au/SiO2 sont extraites en utilisant des techniques optiques car la fréquence et la largeur de la résonance plasmon de surface dépendent de la forme et de la taille des nanoparticules, de leur concentration et de la distance qui les séparent ainsi que des propriétés diélectriques du matériau dans lequel les particules sont intégrées. La cristallinité de l’arséniure d’aluminium est étudiée par deux techniques: spectroscopie Raman et spectrométrie de rétrodiffusion Rutherford en mode canalisation (RBS/canalisation). La quantité d’Au dans les couches nanocomposites est déduite des résultats RBS. La distribution de taille et l’étude de la transformation de forme des nanoparticules métalliques dans les deux nanocomposites sont déterminées par microscopie électronique en transmission. Les résultats obtenus dans le cadre de ce travail ont fait l’objet de trois articles de revue. La première publication montre la possibilité de manipuler la position spectrale et la largeur de la bande d’absorption des nanoparticules d’or dans les nanocomposites Au/SiO2 en modifiant leur structure (forme, taille et distance entre particules). Les nanoparticules d’Au obtenues sont presque sphériques. La bande d’absorption plasmon de surface (PS) correspondante aux particules distantes est située à 520 nm. Lorsque la distance entre les particules est réduite, l’interaction dipolaire augmente ce qui élargit la bande de PS et la déplace vers le rouge (602 nm). Après irradiation ionique, les nanoparticules sphériques se transforment en ellipsoïdes alignés suivant la direction du faisceau. La bande d’absorption se divise en deux bandes : transversale et longitudinale. La bande correspondante au petit axe (transversale) est décalée vers le bleu et celle correspondante au grand axe (longitudinale) est décalée vers le rouge indiquant l’élongation des particules d’Au dans la direction du faisceau. Le deuxième article est consacré au rôle crucial de la déformation plastique de la matrice et à l’importance de la mobilité des atomes métalliques dans la déformation anisotrope des nanoparticules d’Au dans les nanocomposites Au/SiO2. Nos mesures montrent qu'une valeur seuil de 2 keV/nm (dans le pouvoir d'arrêt électronique) est nécessaire pour la déformation des nanoparticules d'or. Cette valeur est proche de celle requise pour la déformation de la silice. La mobilité des atomes d’Au lors du passage d’ions est confirmée par le calcul de la température dans les traces ioniques. Le troisième papier traite la tentative de formation et de déformation des nanoparticules d’Au dans une matrice d’arséniure d’aluminium cristallin connue pour sa haute résistance à l’amorphisation et à la déformation sous bombardement ionique. Le résultat principal de ce dernier article confirme le rôle essentiel de la matrice. Il s'avère que la déformation anisotrope du matériau environnant est indispensable pour la déformation des nanoparticules d’or. Les résultats expérimentaux mentionnés ci-haut et les calculs de températures dans les traces ioniques nous ont permis de proposer le scénario de déformation anisotrope des nanoparticules d’Au dans le nanocomposite Au/SiO2 suivant: - Chaque ion traversant la silice fait fondre brièvement un cylindre étroit autour de sa trajectoire formant ainsi une trace latente. Ceci a été confirmé par la valeur seuil du pouvoir d’arrêt électronique. - L’effet cumulatif des impacts de plusieurs ions conduit à la croissance anisotrope de la silice qui se contracte dans la direction du faisceau et s’allonge dans la direction perpendiculaire. Le modèle de chevauchement des traces ioniques (overlap en anglais) a été utilisé pour valider ce phénomène. - La déformation de la silice génère des contraintes qui agissent sur les nanoparticules dans les plans perpendiculaires à la trajectoire de l’ion. Afin d’accommoder ces contraintes les nanoparticules d’Au se déforment dans la direction du faisceau. - La déformation de l’or se produit lorsqu’il est traversé par un ion induisant la fusion d’un cylindre autour de sa trajectoire. La mobilité des atomes d’or a été confirmée par le calcul de la température équivalente à l’énergie déposée dans le matériau par les ions incidents. Le scénario ci-haut est compatible avec nos données expérimentales obtenues dans le cas du nanocomposite Au/SiO2. Il est appuyé par le fait que les nanoparticules d’Au ne se déforment pas lorsqu’elles sont intégrées dans l’AlAs résistant à la déformation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous rapportons les résultats d'une étude des désintégrations semileptoniques non-charmées B^+--> êta^(') l^+v et B^0--> pi^- l^+v, mesurés par le détecteur BABAR avec une production d'environ 464 millions de paires de mésons BBbar issues des collisions e^+e^- à la résonance Upsilon(4S). L'analyse reconstruit les événements avec une technique relâchée des neutrinos. Nous obtenons les rapports d'embranchement partiels pour les désintégrations B^+--> êta l^+v et B^0--> pi^- l^+v en trois et douze intervalles de q^2, respectivement, à partir desquels nous extrayons les facteurs de forme f_+(q^2) et les rapports d'embranchement totaux B(B^+--> êta l^+v) = (3.39 +/- 0.46_stat +/- 0.47_syst) x 10^-5 et B(B^0--> pi^- l^+v) = (1.42 +/- 0.05_stat +/- 0.08_syst) x 10^-4. Nous mesurons aussi B(B^+--> êta' l^+v) = (2.43 +/- 0.80_stat +/- 0.34_syst) x 10^-5. Nous obtenons les valeurs de la norme de l'élément |V_ub| de la matrice CKM en utilisant trois calculs différents de la CDQ.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les antibiotiques aminoglycosidiques sont des agents bactéricides de grande valeur et d’efficacité à large spectre contre les pathogènes Gram-positifs et Gram-négatifs, dont plusieurs membres naturels et semisynthétiques sont importants dans l’histoire clinique depuis 1950. Des travaux crystallographiques sur le ribosome, récompensés par le prix Nobel, ont démontré comment leurs diverses structures polyaminées sont adaptées pour cibler une hélice d’ARN dans le centre de codage de la sous-unité 30S du ribosome bactérien. Leur interférence avec l’affinité et la cinétique des étapes de sélection et vérification des tARN induit la synthèse de protéines à basse fidélité, et l’inhibition de la translocation, établissant un cercle vicieux d’accumulation d’antibiotique et de stress sur la membrane. En réponse à ces pressions, les pathogènes bactériens ont évolué et disséminé une panoplie de mécanismes de résistance enzymatiques et d’expulsion : tels que les N acétyltransférases, les O phosphotransférases et les O nucleotidyltransférases qui ciblent les groupements hydroxyle et amino sur le coeur des aminoglycosides; des méthyl-transférases, qui ciblent le site de liaison ribosomale; et des pompes d’expulsion actives pour l’élimination sélective des aminoglycosides, qui sont utilisés par les souches Gram-négatives. Les pathogènes les plus problématiques, qui présentent aujourd’hui une forte résilience envers la majorité des classes d’antibiotiques sur le bord de la pan-résistance ont été nommés des bactéries ESKAPE, une mnémonique pour Enterococcus faecium, Staphylococcus aureus, Klebsiella pneumoniae, Acinetobacter baumannii, Pseudomonas aeruginosa et Enterobacteriaceae. La distribution globale des souches avec des mécanismes de résistance envers les standards cliniques aminoglycosides, tels que la tobramycine, l’amikacine et la gentamicine, est comprise entre 20 et 60% des isolées cliniques. Ainsi, les aminoglycosides du type 4,6-disubstitués-2-deoxystreptamine sont inadéquats comme thérapies anti-infectieuses à large spectre. Cependant, la famille des aminoglycosides 4,5-disubstitués, incluant la butirosine, la neomycine et la paromomycine, dont la structure plus complexe, pourrait constituter une alternative. Des collègues dans le groupe Hanessian et collaborateurs d’Achaogen Inc. ont démontré que certains analogues de la paraomomycine et neomycine, modifiés par désoxygénation sur les positions 3’ et 4’, et par substitution avec la chaîne N1-α-hydroxy-γ-aminobutyramide (HABA) provenant de la butirosine, pourrait produire des antibiotiques très prometteurs. Le Chapitre 4 de cette dissertation présente la conception et le développement d’une stratégie semi-synthétique pour produire des nouveaux aminoglycosides améliorés du type 4,5 disubstitués, inspiré par des modifications biosynthétiques de la sisomicine, qui frustrent les mécanismes de résistance bactérienne distribuées globalement. Cette voie de synthèse dépend d’une réaction d’hydrogénolyse de type Tsuji catalysée par palladium, d’abord développée sur des modèles monosaccharides puis subséquemment appliquée pour générer un ensemble d’aminoglycosides hybrides entre la neomycine et la sisomicine. Les études structure-activité des divers analogues de cette nouvelle classe ont été évaluées sur une gamme de 26 souches bactériennes exprimant des mécanismes de résistance enzymatique et d’expulsion qui englobe l’ensemble des pathogènes ESKAPE. Deux des antibiotiques hybrides ont une couverture antibacterienne excellente, et cette étude a mis en évidence des candidats prometteurs pour le développement préclinique. La thérapie avec les antibiotiques aminoglycosidiques est toujours associée à une probabilité de complications néphrotoxiques. Le potentiel de toxicité de chaque aminoglycoside peut être largement corrélé avec le nombre de groupements amino et de désoxygénations. Une hypothèse de longue date dans le domaine indique que les interactions principales sont effectuées par des sels des groupements ammonium, donc l’ajustement des paramètres de pKa pourrait provoquer une dissociation plus rapide avec leurs cibles, une clairance plus efficace et globalement des analogues moins néphrotoxiques. Le Chapitre 5 de cette dissertation présente la conception et la synthèse asymétrique de chaînes N1 HABA β substitutées par mono- et bis-fluoration. Des chaînes qui possèdent des γ-N pKa dans l’intervalle entre 10 et 7.5 ont été appliquées sur une neomycine tétra-désoxygénée pour produire des antibiotiques avancés. Malgré la réduction considérable du γ N pKa, le large spectre bactéricide n’a pas été significativement affecté pour les analogues fluorés isosteriques. De plus, des études structure-toxicité évaluées avec une analyse d’apoptose propriétaire d’Achaogen ont démontré que la nouvelle chaîne β,β difluoro-N1-HABA est moins nocive sur un modèle de cellules de rein humain HK2 et elle est prometteuse pour le développement d’antibiotiques du type neomycine avec des propriétés thérapeutiques améliorées. Le chapitre final de cette dissertation présente la proposition et validation d’une synthèse biomimétique par assemblage spontané du aminoglycoside 66-40C, un dimère C2 symétrique bis-imine macrocyclique à 16 membres. La structure proposée du macrocycle a été affinée par spectroscopie nucléaire à un système trans,trans-bis-azadiène anti-parallèle. Des calculs indiquent que l’effet anomérique de la liaison α glycosidique entre les anneaux A et B fournit la pré-organisation pour le monomère 6’ aldéhydo sisomicine et favorise le produit macrocyclique observé. L’assemblage spontané dans l’eau a été étudié par la dimérisation de trois divers analogues et par des expériences d’entre croisement qui ont démontré la généralité et la stabilité du motif macrocyclique de l'aminoglycoside 66-40C.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les thèmes de la RSE et du développement durable et ses implications au plan juridique se font ressentir avec acuité dans le contexte financier difficile rencontré par les économies des plus grandes puissances industrielles. La crise économique est indéniablement protéiforme et se double d’une crise sociétale : tant sociale qu’environnementale. Cette crise est une alerte d’ampleur dont les organisations supranationales et les Etats ne doivent pas ignorer le signal. Les mauvais calculs et les déraisons de l’homme économique n’amènent-ils pas à repenser les modèles néo-classiques ? Pour le juriste constatant les mutations économiques, culturelles, sociologiques, environnementales et sociales des sociétés modernes, une question se pose : quelle est la part du droit dans cette évolution ? Les principes ordinaires, les catégories usuelles, sont bouleversés par un droit composite, protéiforme, aux contours flous, sans cesse remanié. Au regard de la multiplicité des normes qui interviennent sur le terrain de la RSE (normes internationales, nationales, et locales ; normes publiques, privées, et semi-privées), il est proposé au lecteur de dresser un bilan de la construction juridique dont la RSE est l’objet. Dans ce cadre, la norme est comprise au-delà de la notion stricto sensu de règle de droit dans une acception large comme un instrument de référence. Au regard des évolutions contemporaines de la construction du droit, ce sont les nouveaux attributs du droit et l’apparition de nouveaux modèles régulatoires que nous nous proposons de mettre en lumière au travers de l’exemple de la RSE. Dans cette étude, nous montrons que la normativité entourant la RSE constitue un exemple contemporain de droit postmoderne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le modèle de la bibliothèque, très ancien, s’est adapté aux évolutions des sociétés démontrant sa souplesse et sa robustesse. Il s’appuie sur un écosystème fondé sur le partage et comprend deux moments, celui de la constitution d’une collection et celui de sa mise en accès et définit un écosystème autonome. Récemment les bibliothécaires ont développé des études pour mesurer le retour sur investissement de leurs services. Malgré l’intérêt de ces calculs, la valeur ajoutée originale de la bibliothèque est difficile à appréhender précisément. Elle s’appuie selon les contextes sur la mutualisation ou sur la capacité à trouver rapidement des informations inattendues et celle de conserver des informations potentiellement importantes. Le modèle et sa valeur peuvent s’interpréter comme mémoire additionnelle d’un individu, capital informationnel d’une organisation, ou empreinte d’une civilisation. Le numérique ébranle la bibliothèque, mais chaque média émergent a obligé celle-ci à se repositionner. Inversement, la bibliothèque a été une des premières sources d’inspiration pour le web dont certains acteurs ont réussi, aujourd’hui, à faire de l’exploitation son modèle une activité très profitable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La stratégie de la tectonique moléculaire a montré durant ces dernières années son utilité dans la construction de nouveaux matériaux. Elle repose sur l’auto-assemblage spontané de molécule dite intelligente appelée tecton. Ces molécules possèdent l’habilité de se reconnaitre entre elles en utilisant diverses interactions intermoléculaires. L'assemblage résultant peut donner lieu à des matériaux moléculaires avec une organisation prévisible. Cette stratégie exige la création de nouveaux tectons, qui sont parfois difficiles à synthétiser et nécessitent dans la plupart des cas de nombreuses étapes de synthèse, ce qui empêche ou limite leur mise en application pratique. De plus, une fois formées, les liaisons unissant le corps central du tecton avec ces groupements de reconnaissance moléculaire ne peuvent plus être rompues, ce qui ne permet pas de remodeler le tecton par une procédure synthétique simple. Afin de contourner ces obstacles, nous proposons d’utiliser une stratégie hybride qui se sert de la coordination métallique pour construire le corps central du tecton, combinée avec l'utilisation des interactions plus faibles pour contrôler l'association. Nous appelons une telle entité métallotecton du fait de la présence du métal. Pour explorer cette stratégie, nous avons construit une série de ligands ditopiques comportant soit une pyridine, une bipyridine ou une phénantroline pour favoriser la coordination métallique, substitués avec des groupements diaminotriazinyles (DAT) pour permettre aux complexes de s'associer par la formation de ponts hydrogène. En plus de la possibilité de créer des métallotectons par coordination, ces ligands ditopiques ont un intérêt intrinsèque en chimie supramoléculaire en tant qu'entités pouvant s'associer en 3D et en 2D. En parallèle à notre étude de la chimie de coordination, nous avons ii examiné l'association des ligands, ainsi que celle des analogues, par la diffraction des rayons-X (XRD) et par la microscopie de balayage à effet tunnel (STM). L'adsorption de ces molécules sur la surface de graphite à l’interface liquide-solide donne lieu à la formation de différents réseaux 2D par un phénomène de nanopatterning. Pour comprendre les détails de l'adsorption moléculaire, nous avons systématiquement comparé l’organisation observée en 2D par STM avec celle favorisée dans les structures 3D déterminées par XRD. Nous avons également simulé l'adsorption par des calculs théoriques. Cette approche intégrée est indispensable pour bien caractériser l’organisation moléculaire en 2D et pour bien comprendre l'origine des préférences observées. Ces études des ligands eux-mêmes pourront donc servir de référence lorsque nous étudierons l'association des métallotectons dérivés des ligands par coordination. Notre travail a démontré que la stratégie combinant la chimie de coordination et la reconnaissance moléculaire est une méthode de construction rapide et efficace pour créer des réseaux supramoléculaires. Nous avons vérifié que la stratégie de la tectonique moléculaire est également efficace pour diriger l'organisation en 3D et en 2D, qui montre souvent une homologie importante. Nous avons trouvé que nos ligands hétérocycliques ont une aptitude inattendue à s’adsorber fortement sur la surface de graphite, créant ainsi des réseaux organisés à l'échelle du nanomètre. L’ensemble de ces résultats promet d’offrir des applications dans plusieurs domaines, dont la catalyse hétérogène et la nanotechnologie. Mots clés : tectonique moléculaire, interactions intermoléculaires, stratégie hybride, coordination métallique, diffraction des rayons-X, microscopie de balayage à effet tunnel, graphite, phénomène de nanopatterning, calculs théoriques, ponts hydrogène, chimie supramoléculaire, ligands hétérocycliques, groupements DAT, catalyse hétérogène, nanotechnologie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous présentons un relevé et une analyse spectroscopiques de plus de 1300 naines blanches brillantes (V < 17.5) et riches en hydrogène. Des spectres dans le domaine du visible avec un rapport signal-sur-bruit élevé ont été obtenus et les données ont ensuite été analysées avec notre méthode spectroscopique habituelle qui compare les profils observés des raies de Balmer à des spectres synthétiques calculés à partir de la dernière génération de modèles d’atmosphère. D’abord, nous présentons une analyse détaillée de 29 naines blanches de type DAO utilisant une nouvelle grille de modèles qui inclut du carbone, de l’azote et de l’oxygène aux abondances solaires. Nous démontrons que l’ajout de ces métaux dans les modèles d’atmosphère est essentiel pour surmonter le problème des raies de Balmer qui empêche un ajustement simultané de toutes les raies de Balmer avec des paramètres atmosphériques cohérents. Nous identifions également 18 naines blanches chaudes de type DA qui souffrent aussi du problème des raies de Balmer. Des spectres dans l’ultraviolet lointain obtenus des archives du satellite FUSE sont ensuite examinés pour démontrer qu’il existe une corrélation entre les abondances métalliques élevées et les cas du problème des raies de Balmer. Les conséquences de ces résultats pour toutes les naines blanches chaudes et riches en hydrogène sont discutées. En particulier, le scénario évolutif pour les naines blanches DAO est révisé et nous n’avons plus besoin d’évoquer l’évolution post-EHB pour expliquer la majorité des étoiles DAO. Finalement, nous élaborons un scénario dans lequel les métaux engendrent un faible vent stellaire qui expliquerait la présence d’hélium dans les étoiles DAO. Ensuite, nous présentons les résultats globaux de notre relevé, ce qui inclut une analyse spectroscopique de plus de 1200 naines blanches de type DA. En premier lieu, nous présentons le contenu spectroscopique de notre échantillon qui contient de nombreuses classifications erronées ainsi que plusieurs naines blanches de type DAB, DAZ et magnétiques. Nous discutons ensuite des nouveaux modèles d'atmosphère utilisés dans notre analyse. De plus, nous utilisons des modèles de naines M pour obtenir de meilleures valeurs des paramètres atmosphériques pour les naines blanches qui sont membres de systèmes binaires DA+dM. Certaines naines blanches uniques et quelques systèmes binaires double-dégénérées sont également analysés de manière plus détaillée. Nous examinons ensuite les propriétés globales de notre échantillon incluant la distribution de masse et la distribution de masse en fonction de la température. Nous étudions également la façon dont les nouveaux profils de raies de Balmer affectent la détermination des paramètres atmosphériques. Nous testons la précision et la robustesse de nos méthodes en comparant nos résultats avec ceux du projet SPY, dans le cadre duquel plus de 300 des mêmes naines blanches ont été analysées d'une manière complètement indépendante. Finalement, nous faisons un retour sur la bande d'instabilité des naines blanches pulsantes de type ZZ Ceti pour voir quels effets ont les nouveaux profils de raies sur la détermination de ses frontières empiriques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le torticolis postural est une affection courante dans le milieu pédiatrique en particulier depuis que les parents ont adopté les lignes directrices de la campagne « Back to Sleep ». Habituellement, un programme d’exercices à domicile est présenté aux parents afin de promouvoir une récupération optimale toutefois, peu d’outils existent pour les accompagner dans la réalisation de ces exercices. L'objectif de cette étude était d'évaluer l'impact de l'addition du nouveau livret d’intervention pour le torticolis (LIT) sur la résolution du torticolis (restitution de l’amplitude passive du cou), le stress parental et la satisfaction à l’égard du traitement reçu et sur l'observance des parents au traitement à domicile. Cinquante-huit nourrissons référés en physiothérapie pour un torticolis postural ont été recrutés et randomisés au cours de leur première visite à l’un ou l’autre de ces 2 groupes: Physiothérapie + LIT (n = 29) ou Physiothérapie + traitement standard (n = 29). Des évaluateurs ont évalué à l’aveugle les patients 1 et 3 mois après leur visite initiale, 30 minutes avant leur consultation en physiothérapie. L’amplitude articulaire passive du cou en rotation était mesurée à l’aide d’un goniomètre arthrodial. Le niveau de stress parental a été évalué en utilisant l’Indice de Stress Parental (ISP). Les parents ont reçu l’ISP à la fin de la visite initiale et ont été invités à le compléter à la maison et le retourner à la visite suivante en physiothérapie ou à la visite de 1 mois. La satisfaction des parents à l’égard du traitement reçu a été évaluée en utilisant la Mesure du Processus de Soins (MPOC-56) à 3 mois. L'observance au traitement a été estimée en demandant aux parents de rapporter la durée quotidienne de positionnement des nourrissons sur le ventre pendant la semaine dernière à l’évaluation. L’analyse de nos données consista à d’abord décrire les performances des 2 groupes à l’aide de statistiques descriptives. Ensuite, des tests de t ont permis de comparer le changement à la rotation passive cervicale, entre la visite de 1 mois et la visite initiale ainsi qu’entre la visite de 3 mois et la visite initiale. Des tests de t ont aussi été calculés pour comparer les scores de chaque sous-échelle du ISP (stress parental) et du MPOC-56 (satisfaction des soins) entre les groupes. Le test du chi carré a été réalisé pour comparer l'adhérence entre les deux groupes à 1 et 3-mois. Les résultats ont montré une tendance à un plus grand changement de la rotation passive du cou à 1-mois dans le groupe LIT (Intervalle de Confiance à 95% = 95% IC= 1,97-8,77 ; p = 0, 17) mais pas à 3 mois. Les parents du groupe LIT ont obtenu des scores de stress plus faibles après avoir reçu l'outil d'intervention (95%IC= 49,20-57,94 ; p = 0, 01) et ont déclaré être plus satisfaits que les parents du groupe témoin pour le traitement reçu (95%IC= 6,7-6,8 ; p=0,03) e o partenariat avec les thérapeutes (95%IC= 6,3-6,9 ; p<0,001). Enfin, l'observance au traitement a été plus élevée dans le groupe LIT que dans le groupe contrôle en particulier à 3-mois (p = 0.01). Le nouveau livret d'intervention pour le torticolis accompagné d'un traitement de physiothérapie a tendance à contribuer à une restitution plus rapide de l’amplitude passive du cou en rotation, peut aider à diminuer le niveau de stress parental, contribuer à une plus grande satisfaction à l’égard du traitement et améliorer l’observance au traitement à domicile.