1000 resultados para méthode numérique


Relevância:

20.00% 20.00%

Publicador:

Resumo:

[Support Institutions:] Department of Administration of Health, University of Montreal, Canada Public Health School of Fudan University, Shanghai, China

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse rapporte l’étude des propriétés physicochimiques des nanoparticles polymériques et leur impact sur l’interaction avec les cellules vivantes. Nous nous sommes tout spécialement attachés à étudier l’effet des propriétés adhésives et mécaniques des nanoparticules sur leur capacité de pénétration de la membrane cellulaire. Pour ce faire, nous avons tout d’abord utilisé des nanoparticules d’acide polylactique (PLA) fonctionnalisées en surface avec un ligand des sélectines E et P. Le greffage du ligand sur la particule s’est fait par une nouvelle méthode expérimentale garantissant la présence du ligand à la surface de la particule durant toute sa durée de vie. Cette méthode consiste à mélanger un polymère fonctionnalisé avec le ligand avec un autre polymère non fonctionnalisé. La présence du ligand à la surface des nanoparticules formées à partir de ce mélange de polymères a été confirmée par analyse ToF SIMS. Nous avons pu prouver que les particules possédant le ligand greffé à leur surface démontraient une capacité adhésive supérieure à leurs homologues non fonctionnalisés sur des cellules endothéliales HUVEC activées par différentes drogues. De plus, le captage des particules par les cellules HUVEC est modulé par le niveau d’expression des récepteurs selectine E et P et aussi par la quantité de ligand libre. Ces résultats montrent clairement que le greffage du ligand confère aux particules des propriétés adhésives accrues et spécifiques ce qui permet leur usage postérieure comme vecteur pharmaceutique capable de cibler un récepteur particulier à la surface d’une cellule. Nous avons aussi démontré que l’interaction entre les nanoparticules et la membrane cellulaire peut aussi être contrôlée aussi bien par les propriétés mécaniques de la cellule que de la nanoparticule. Dans une première étape, nous avons mesuré à l’aide de l’appareil de forces de surface l’élasticité de cellules macrophagiques déposées sur différents substrats. En contrôlant l’interaction entre la cellule et le substrat sur lequel elle repose nous avons montré qu’il était possible de modifier à ii volonté les propriétés mécaniques cellulaire. Une augmentation de l’élasticité cellulaire s’accompagne d’une augmentation systématique de l’internalisation de nanoparticules de PLA non fonctionnalisées. Ceci suggère un rôle prépondérant des propriétés mécaniques du cortex cellulaire dans le captage des nanoparticules de PLA. Dans une seconde étape, nous avons étudié l’effet des propriétés mécaniques des nanoparticules sur leur capacité de pénétration cellulaire. Pour ce faire, nous avons synthétisé des particules d’hydrogel dont l’élasticité était contrôlée par le degré d’agent réticulant inclus dans leur formulation. Le contrôle des propriétés mécaniques des nanoparticules a été confirmé par la mesure du module de Young des particules par microscopie de force atomique. L’impact des propriétés mécaniques de ces particules sur leur capacité de pénétration dans les cellules vivantes a été étudié sur des cellules macrophagiques de souris. Les résultats ont montré que la cinétique d’internalisation, la quantité de particules internalisées et le mécanisme d’internalisation dépendent tous du module de Young des nanoparticules. Aucune différence dans le trajet intracellulaire des particules n’a pu être observée malgré le fait que différentes voies d’internalisation aient été observées. Ce dernier résultat peut s’expliquer par le fait que les nanoparticules sont internalisées par plusieurs voie simultanément ce qui facilite leur accumulation dans les organelles digestives intracellulaires. Un modèle simple permettant d’expliquer ces résultats a été proposé et discuté.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il a été bien documenté que les différentes canalisations des unités de soins dentaires contiennent un épais biofilm. Ce biofilm est constitué entre autres de bactéries, mais aussi d’amibes. Certaines amibes ont un potentiel pathogène et peuvent causer des infections graves. Deux cas d’infections amibiennes et possiblement reliées aux unités dentaires ont retenu notre attention et sont à l’origine du présent projet. L’identification morphologique des amibes afin de déterminer si elles présentent un potentiel pathogène ou non est une tâche ardue, même pour les protozoologistes chevronnés. Nous avons donc utilisé la réaction de polymérase en chaîne (PCR) pour identifier les amibes. Des nouvelles amorces ont été élaborées pour détecter les amibes des genres Acanthamoeba ainsi que Naegleria. Des échantillons d’eau et de terre ont été prélevés dans l’environnement, et des échantillons d’eau et de biofilm ont été prélevés dans les unités dentaires. Une partie de chaque échantillon a été mise en culture selon une méthode améliorée pour une identification morphologique, et l’autre partie a été soumise à un PCR direct. Des Acanthamoebae et/ou des Naegleriae ont été détectées dans 100% des échantillons, mais les espèces varient d’un échantillon à l’autre. Des amibes à potentiel pathogènes sont détectables dans les unités dentaires ainsi que dans l’environnement, et celles-ci pourraient représenter un risque pour la santé de certains individus.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le canal calcique de type L, Cav1.2, joue un rôle clé dans le couplage excitation-contraction des myocytes ventriculaires. Il a été montré que la sous-unité Cavα1 était sujette à l’épissage alternatif et que ce phénomène pouvait mener à une protéine tronquée en C-terminal au niveau de l’exon 45 (Liao, Yong et al. 2005). D’autres groupes ont étudié différentes délétions au niveau de l’extrémité C-terminale (De Jongh, Warner et al. 1991; Gao, Cuadra et al. 2001). Les courants mesurés dans la configuration cellule entière, était significativement plus grands que le canal « pleine longueur ». Nous avons décidé de tester certaines de ces délétions (ΔC2030, ΔC1935, ΔC1856, ΔC1733, ΔC1700) en présence ou en absence de la sous-unité auxiliaire Cavβ3, susceptible d’interagir avec l’extrémité C-terminale de la sous-unité Cavα1 par l’intermédiaire de son domaine SH3 (Lao, Kobrinsky et al. 2008). Les résultats obtenus dans les ovocytes de Xénope ont mis en évidence que les sous-unités Cavα1.2 tronquées montraient des courants globaux plus élevés que le canal « pleine longueur » en présence de la sous-unité auxiliaire Cavβ3 et que les sous-unités Cavα1.2 tronquées donnaient des courants en absence de la sous-unité Cavβ3 contrairement à la sous-unité Cavα1.2 « pleine longueur ». Afin de vérifier si l’augmentation des courants macroscopiques était le résultat d’une augmentation du nombre de sous-unités Cavα1.2 à la membrane, nous avons choisi de quantifier la fluorescence spécifiquement due à cette sous-unité en utilisant la méthode de cytométrie de flux (FACS : « Fluorescence Activated Cell Sorting »). L’épitope HA a été inséré dans une région extracellulaire de la sous-unité Cavα1 du canal calcique Cav1.2 et un anticorps anti-HA couplé au FITC (« Fluorescein IsoThioCyanate ») a été utilisé pour observer la fluorescence. Nos résultats confirment que la sous-unité Cavα1-HA du canal calcique Cav1.2, s’exprime à la membrane plasmique en présence de la sous-unité auxiliaire Cavβ3, et qu’en absence de celle-ci, ne s’exprime que peu ou pas à la membrane. Les mêmes résultats ont été obtenus pour les trois délétions testées dans les mêmes conditions soit Cavα1.2-HA ΔC1935, Cavα1.2-HA ΔC1856 et Cavα1.2-HA ΔC1733. Ensemble, ces résultats suggèrent que l’augmentation des courants macroscopiques observés après une délétion partielle du C-terminal n’est pas causée par une augmentation du nombre de protéines Cavα1.2 à la membrane.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Contexte: L’anhédonie, un état caractérisé par une capacité réduite d’éprouver du plaisir. Des études cliniques récentes montrent qu’un médicament antipsychotique atypique, la quétiapine, est bénéfique pour le traitement de la toxicomanie qui est supposé d’atténuer les symptômes de sevrage associés à l’usage abusif des drogues psychotropes. Le but de la présente étude était d’étudier les effets de l'administration aiguë de quétiapine sur la récompense chez des animaux en état de sevrage après un traitement chronique avec l’amphétamine. Notre hypothese est que la quetiapine va diminuer l’anhedonie causer par le sevrage. Méthodes: Les expériences ont été effectuées avec des rats mâles de la souche Sprague-Dawley entraînés à produire une réponse opérante pour obtenir une courte stimulation électrique au niveau de l'hypothalamus latéral. Des mesures du seuil de récompense ont été déterminées chez différents groupes de rats avant et pendant quatre jours après le traitement avec des doses croissantes (1 à 10 mg/kg, ip toutes les 8 heures) de d-amphétamine sulfate, ou de son véhicule, au moyen de la méthode du déplacement de la courbe. L’effet de deux doses de quétiapine a été testé 24 h après le sevrage chez des animaux traités avec l’amphétamine ou le véhicule. Résultats: Les animaux traités avec l’amphétamine ont montré une augmentation de 25% du seuil de récompense 24 h après la dernière injection, un effet qui a diminué progressivement entre le jour 1 et le jour 4, mais qui est resté significativement plus élevé en comparaison de celui du groupe contrôle. La quétiapine administrée à 2 et 10 mg/kg pendant la phase de sevrage (à 24 h) a produit une augmentation respective de 10 % et 25 % du seuil de recompense; le meme augmentation du seuil a été observe chez les animaux traitées avec le véhicule. Un augmentation de 25 % du seuil de recompense a aussi été observés chez les animaux en état de sevrage à l'amphétamine. Un test avec une faible dose d’amphétamine (1 mg/kg) avant et après le sevrage a révélé une légère tolérance à l’effet amplificateur de cette drogue sur la récompense, un phénomène qui pourrait expliquer l’effet différent de la quétiapine chez les animaux traités avec le véhicule et ceux traités avec l’amphétamine. Conclusions: Ces résultats reproduisent ceux des études précédentes montrant que la quétiapine produit une légère atténuation de la récompense. Ils montrent également que le sevrage à l’amphétamine engendre un léger état d'anhédonie et que dans cet état, une dose élevée de quetiapine et non pas une dose faible accentue l’état émotionnel négatif. Ils suggèrent qu’un traitement à faibles doses de quétiapine des symptômes de sevrage chez le toxicomane devrait ni aggraver ni améliorer son état émotionnel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introduction : L’évaluation clinique du contrôle neuromusculaire des muscles du tronc est criante en réhabilitation et en entraînement. L’objectif principal de cette étude a été d’évaluer la reproductibilité intra et inter-évaluateur d’un test clinique le soulèvement actif de la jambe tendue (SAJT) chez une population active et saine. Méthode : Chaque sujet (18 joueurs de tennis) a été testé à deux reprises par 2 physiothérapeutes avec le SAJT. Résultats : La reproductibilité intra-évaluateur s’est avérée élevée à très élevée (ICC = 0.81 à 0.93) tandis la reproductibilité inter-évaluateur s’est avérée cliniquement non viable. Conclusion : À notre connaissance, le SAJT est le premier test clinique reproductible évaluant le contrôle neuromusculaire du tronc avec des compensations musculaires et cinétiques chez des sujets actifs et sains. Une formation plus importante des évaluateurs aurait certainement amélioré la reproductibilité inter-évaluateur.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Depuis plusieurs années, la définition des soins palliatifs a été élargie pour inclure toutes les maladies ayant un pronostic réservé. Le Québec s’est doté d’une politique de soins palliatifs dont l’un des principes directeurs est de maintenir les patients dans leur milieu de vie naturel. Alors que présentement environ 10 % de la population nécessitant des soins palliatifs en reçoit, on peut s’attendre à une augmentation des demandes de soins palliatifs à domicile dans les CSSS du Québec. La présente étude a pour but de décrire et comprendre l’expérience de dispenser des soins palliatifs à domicile pour des infirmières travaillant dans un contexte non spécialisé. Une étude qualitative ayant comme perspective disciplinaire la théorie de l’humain-en-devenir de Parse a été réalisée. Des entrevues ont été effectuées auprès de huit infirmières travaillant au maintien à domicile d’un CSSS de la région de Montréal qui font des soins palliatifs dans un contexte non spécialisé. L’analyse des données a été effectuée selon la méthode d’analyse phénoménologique de Giorgi (1997). Les résultats s’articulent autour de trois thèmes qui décrivent l’expérience de dispenser des soins palliatifs à domicile pour des infirmières qui travaillent dans un contexte non spécialisé. Elles accompagnent les patients et leur famille, en s’engageant à donner des soins humains, et développant une relation d’accompagnement avec le patient et ses proches. Elles doivent composer avec les réactions du patient et de sa famille et doivent parfois informer le patient de la progression de son état de santé. De plus, elles se préoccupent de donner des soins de qualité en composant avec la complexité des soins palliatifs à domicile tout en s’assurant de soulager les symptômes des patients et de tenter de développer leur expertise. Finalement, le fait d’être confrontée à la mort permet de cheminer. Ainsi, les infirmières vivent des émotions, reçoivent du soutien, sont touchées personnellement par la mort, éprouvent de la satisfaction envers les soins qu’elles donnent et apprennent personnellement de leur expérience. L’essence du phénomène à l’étude est que lorsque les infirmières font un véritable accompagnement du patient et de sa famille en s’efforçant de donner des soins de qualité, cela crée des conditions permettant qu’un cheminement personnel et professionnel sur la vie et la mort soit effectué par les infirmières.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les agents anti-infectieux sont utilisés pour traiter ou prévenir les infections chez les humains, les animaux, les insectes et les plantes. L’apparition de traces de ces substances dans les eaux usées, les eaux naturelles et même l’eau potable dans plusieurs pays du monde soulève l’inquiétude de la communauté scientifique surtout à cause de leur activité biologique. Le but de ces travaux de recherche a été d’étudier la présence d’anti-infectieux dans les eaux environnementales contaminées (c.-à-d. eaux usées, eaux naturelles et eau potable) ainsi que de développer de nouvelles méthodes analytiques capables de quantifier et confirmer leur présence dans ces matrices. Une méta-analyse sur l’occurrence des anti-infectieux dans les eaux environnementales contaminées a démontré qu’au moins 68 composés et 10 de leurs produits de transformation ont été quantifiés à ce jour. Les concentrations environnementales varient entre 0.1 ng/L et 1 mg/L, selon le composé, la matrice et la source de contamination. D’après cette étude, les effets nuisibles des anti-infectieux sur le biote aquatique sont possibles et ces substances peuvent aussi avoir un effet indirect sur la santé humaine à cause de sa possible contribution à la dissémination de la résistance aux anti-infecteiux chez les bactéries. Les premiers tests préliminaires de développement d’une méthode de détermination des anti-infectieux dans les eaux usées ont montré les difficultés à surmonter lors de l’extraction sur phase solide (SPE) ainsi que l’importance de la sélectivité du détecteur. On a décrit une nouvelle méthode de quantification des anti-infectieux utilisant la SPE en tandem dans le mode manuel et la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). Les six anti-infectieux ciblés (sulfaméthoxazole, triméthoprime, ciprofloxacin, levofloxacin, clarithromycin et azithromycin) ont été quantifiés à des concentrations entre 39 et 276 ng/L dans les échantillons d’affluent et d’effluent provenant d’une station d’épuration appliquant un traitement primaire et physico- chimique. Les concentrations retrouvées dans les effluents indiquent que la masse moyenne totale de ces substances, déversées hebdomadairement dans le fleuve St. Laurent, était de ~ 2 kg. En vue de réduire le temps total d’analyse et simplifier les manipulations, on a travaillé sur une nouvelle méthode de SPE couplée-LC-MS/MS. Cette méthode a utilisé une technique de permutation de colonnes pour préconcentrer 1.00 mL d’échantillon dans une colonne de SPE couplée. La performance analytique de la méthode a permis la quantification des six anti-infectieux dans les eaux usées municipales et les limites de détection étaient du même ordre de grandeur (13-60 ng/L) que les méthodes basées sur la SPE manuelle. Ensuite, l’application des colonnes de SPE couplée de chromatographie à débit turbulent pour la préconcentration de six anti-infectieux dans les eaux usées a été explorée pour diminuer les effets de matrice. Les résultats obtenus ont indiqué que ces colonnes sont une solution de réchange intéressante aux colonnes de SPE couplée traditionnelles. Finalement, en vue de permettre l’analyse des anti-infectieux dans les eaux de surface et l’eau potable, une méthode SPE couplée-LC-MS/MS utilisant des injections de grand volume (10 mL) a été développée. Le volume de fuite de plusieurs colonnes de SPE couplée a été estimé et la colonne ayant la meilleure rétention a été choisie. Les limites de détection et de confirmation de la méthode ont été entre 1 à 6 ng/L. L’analyse des échantillons réels a démontré que la concentration des trois anti-infectieux ciblés (sulfaméthoxazole, triméthoprime et clarithromycine) était au dessous de la limite de détection de la méthode. La mesure des masses exactes par spectrométrie de masse à temps d’envol et les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle ont été explorés comme des méthodes de confirmation possibles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nous avons démontré l’utilité du groupement protecteur tert-butylsulfonyle (N-Bus) pour la chimie des acides aminés et des peptides. Celui-ci est préparé en deux étapes, impliquant la réaction d’une amine avec le chlorure de tert-butylsulfinyle, suivie par l’oxydation par du m-CPBA, pour obtenir les tert-butylsulfonamides correspondants avec d’excellents rendements. Le groupement N-Bus peut être clivé par traitement avec 0.1 N TfOH/DCM/anisole à 0oC en 10h pour régénérer le sel d’ammonium. Une variété d’acides aminés N-Bus protégés ainsi que d’autres aminoacides peuvent alors être utilisés pour préparer divers dipeptides et tripeptides. A l’exception du groupe N-Fmoc, les conditions de déprotection du groupe N-Bus clivent également les groupements N-Boc, N-Cbz et O-Bn. Une déprotection sélective et orthogonale des groupes N-Boc, N-Cbz, N-Fmoc et O-Bn est également possible en présence du groupe protecteur N-Bus. Le nouvel acide aminé non-naturel (3R, 2R) 3–méthyl-D-leucine (β-Me-Leu) et son régioisomère 2-méthyle ont été synthétisés par ouverture d’une N-Ts aziridine en présence d’un excès de LiMe2Cu. Chacun des régioisomères du mélange (1:1,2) a été converti en la méthylleucine correspondante, puis couplé à l’acide D-phényllactique puis au motif 2-carboxyperhydroindole 4-amidinobenzamide en présence de DEPBT. Des élaborations ultérieures ont conduit à des analogues peptidiques non-naturels d’aeruginosines telles que la chlorodysinosine A. Les deux analogues ont ensuite été évalués pour leur activité inhibitrice de la thrombine et la trypsine. La présumée aeruginosine 3-sulfate 205B et son anomère β ont été synthétisés avec succès à partir de 5 sous-unités : la 3-chloroleucine, l’acide D-phényllactique, le D-xylose, le 2-carboxy-6-hydroxyoctahydroindole et l’agmatine. La comparaison des données RMN 1H et 13C reportées avec celles obtenues avec l’aeruginosine synthétique 205B révèle une différence majeure pour la position du groupe présumé 3'-sulfate sur l’unité D-xylopyranosyle. Nous avons alors synthétisés les dérivés méthyl-α-D-xylopyranosides avec un groupement sulfate à chacune des positions hydroxyles, afin de démontrer sans ambiguïté la présence du sulfate en position C-4' par comparaison des données spectroscopiques RMN 1H et 13C. La structure de l’aeruginosine 205B a alors été révisée. Une des étapes-clés de cette synthèse consiste en la formation du glycoside avec le groupe hydroxyle en C-6 orienté en axial sur la sous-unité Choi. Le 2-thiopyridylcarbonate s’est avéré une méthode efficace pour l’activation anomérique. Le traitement par AgOTf et la tétraméthylurée en solution dans un mélange éther-DCM permet d’obtenir l’anomère α désiré, qui peut alors être aisément séparé de l’anomère β par chromatographie

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJECTIF: Chez les Autochtones, la relation entre le degré d'éloignement et les issues de naissance est inconnue. L’objectif de cette étude est d’évaluer cet impact parmi les Premières Nations du Québec. MÉTHODE : Nous avons utilisé les données vitales de Statistique Canada pour la province du Québec pour la période 1991-2000. L’ensemble des naissances géocodées parmi les communautés des Premières Nations groupées en quatre zones en se basant sur le degré d'éloignement a été analysé. Nous avons utilisé la régression logistique multi-niveaux pour obtenir des rapports de cotes ajustés pour les caractéristiques maternelles. RESULTATS : Le taux de naissances prématurées varie en fonction de l’éloignement de la zone d’habitation (8,2% dans la zone la moins éloignée et 5,2% dans la Zone la plus éloignée, P<0,01). En revanche, plus la zone est éloignée, plus le taux de mortalité infantile est élevé (6,9 pour 1000 pour la Zone 1 et 16,8 pour 1000 pour la Zone 4, P<0,01). Le taux élevé de mortalité infantile dans la zone la plus éloignée pourrait être partiellement expliqué par le fort taux de mortalité post-natale. Le taux de mort subite du nourrisson est 3 fois plus élevé dans la zone 4 par rapport à la zone 1. Cependant la mortalité prénatale ne présente pas de différences significatives en fonction de la zone malgré une fréquence élevée dans la zone 4. La morbidité périnatale était semblable en fonction de la zone après avoir ajusté pour l’âge, l’éducation, la parité et le statut civil. CONCLUSIONS : Malgré de plus faibles taux d’enfants à haut risque (accouchements prématurés), les Premières Nations vivant dans les communautés les plus éloignées ont un risque plus élevé de mortalité infantile et plus spécialement de mortalité post-néonatale par rapport aux Premières Nations vivant dans des communautés moins éloignées. Il y existe un grand besoin d’investissement en services de santé et en promotion de la santé dans les communautés les plus éloignées afin de réduire le taux de mortalité infantile et surtout post-néonatale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La survie des réseaux est un domaine d'étude technique très intéressant ainsi qu'une préoccupation critique dans la conception des réseaux. Compte tenu du fait que de plus en plus de données sont transportées à travers des réseaux de communication, une simple panne peut interrompre des millions d'utilisateurs et engendrer des millions de dollars de pertes de revenu. Les techniques de protection des réseaux consistent à fournir une capacité supplémentaire dans un réseau et à réacheminer les flux automatiquement autour de la panne en utilisant cette disponibilité de capacité. Cette thèse porte sur la conception de réseaux optiques intégrant des techniques de survie qui utilisent des schémas de protection basés sur les p-cycles. Plus précisément, les p-cycles de protection par chemin sont exploités dans le contexte de pannes sur les liens. Notre étude se concentre sur la mise en place de structures de protection par p-cycles, et ce, en supposant que les chemins d'opération pour l'ensemble des requêtes sont définis a priori. La majorité des travaux existants utilisent des heuristiques ou des méthodes de résolution ayant de la difficulté à résoudre des instances de grande taille. L'objectif de cette thèse est double. D'une part, nous proposons des modèles et des méthodes de résolution capables d'aborder des problèmes de plus grande taille que ceux déjà présentés dans la littérature. D'autre part, grâce aux nouveaux algorithmes, nous sommes en mesure de produire des solutions optimales ou quasi-optimales. Pour ce faire, nous nous appuyons sur la technique de génération de colonnes, celle-ci étant adéquate pour résoudre des problèmes de programmation linéaire de grande taille. Dans ce projet, la génération de colonnes est utilisée comme une façon intelligente d'énumérer implicitement des cycles prometteurs. Nous proposons d'abord des formulations pour le problème maître et le problème auxiliaire ainsi qu'un premier algorithme de génération de colonnes pour la conception de réseaux protegées par des p-cycles de la protection par chemin. L'algorithme obtient de meilleures solutions, dans un temps raisonnable, que celles obtenues par les méthodes existantes. Par la suite, une formulation plus compacte est proposée pour le problème auxiliaire. De plus, nous présentons une nouvelle méthode de décomposition hiérarchique qui apporte une grande amélioration de l'efficacité globale de l'algorithme. En ce qui concerne les solutions en nombres entiers, nous proposons deux méthodes heurisiques qui arrivent à trouver des bonnes solutions. Nous nous attardons aussi à une comparaison systématique entre les p-cycles et les schémas classiques de protection partagée. Nous effectuons donc une comparaison précise en utilisant des formulations unifiées et basées sur la génération de colonnes pour obtenir des résultats de bonne qualité. Par la suite, nous évaluons empiriquement les versions orientée et non-orientée des p-cycles pour la protection par lien ainsi que pour la protection par chemin, dans des scénarios de trafic asymétrique. Nous montrons quel est le coût de protection additionnel engendré lorsque des systèmes bidirectionnels sont employés dans de tels scénarios. Finalement, nous étudions une formulation de génération de colonnes pour la conception de réseaux avec des p-cycles en présence d'exigences de disponibilité et nous obtenons des premières bornes inférieures pour ce problème.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Différentes méthodes ayant pour objectif une utilisation optimale d'antennes radio-fréquences spécialisées en imagerie par résonance magnétique sont développées et validées. Dans un premier temps, il est démontré qu'une méthode alternative de combinaison des signaux provenant des différents canaux de réception d'un réseau d'antennes mène à une réduction significative du biais causé par la présence de bruit dans des images de diffusion, en comparaison avec la méthode de la somme-des-carrés généralement utilisée. Cette réduction du biais engendré par le bruit permet une amélioration de l'exactitude de l'estimation de différents paramètres de diffusion et de diffusion tensorielle. De plus, il est démontré que cette méthode peut être utilisée conjointement avec une acquisition régulière sans accélération, mais également en présence d'imagerie parallèle. Dans une seconde perspective, les bénéfices engendrés par l'utilisation d'une antenne d'imagerie intravasculaire sont étudiés. Suite à une étude sur fantôme, il est démontré que l'imagerie par résonance magnétique intravasculaire offre le potentiel d'améliorer significativement l'exactitude géométrique lors de mesures morphologiques vasculaires, en comparaison avec les résultats obtenus avec des antennes de surface classiques. Il est illustré qu'une exactitude géométrique comparable à celle obtenue grâce à une sonde ultrasonique intravasculaire peut être atteinte. De plus, plusieurs protocoles basés sur une acquisition de type balanced steady-state free-precession sont comparés dans le but de mettre en évidence différentes relations entre les paramètres utilisés et l'exactitude géométrique obtenue. En particulier, des dépendances entre la taille du vaisseau, le rapport signal-sur-bruit à la paroi vasculaire, la résolution spatiale et l'exactitude géométrique atteinte sont mises en évidence. Dans une même optique, il est illustré que l'utilisation d'une antenne intravasculaire permet une amélioration notable de la visualisation de la lumière d'une endoprothèse vasculaire. Lorsque utilisée conjointement avec une séquence de type balanced steady-state free-precession utilisant un angle de basculement spécialement sélectionné, l'imagerie par résonance magnétique intravasculaire permet d'éliminer complètement les limitations normalement engendrées par l'effet de blindage radio-fréquence de l'endoprothèse.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette étude porte sur la réfutation (elenchos) dans la République de Platon, et montre que la présence de cette méthode au livre I ne saurait être un signe de la rédaction antérieure de ce livre, ni de la volonté de Platon de critiquer cette forme de la dialectique. Les deux premiers chapitres traitent de l'aspect épistémologique de la question : le premier montre que l'exposition de la dialectique au livre VII inclut l'elenchos, et le second que la défaillance des arguments du livre I doit être interprétée par des motifs pédagogiques, et non par une intention satirique de l'auteur. Les deux derniers chapitres se penchent sur la dimension morale de l'elenchos. Ainsi, le troisième chapitre affirme que Platon nous présente, au livre I, l'elenchos comme un outil efficace d'éducation morale, tandis que le quatrième chapitre cherche à expliquer la critique morale de l'elenchos du livre VII par la différence entre l'éducation dans une cité parfaite et celle dans une société corrompue. La conclusion de l'ouvrage explique le délaissement de la méthode élenctique dans les neuf derniers livres de la République par des raisons autres que par la perte de confiance de Platon en les capacités de cette méthode.