235 resultados para Littoraux -- Utilisation pour les loisirs -- France -- Deauville (Calvados)


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction: Il est important de minimiser le gaspillage et les risques associés aux soins sans valeur. La gestion de l’utilisation des antimicrobiens vise à optimiser leur emploi et doit être adaptée au milieu et à sa population. Objectifs: Évaluer les profiles d’utilisation actuels des antimicrobiens et fixer des objectifs pour les interventions en matière de gestion des antimicrobiens. Méthode: Vingt-et-un hôpitaux du Nouveau-Brunswick offrant des soins de courte durée en médecine générale, en chirurgie et en pédiatrie ont pris part à une enquête sur la prévalence ponctuelle. Tous les patients admis aux hôpitaux participants et ayant reçu au moins un antimicrobien systémique ont été inscrits à l’étude. Les principaux critères d’évaluation étaient le profil d’utilisation, selon l’indication et l’antimicrobien prescrit, le bienfondé de l’utilisation et la durée de la prophylaxie chirurgicale. Des statistiques descriptives et un test d’indépendance 2 furent utilisés pour l’analyse de données. Résultats: L’enquête a été menée de juin à août 2012. Un total de 2244 patients ont été admis pendant la durée de l’étude et 529 (23,6%) ont reçu un antimicrobien. Au total, 691 antimicrobiens ont été prescrits, soit 587 (85%) pour le traitement et 104 (15%) pour la prophylaxie. Les antimicrobiens les plus souvent prescrits pour le traitement (n=587) étaient des classes suivantes : quinolones (25,6%), pénicillines à spectre étendu (10,2%) et métronidazole (8,5%). Les indications les plus courantes du traitement étaient la pneumonie (30%), les infections gastro-intestinales (16%) et les infections de la peau et des tissus mous (14%). Selon des critères définis au préalable, 23% (n=134) des ordonnances pour le traitement étaient inappropriées et 20% (n=120) n’avaient aucune indication de documentée. Les domaines où les ordonnances étaient inappropriées étaient les suivants : défaut de passage de la voie intraveineuse à la voie orale (n=34, 6%), mauvaise dose (n=30, 5%), traitement d’une bactériurie asymptomatique (n=24, 4%) et doublement inutile (n=22, 4%). Dans 33% (n=27) des cas, les ordonnances pour la prophylaxie chirurgicale étaient pour une période de plus de 24 heures. Conclusions: Les résultats démontrent que les efforts de gestion des antimicrobiens doivent se concentrer sur les interventions conventionnelles de gestion de l’utilisation des antimicrobiens, l’amélioration de la documentation, l’optimisation de l’utilisation des quinolones et la réduction au minimum de la durée de la prophylaxie chirurgicale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Depuis les quatre dernières décennies, des publications célèbres analysent l’histoire, l’art et l’architecture de la psychiatrie de la fin du dix-neuvième siècle afin de dénoncer les aspects négatifs de la science psychiatrique : voyeurisme sur la personne du fou, déshumanisation de l’asile, autoglorification du psychiatre, abus de pouvoir. C’est ce regard à sens unique que j’ai voulu déjouer dans cette thèse en consacrant ma recherche aux œuvres produites en amont de cette période. Leur analyse a permis de prendre conscience de l’autre versant de la science psychiatrique, celui qui est philanthropique, bienveillant et animé d’un réel espoir de guérison. Mon objectif a été de construire, par l’analyse de ce domaine iconographique inédit ou négligé, une nouvelle histoire de la naissance de la psychiatrie, celle de sa culture visuelle. Une histoire qui révèle ses idéaux du début du siècle et les écarts à ses propres aspirations par son besoin de légitimation et de professionnalisation. Ma thèse propose une enquête épistémologique de l’histoire de l’aliénisme français, par le biais du discours porté par les œuvres d’art commandées par ses fondateurs. Le premier chapitre est consacré aux premiers asiles conçus comme le prolongement du corps du psychiatre et ils sont analysés selon les valeurs de la nouvelle science. Je me suis appliquée à y démontrer que le concept même d’asile, agissant sur nos sensations et sur notre cognition, relève autant des théories architecturales des Lumières que des besoins spécifiques de l’aliénisme. Le deuxième chapitre identifie, pour la première fois, un ensemble de portraits de la première génération d’aliénistes et de leurs disciples. J’argumente que ce corpus voulait imposer l’image de l’aliéniste comme modèle de raison et établir sa profession. Pour ce faire, il s’éloigne des premières représentations des aliénistes, paternalistes, et philanthropiques. Le troisième chapitre analyse les représentations des aliénés produites pour les traités fondateurs de la psychiatrie publiés en France. Le vecteur de mon analyse et le grand défi pour l’art et la science viennent de l’éthique des premiers psychiatres : comment représenter la maladie mentale sans réduire le malade à un être essentiellement autre ? Une première phase de production accorde à l’aliéné autonomie et subjectivité. Mais la nécessité d’objectiver le malade pour répondre aux besoins scientifiques de l’aliénisme a, à nouveau, relégué l’aliéné à l’altérité. Le sujet du quatrième et dernier chapitre est le cycle décoratif de la chapelle de l’hospice de Charenton (1844-1846), principal asile parisien de l’époque. J’y interroge comment l’art religieux a pu avoir un rôle face à la psychiatrie, en empruntant à l’iconographie religieuse sa force et sa puissance pour manifester l’autorité de l’aliéniste jusque dans la chapelle de l’asile. Le dix-neuvième siècle a été porteur d’espoirs en la reconnaissance de la liberté des êtres et de l’égalité des droits entre les personnes. Ces espoirs ont pourtant été déçus et les œuvres de l’aliénisme montrent un nouvel aspect de ces promesses non tenues envers les groupes fragilisés de la société, promesses de reconnaissance de leur subjectivité, de leur autonomie et de leur dignité.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’histoire des relations franco-japonaises est source de bien des surprises pour les historiens, ces deux pays n’ayant, à première vue, que peu de raisons de se rapprocher. La France du Second Empire est l’une des premières puissances à se rendre au Japon et elle démontre rapidement un vif intérêt pour le développement du Japon. Dès la signature des premiers traités en 1859, la présence française se développe pour atteindre son sommet quelques années plus tard. Malgré les changements de régime au Japon et en France, cette présence restera forte jusqu’au début des années 1880, avant de décliner. Qu’est-ce qui explique cet intérêt? Et, surtout, qu’est-ce qui explique le désintérêt de la France après les années 1880? Il n’y a que quelques auteurs qui ont tenté d’y trouver des réponses, et celles-ci sont, à notre point de vue, peu concluantes: soit la France agit pour faire grandir son prestige, soit elle agit en fonction de ses représentants. Nous tenterons dans le présent travail de cerner et, si possible, de trouver en utilisant une variété de sources françaises une autre cause plus convaincante comme explication de la position française au Japon. Serait-ce le commerce qui a motivé la France au Japon, notamment à cause de la crise du ver à soie? Serait-ce la religion, avec toute la question des persécutions des chrétiens? Ou encore, est-ce une raison plus globale liée à la colonisation de l’Indochine? Afin d’y répondre, nous avons étudié avec minutie les archives du gouvernement français ainsi que les données économiques de l’époque, afin de cerner l’importance qu’ont eue certaines raisons, telles la crise de la soie, les persécutions religieuses et la présence française en Indochine, dans les décisions du gouvernement français.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Aucune instance spécifique n’existe sur le plan international pour les litiges civils impliquant la violation par les sociétés transnationales (ci après, STN) des normes de droits humains. Les tribunaux nationaux représentent l’instance compétente afin d’entendre ces causes de droit international privé. Cependant, les tribunaux originaires des STN manifestent leur réticence à exercer leur compétence, alors que les États où sont commises les violations souffrent parfois d’un important déficit de gouvernance. Les victimes se retrouvent ainsi fréquemment sans forum adéquat où adresser leur requête pour les dommages subis. L’objectif du mémoire est de rechercher puis d’élaborer différents arguments afin de faire évoluer l’interprétation de la compétence des tribunaux québécois actuellement préconisée dans le cadre de deux jurisprudences phares en matière d’activité des STN à l’étranger, soit Association canadienne contre l’impunité (ACCI) c. Anvil Mining Ltd., et Recherches Internationales Québec c. Cambior Inc. Le premier chapitre porte sur les règles fondant la compétence des autorités québécoises et les principes les sous-tendant. Notre deuxième chapitre se consacrera à la recherche d’arguments au sein de la jurisprudence étrangère. Notre troisième chapitre présentera les arguments de nature politique, sociale, éthique et théorique rencontrés dans le domaine du droit global. Nous verrons alors plusieurs propositions théoriques afin de mieux appréhender les problèmes liés au vide juridictionnel dont souffrent les victimes demanderesses. Cet éclairage théorique contribuera à justifier l’apport du droit international privé dans le contrôle du respect par les STN des normes de droits humains.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La maladie de Crohn (MC) est une maladie chronique et récidivante du tractus gastro-intestinal. Dans la population pédiatrique, elle est très souvent accompagnée d'un retard de croissance (jusqu'à 88%). La MC se manifeste souvent autour de la puberté d’où l’importance du retard de croissance linéaire à ce stade crucial du développement de l’enfant. Une des questions essentielles est de savoir si le retard de croissance peut persister à l'âge adulte. La littérature est inconsistante sur ce point. En ce qui concerne les facteurs de risque potentiels, les corticostéroïdes (CS) qui sont la première ligne de traitement pour la majorité des patients, ont été largement impliqués. Bien qu'il existe des explications démontrant le mécanisme d’action des corticostéroïdes sur la croissance linéaire, les études cliniques impliquant l'utilisation CS soit à un retard de croissance temporaire ou permanent restent controverser et limiter. Nous avons examiné cette relation importante dans notre étude présente. Les principaux objectifs de l'étude sont les suivants: 1. D’évaluer la fréquence du retard de croissance chez le jeune atteint de la maladie de Crohn et qui a reçu des corticostéroïdes (CS) au cours de son traitement et 2. D’évaluer les facteurs de risque associés au retard de croissance temporaire ou permanent dans cette population. Méthodes : Afin d’atteindre nos objectifs, on a mené une étude de cohorte rétrospective. Cette cohorte comprend des patients qui ont été diagnostiqués de la MC (avant l’âge de 18 ans) à la clinique de gastroentérologie du Centre Hospitalier-Universitaire Sainte-Justine (CHUSJ) à Montréal. Ces patients ont tous reçus des CS en traitement initial(en excluant les rechutes). Les dossiers médicaux des patients ont été examinés de façon prospective afin de d’acquérir des informations sur : 1. La taille à chaque visite médicale; 2. La durée du traitement des CS; 3. L’administration de médication concomitante; 4. D’autres variables cliniques telles que l’âge au diagnostic, le sexe, la localisation et le comportement de la maladie. Pour ceux qui avaient atteints l’âge de 18 ans et qui ne fréquentaient plus la clinique, leur taille finale a été obtenue en les contactant par téléphone. Leurs parents ont aussi été contactés afin d’obtenir leur taille. On a converti nos résultats en scores de Z ou scores-Z ajustée pour l’âge et le sexe en utilisant la classification 2007 de l’Organisation Mondiale de la Santé(OMS). On a aussi calculé les tailles adultes cibles avec les données que nous avons récoltées. La raison de tout cela était de rendre nos résultats comparables aux études antérieures et renforcer ainsi la validité de nos trouvailles. Les enfants avec un score de Z<-1.64 (qui correspond au 5ème percentile) ont été considérés comme ayant un retard de croissance temporaire. Les scores-Z pour les tailles adultes finales ont été calculés en utilisant les mêmes normes de référence selon le sexe pour les personnes âgées de 17,9 ans. Un z-score <-1,64 a aussi été utilisé pour classer les individus avec un retard permanent. Ajouter à cela, ceux ayant une taille adulte finale <8,5cm de leur taille adulte cible (estimée à partir des hauteurs parentales) étaient considérés comme ayant un retard de croissance permanent. Des analyses de régression logistiques ont été faites pour examiner les facteurs associés à un retard de croissance temporaire et/ou permanent. Résultats : 221 patients ont été retenus. L’âge moyen de diagnostic était de 12.4 années et l’âge moyen de prise de CS était de 12.7 années. La répartition par sexe avait une légère prédominance masculine 54.3% contre 45.7% pour le sexe féminin. La majorité des patients étaient d’âge pubère (62.9%). On a surtout des patients avec une prédominance de maladie de type inflammatoire (89.1%) et localisé au niveau de l’iléo-colon (60.2%). Presque tous avaient pris une médication concomitante (88.7%) et n’avaient subi aucune chirurgie (95.9%). 19% des patients avaient un retard de croissance temporaire. L'analyse univariée a suggéré que le plus jeune âge au moment du diagnostic de la maladie et l'âge précoce à l'administration de stéroïdes étaient associés à un risque accru de retard de croissance temporaire. L’administration de CS à un jeune âge a été la seule variable (dans l’analyse multivariée) associée à un risque élevé de retard de croissance temporaire. En comparant à ceux ayant reçu des CS après l’âge de 14 ans (tertile 3), l’administration de CS à un âge précoce est fortement associé à un risque de retard de croissance (<11.6ans, OR: 6.9, 95% CI: 2.2-21.6, p-value: 0.001; 11.8ans-14ans, OR: 5.4, 95% CI: 1.7-17.1, p-value: 0.004). 8 (5.8%) sur 137 des sujets avaient une taille adulte finale <8,5cm de leur taille adulte cible. Dans l’analyse de régression linéaire multivariée, seul la variable de la taille adulte cible était associé à un changement de la taille adulte finale. Conclusion : Nos résultats suggèrent que la fréquence du retard de croissance permanent chez les enfants atteint de la MC est très faible. Un retard temporaire ou permanent de la croissance n’ont pas été associés à une augmentation de la quantité de CS administrée bien que l'administration de CS à un âge précoce soit associée à un retard de croissance temporaire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexte. Plusieurs déterminants influencent les pratiques alimentaires des jeunes Québécois. Les aliments offerts dans les établissements scolaires ainsi que les politiques publiques figurent parmi ces facteurs d’influence. En 2011, la Commission scolaire de Montréal (CSDM) a adapté la Politique pour une saine alimentation. Toutefois, depuis sa parution, très peu de données concernant l’application de la politique des écoles de la CSDM ont été recueillies. Objectifs. Évaluer la satisfaction et la perception des élèves de troisième cycle du primaire et du secondaire à l’égard des services alimentaires de la CSDM. Méthode. Soixante-cinq écoles primaires et 27 écoles secondaires ont été ciblées par cette enquête. La collecte de données s’est déroulée sur une période de six semaines par le biais de deux questionnaires distincts disponibles sur le site internet Fluid Survey. La satisfaction et la perception des élèves ont été évaluées à l’aide de questions portant sur leur utilisation du service alimentaire, leurs préférences, ainsi que leurs attitudes et opinions. Analyse statistique. À partir des résultats obtenus, des statistiques descriptives ont été générées. De plus, des tests de Chi-deux ont été produits afin d’évaluer l’association de certaines variables. Résultats. Au total, 4 446 questionnaires ont été retenus aux fins d’analyses. Sommairement, le goût et la propreté des lieux sont deux aspects pour lesquels un grand nombre de jeunes du troisième cycle du primaire et du secondaire accordent de l’importance. Toutefois, la variété de l’offre alimentaire est l’aspect le plus apprécié par les deux groupes de jeunes. Les élèves du primaire sont plus nombreux que ceux du secondaire à accorder de l’importance à l’attrait santé des aliments. Par ailleurs, les plus jeunes élèves choisissent davantage leurs aliments pour contrôler leur poids. Les résultats montrent aussi que la majorité des jeunes du primaire et du secondaire accordent de l’importance à la qualité de leur alimentation, et ce, depuis quelque temps. Finalement, l’opinion des pairs et de la famille semble avoir très peu d’influence sur les choix alimentaires des jeunes, notamment chez les élèves du secondaire. Conclusion. Bien que plusieurs autres déterminants doivent encore être étudiés, ce projet de recherche confirme la pluralité des facteurs d’influence sur les pratiques alimentaires des enfants et des adolescents. Cela dit, en plus d’être un indicateur précieux pour l’évaluation de ses services alimentaires, les résultats obtenus suggèrent également une multitude de pistes d’action pour les intervenants de la CSDM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le présent mémoire cherche à comprendre la nature des rapports entre la ville de Paris et le roi Charles IX grâce à l’étude de l’entrée royale de ce dernier dans la capitale en 1571. Pour l’historien, l’étude des grands rituels monarchiques permet de saisir les mécanismes symboliques de communication qui créent en quelque sorte le pouvoir royal. L’entrée royale, rituel codifié durant lequel une ville accueille son souverain, permet d’observer la nature des rapports entre le pouvoir monarchique et le pouvoir urbain. Généralement perçue comme un moment consensuel, l’entrée royale peut aussi servir de cadre pour les édiles urbains afin d’exprimer leurs désaccords à l’égard des politiques du roi. La confrontation entre la relation officielle de l’entrée et les archives municipales met au jour une série de ratés nous permettant de déconstruire l’image de concorde longtemps associée à l’entrée de 1571. Loin d’être un portrait élogieux du roi Charles IX, le programme de l’entrée parisienne de 1571 célèbre plutôt Catherine de Médicis et le duc Henri d’Anjou. En cela, les édiles parisiens expriment leurs critiques face à un pouvoir monarchique dont l’inaction durant les guerres de religion illustre la trop grande faiblesse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif principal de cette thèse est d’identifier les étoiles de faible masse et naines brunes membres d’associations cinématiques jeunes du voisinage solaire. Ces associations sont typiquement âgées de moins de 200 millions d’années et regroupent chacune un ensemble d’étoiles s’étant formées au même moment et dans un même environnement. La majorité de leurs membres d'environ plus de 0.3 fois la masse du Soleil sont déjà connus, cependant les membres moins massifs (et moins brillants) nous échappent encore. Leur identification permettra de lever le voile sur plusieurs questions fondamentales en astrophysique. En particulier, le fait de cibler des objets jeunes, encore chauds et lumineux par leur formation récente, permettra d’atteindre un régime de masses encore peu exploré, jusqu'à seulement quelques fois la masse de Jupiter. Elles nous permettront entre autres de contraindre la fonction de masse initiale et d'explorer la connection entre naines brunes et exoplanètes, étant donné que les moins massives des naines brunes jeunes auront des propriétés physiques très semblables aux exoplanètes géantes gazeuses. Pour mener à bien ce projet, nous avons adapté l'outil statistique BANYAN I pour qu'il soit applicable aux objets de très faibles masses en plus de lui apporter plusieurs améliorations. Nous avons entre autres inclus l'utilisation de deux diagrammes couleur-magnitude permettant de différencier les étoiles de faible masse et naines brunes jeunes à celles plus vieilles, ajouté l'utilisation de probabilités a priori pour rendre les résultats plus réalistes, adapté les modèles spatiaux et cinématiques des associations jeunes en utilisant des ellipsoïdes gaussiennes tridimensionnelles dont l'alignement des axes est libre, effectué une analyse Monte Carlo pour caractériser le taux de faux-positifs et faux-négatifs, puis revu la structure du code informatique pour le rendre plus efficace. Dans un premier temps, nous avons utilisé ce nouvel algorithme, BANYAN II, pour identifier 25 nouvelles candidates membres d'associations jeunes parmi un échantillon de 158 étoiles de faible masse (de types spectraux > M4) et naines brunes jeunes déjà connues. Nous avons ensuite effectué la corrélation croisée de deux catalogues couvrant tout le ciel en lumière proche-infrarouge et contenant ~ 500 millions d’objets célestes pour identifier environ 100 000 candidates naines brunes et étoiles de faible masse du voisinage solaire. À l'aide de l'outil BANYAN II, nous avons alors identifié quelques centaines d'objets appartenant fort probablement à une association jeune parmi cet échantillon et effectué un suivi spectroscopique en lumière proche-infrarouge pour les caractériser. Les travaux présentés ici ont mené à l'identification de 79 candidates naines brunes jeunes ainsi que 150 candidates étoiles de faible masse jeunes, puis un suivi spectroscopique nous a permis de confirmer le jeune âge de 49 de ces naines brunes et 62 de ces étoiles de faible masse. Nous avons ainsi approximativement doublé le nombre de naines brunes jeunes connues, ce qui a ouvert la porte à une caractérisation statistique de leur population. Ces nouvelles naines brunes jeunes représentent un laboratoire idéal pour mieux comprendre l'atmosphère des exoplanètes géantes gazeuses. Nous avons identifié les premiers signes d’une remontée dans la fonction de masse initiale des naines brunes aux très faibles masses dans l'association jeune Tucana-Horologium, ce qui pourrait indiquer que l’éjection d’exoplanètes joue un rôle important dans la composition de leur population. Les résultats du suivi spectroscopique nous ont permis de construire une séquence empirique complète pour les types spectraux M5-L5 à l'âge du champ, à faible (β) et très faible (γ) gravité de surface. Nous avons effectué une comparaison de ces données aux modèles d'évolution et d'atmosphère, puis nous avons construit un ensemble de séquences empiriques de couleur-magnitude et types spectraux-magnitude pour les naines brunes jeunes. Finalement, nous avons découvert deux nouvelles exoplanètes par un suivi en imagerie directe des étoiles jeunes de faible masse identifiées dans ce projet. La future mission GAIA et le suivi spectroscopique complet des candidates présentées dans cette thèse permettront de confirmer leur appartenance aux associations jeunes et de contraindre la fonction de masse initiale dans le régime sous-stellaire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les azasulfurylpeptides sont des mimes peptidiques auxquels le carbone en position alpha et le carbonyle d’un acide aminé sont respectivement remplacés par un atome d’azote et un groupement sulfonyle (SO2). Le but premier de ce projet a été de développer une nouvelle méthode de synthèse de ces motifs, également appelés N-aminosulfamides. À cette fin, l’utilisation de sulfamidates de 4-nitrophénol s’est avérée importante dans la synthèse des azasulfuryltripeptides, permettant le couplage d’hydrazides avec l’aide d’irradiation aux micro-ondes (Chapitre 2). Par la suite, en quantité stoechiométrique d’une base et d’un halogénure d’alkyle, les azasulfurylglycines (AsG) formés peuvent être chimiosélectivement alkylés afin d’y insérer diverses chaînes latérales. Les propriétés conformationnelles des N-aminosulfamides à l’état solide ont été élucidées grâce à des études cristallographiques par rayons X : elles possèdent une structure tétraédrique autour de l’atome de soufre, des traits caractéristiques des azapeptides et des sulfonamides, ainsi que du potentiel à favoriser la formation de tours gamma (Chapitre 3). Après le développement d’une méthode de synthèse des N-aminosulfamides en solution, une approche combinatoire sur support solide a également été élaborée sur la résine amide de Rink afin de faciliter la génération d’une librairie d’azasulfurylpeptides. Cette étude a été réalisée en employant le growth hormone releasing peptide 6 (GHRP-6, His-D-Trp-Ala-Trp-D-Phe-Lys-NH2). Ce dernier est un hexapeptide possédant une affinité pour deux récepteurs, le growth hormone secretagogue receptor 1a (GHS-R1a) et le récepteur cluster of differenciation 36 (CD36). Une affinité sélective envers le récepteur CD36 confère des propriétés thérapeutiques dans le traitement de la dégénérescence maculaire liée à l’âge (DMLA). Six analogues d’azasulfurylpeptides de GHRP-6 utilisés comme ligands du CD36 ont été synthétisés sur support solide, mettant en évidence le remplacement du tryptophane à la position 4 de GHRP-6 (Chapitre 4). Les analogues de GHRP-6 ont été ensuite analysés pour leur capacité à moduler les effets de la fonction et de la cascade de signalisation des ligands spécifiques au Toll-like receptor 2 (TLR2), en collaboration avec le Professeur Huy Ong du département de Pharmacologie à la Faculté de Pharmacie de l’Université de Montréal. Le complexe TLR2-TLR6 est reconnu pour être co-exprimé et modulé par CD36. En se liant au CD36, certains ligands de GHRP-6 ont eu un effet sur la signalisation du TLR2. Par exemple, les azasulfurylpeptides [AsF(4-F)4]- et [AsF(4-MeO)4]-GHRP-6 ont démontré une capacité à empêcher la surproduction du monoxyde d’azote (NO), un sous-produit réactif formé suite à l’induction d’un signal dans les macrophages par des ligands spécifiques liés au TLR2, tel le fibroblast-stimulating lipopeptide 1 (R-FSL-1) et l’acide lipotéichoïque (LTA). En addition, la sécrétion du tumor necrosis factor alpha (TNFa) et du monocyte chemoattractant protein 1 (MCP-1), ainsi que l’activation du nuclear factor kappa-light-chain-enhancer of activated B cells (NF-kB), ont été réduites. Ces résultats démontrent le potentiel de ces azasulfurylpeptides à pouvoir réguler le rôle du TLR2 qui déclenche des réponses inflammatoires et immunitaires innées (Perspectives). Finalement, le potentiel des azasulfurylpeptides d’inhiber des métallo-bêta-lactamases, tels le New-Delhi Metallo-bêta-lactamase 1 (NDM-1), IMP-1 et le Verona Integron-encoded Metallo-bêta-lactamase 2 (VIM-2), a été étudié en collaboration avec le Professeur James Spencer de l’Université de Bristol (Royaumes-Unis). Certains analogues ont été des inhibiteurs micromolaires du IMP-1 (Perspectives). Ces nouvelles voies de synthèse des azasulfurylpeptides en solution et sur support solide devraient donc permettre leur utilisation dans des études de relations structure-activité avec différents peptides biologiquement actifs. En plus d'expandre l'application des azasulfurylpeptides comme inhibiteurs d'enzymes, cette thèse a révélé le potentiel de ces N-aminosulfamides à mimer les structures secondaires peptidiques, tels que les tours gamma. À cet égard, l’application des azasulfurylpeptides a été démontrée par la synthèse de ligands du CD36 présentant des effets modulateurs sur le TLR2. Compte tenu de leur synthèse efficace et de leur potentiel en tant qu’inhibiteurs, les azasulfurylpeptides devraient trouver une large utilisation dans les sciences de peptides pour des applications dans la médecine et de la chimie biologique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Chaque jour, des décisions doivent être prises quant à la quantité d'hydroélectricité produite au Québec. Ces décisions reposent sur la prévision des apports en eau dans les bassins versants produite à l'aide de modèles hydrologiques. Ces modèles prennent en compte plusieurs facteurs, dont notamment la présence ou l'absence de neige au sol. Cette information est primordiale durant la fonte printanière pour anticiper les apports à venir, puisqu'entre 30 et 40% du volume de crue peut provenir de la fonte du couvert nival. Il est donc nécessaire pour les prévisionnistes de pouvoir suivre l'évolution du couvert de neige de façon quotidienne afin d'ajuster leurs prévisions selon le phénomène de fonte. Des méthodes pour cartographier la neige au sol sont actuellement utilisées à l'Institut de recherche d'Hydro-Québec (IREQ), mais elles présentent quelques lacunes. Ce mémoire a pour objectif d'utiliser des données de télédétection en micro-ondes passives (le gradient de températures de brillance en position verticale (GTV)) à l'aide d'une approche statistique afin de produire des cartes neige/non-neige et d'en quantifier l'incertitude de classification. Pour ce faire, le GTV a été utilisé afin de calculer une probabilité de neige quotidienne via les mélanges de lois normales selon la statistique bayésienne. Par la suite, ces probabilités ont été modélisées à l'aide de la régression linéaire sur les logits et des cartographies du couvert nival ont été produites. Les résultats des modèles ont été validés qualitativement et quantitativement, puis leur intégration à Hydro-Québec a été discutée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En chirurgie vasculaire, l’accès à l’artère fémorale, qu’il soit par une incision chirurgicale ou par une approche percutanée, est très fréquemment utilisé pour une multitude d’interventions vasculaires ou endovasculaires; pour des pontages divers, le traitement d’occlusions artérielles, la réparation d’anévrismes et la pose d’endoprothèses. L’objectif général de ce projet de recherche est de faciliter et réduire les risques des approches de l’artère fémorale par une meilleure compréhension anatomique du triangle fémoral. La méthodologie a été réalisée grâce à l’utilisation de cadavres spécialement embaumés par la méthode développée par Walter Thiel. Les résultats présentés dans ce mémoire ont permis de proposer des solutions en réponse à des problèmes cliniques en chirurgie vasculaire. Dans un premier temps, l’étude de la vascularisation cutanée du triangle fémoral a mené à proposer de nouvelles incisions chirurgicales afin de limiter la dévascularisation cutanée des plaies et ainsi réduire les problèmes de cicatrisation observés. Ensuite, nous avons validé l’identification radiographique et échographique de l’artère fémorale à son croisement avec le ligament inguinal afin de faciliter l’identification d’un site de ponction artérielle adéquat. Enfin, nous avons développé une méthode échographique simple qui facilite l’approche percutanée de l’artère fémorale, même chez les patients obèses. Les retombées de ce projet de recherche sont multiples pour les cliniciens, l’étude fournit une meilleure compréhension anatomique tridimensionnelle du triangle fémoral et les techniques proposées dans ce mémoire pourront apporter une amélioration de la pratique chirurgicale et faciliter le travail des médecins. Toutefois, ces propositions devront maintenant être validées en clinique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La présente thèse, organisée en trois volets, poursuivait trois objectifs : i) Estimer les coûts médicaux directs du traitement du DT2 dans 4 pays d’Afrique subsaharienne et dans le cas du Mali, rapprocher ces coûts médicaux directs estimés aux dépenses effectives des patients diabétiques ; ii) Examiner le coût-efficacité des interventions de prévention basées sur la modification du mode de vie chez les sujets à haut risque du DT2; iii) Cerner la perception et les attitudes des acteurs de la santé sur les outils de plaidoyer développés dans le cadre du projet DFN et leur potentiel d’impact sur les décideurs. Dans le premier volet, il s’est agi d’estimer les coûts du DT2 et de ses complications au moyen d’un calculateur et de le mettre à l’épreuve au Bénin, au Burkina- Faso, en Guinée et au Mali. Les composantes de soins pour le DT2 et ses complications avaient été définies au préalable par une équipe de spécialistes, sur la base de leur expérience clinique et des lignes directrices existantes. Les prix ont été relevés dans deux structures hospitalières du secteur public et deux du privé. Les coûts ont été estimés sur une base annuelle pour le DT2 avec ou sans complications chroniques puis par épisode pour les complications aiguës. Dans le cas du Mali, ces coûts ont été rapprochés des dépenses de patients diabétiques d’après une précédente enquête transversale dans ce pays. Cette enquête portait sur 500 sujets diabétiques sélectionnés au hasard dans les registres. Les dépenses pour les soins des trois derniers mois avaient été relevées. Les déterminants des dépenses ont été explorés. Il ressort des différences de coûts dans le même secteur puis entre le secteur privé et le secteur public. Le coût minimum du traitement du DT2 sans complications dans le secteur public représentait entre 21% et 34% de PIB par habitant, puis entre 26% - 47% en présence de la rétinopathie et au-delà de 70% pour la néphropathie, la complication chronique la plus coûteuse. Les dépenses des sujets diabétiques enquêtés au Mali, étaient en deçà des coûts minima estimatifs des différentes complications excepté la rétinopathie et le DT2 sans complication. Les facteurs comme l’insulinothérapie, le nombre de complications et la résidence dans la capitale étaient significativement associés aux dépenses plus élevées des patients. Dans le second volet, la revue systématique a consisté à recenser les études d’évaluation économique des interventions de prévention du DT2 dans des groupes à haut risque par l’alimentation et/ou l’activité physique. Les interventions de contrôle de l’obésité comme facteur de risque majeur de DT2 ont également été considérées. Les études ont été sélectionnées dans les bases de données scientifiques en utilisant les mots clés et des critères prédéfinis. Les études originales publiées entre janvier 2009 et décembre 2014 et conduites en français, anglais ou espagnol étaient potentiellement éligibles. La liste de contrôle de « British Medical Journal » a servi à évaluer la qualité des études. Des 21 études retenues, 15 rapportaient que les interventions étaient coût-efficaces suivant les limites d’acceptabilité considérées. Six études étaient non concluantes, dont quatre destinées à la prévention du DT2 et deux, au contrôle de l’obésité. Dans le troisième volet, les perceptions d’utilisateurs potentiels de ce calculateur et d’un autre outil de plaidoyer, à savoir, l’argumentaire narratif expliquant la nécessité de se pencher sur la lutte contre le DT2 en Afrique, ont été évaluées dans une étude qualitative exploratoire. Les données ont été collectées au cours d’entretiens individuels avec 16 acteurs de la santé de quatre pays d’Afrique subsaharienne et un groupe de discussion avec 10 étudiants de master de nutrition à l’issue d’un atelier de formation sur le plaidoyer faisant appel à ces outils, au Bénin. Les entretiens ont été enregistrés, transcrits et codés à l’aide du logiciel QDA Miner. Les participants ont souligné la pertinence des outils pour le plaidoyer et la convivialité du calculateur de coûts. Il demeure cependant que le contexte politique marqué par la compétition des priorités, l’absence de cohésion entre les décideurs et un défaut de données notamment sur le coût-efficacité des interventions sont des freins à la priorisation du DT2 dans les politiques de santé en Afrique subsaharienne que les répondants ont relevés. L’étude confirme que le traitement du DT2 est financièrement inabordable pour un grand nombre de patients. Elle souligne que les dépenses des patients sont en deçà des coûts estimés pour un traitement approprié avec quelques exceptions. La prévention du DT2 basée le mode de vie est coût-efficace mais devrait être étudiée en Afrique. On peut espérer que la pertinence des outils de ce travail telle que relevée par les acteurs de santé se traduise par leur utilisation. Ceci pour susciter des interventions de prévention afin d’infléchir l’évolution du DT2 et son impact économique en Afrique subsaharienne.