66 resultados para Mécanique des fluides


Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’utilisation de lentilles cornéennes peut servir à améliorer le profil d’administration d’un principe actif dans les yeux. Avec une efficacité d’administration de 5% par l’utilisation de gouttes, on comprend rapidement que l’administration oculaire doit être améliorée. Cette faible administration a donné naissance à plusieurs tentatives visant à fabriquer des lentilles cornéennes médicamentées. Cependant, à cause de multiples raisons, aucune de ces tentatives n’a actuellement été mise sur le marché. Nous proposons dans cette étude, une possible amélioration des systèmes établis par le développement d’une lentille cornéenne à base de 2-(hydroxyéthyle)méthacrylate (HEMA), dans laquelle des microgels, à base de poly N-isopropylacrylamide (pNIPAM) thermosensible encapsulant un principe actif, seront incorporé. Nous avons donc débuté par développer une méthode analytique sensible par HPCL-MS/MS capable de quantifier plusieurs molécules à la fois. La méthode résultante a été validée selon les différents critères de la FDA et l’ICH en démontrant des limites de quantifications et de détections suffisamment basses, autant dans des fluides simulés que dans les tissus d’yeux de lapins. La méthode a été validée pour sept médicaments ophtalmiques : Pilocarpine, lidocaïne, proparacaïne, atropine, acétonide de triamcinolone, timolol et prednisolone. Nous avons ensuite fait la synthèse des microgels chargés négativement à base de NIPAM et d’acide méthacrylique (MAA). Nous avons encapsulé une molécule modèle dans des particules ayant une taille entre 200 et 600 nm dépendant de la composition ainsi qu’un potentiel zêta variant en fonction de la température. L’encapsulation de la rhodamine 6G (R6G) dans les microgels a été possible jusqu’à un chargement (DL%) de 38%. L’utilisation des isothermes de Langmuir a permis de montrer que l’encapsulation était principalement le résultat d’interactions électrostatiques entre les MAA et la R6G. Des cinétiques de libérations ont été effectuées à partir d’hydrogels d’acrylamide chargés en microgels encapsulant la R6G. Il a été trouvé que la libération des hydrogels chargés en microgels s’effectuait majoritairement selon l’affinité au microgel et sur une période d’environ 4-24 heures. La libération à partir de ces systèmes a été comparée à des formules d’hydrogels contenant des liposomes ou des nanogels de chitosan. Ces trois derniers (liposomes, microgels et nanogels) ont présenté des résultats prometteurs pour différentes applications avec différents profils de libérations. Enfin, nous avons transposé le modèle développé avec les gels d’acrylamide pour fabriquer des lentilles de contact de 260 à 340 µm d’épaisseur à base de pHEMA contenant les microgels avec une molécule encapsulée devant être administrée dans les yeux. Nous avons modifié la composition de l’hydrogel en incorporant un polymère linéaire, la polyvinylpyrrolidone (PVP). L’obtention d’hydrogels partiellement interpénétrés améliore la rétention d’eau dans les lentilles cornéennes. L’encapsulation dans les microgels chargés négativement a donné de meilleurs rendements avec la lidocaïne et cette dernière a été libérée de la lentille de pHEMA en totalité en approximativement 2 heures qu’elle soit ou non encapsulée dans des microgels. Ainsi dans cette étude pilote, l’impact des microgels n’a pas pu être déterminé et, de ce fait, nécessitera des études approfondies sur la structure et les propriétés de la lentille qui a été développée. En utilisant des modèles de libération plus représentatifs de la physiologie de l’œil, nous pourrions conclure avec plus de certitude concernant l’efficacité d’un tel système d’administration et s’il est possible de l’optimiser.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les maladies cardiovasculaires sont la première cause de mortalité dans le monde et les anévrismes de l’aorte abdominale (AAAs) font partie de ce lot déplorable. Un anévrisme est la dilatation d’une artère pouvant conduire à la mort. Une rupture d’AAA s’avère fatale près de 80% du temps. Un moyen de traiter les AAAs est l’insertion d’une endoprothèse (SG) dans l’aorte, communément appelée la réparation endovasculaire (EVAR), afin de réduire la pression exercée par le flux sanguin sur la paroi. L’efficacité de ce traitement est compromise par la survenue d’endofuites (flux sanguins entre la prothèse et le sac anévrismal) pouvant conduire à la rupture de l’anévrisme. Ces flux sanguins peuvent survenir à n’importe quel moment après le traitement EVAR. Une surveillance par tomodensitométrie (CT-scan) annuelle est donc requise, augmentant ainsi le coût du suivi post-EVAR et exposant le patient à la radiation ionisante et aux complications des contrastes iodés. L’endotension est le concept de dilatation de l’anévrisme sans la présence d’une endofuite apparente au CT-scan. Après le traitement EVAR, le sang dans le sac anévrismal coagule pour former un thrombus frais, qui deviendra progressivement un thrombus plus fibreux et plus organisé, donnant lieu à un rétrécissement de l’anévrisme. Il y a très peu de données dans la littérature pour étudier ce processus temporel et la relation entre le thrombus frais et l’endotension. L’étalon d’or du suivi post-EVAR, le CT-scan, ne peut pas détecter la présence de thrombus frais. Il y a donc un besoin d’investir dans une technique sécuritaire et moins coûteuse pour le suivi d’AAAs après EVAR. Une méthode récente, l’élastographie dynamique, mesure l’élasticité des tissus en temps réel. Le principe de cette technique repose sur la génération d’ondes de cisaillement et l’étude de leur propagation afin de remonter aux propriétés mécaniques du milieu étudié. Cette thèse vise l’application de l’élastographie dynamique pour la détection des endofuites ainsi que de la caractérisation mécanique des tissus du sac anévrismal après le traitement EVAR. Ce projet dévoile le potentiel de l’élastographie afin de réduire les dangers de la radiation, de l’utilisation d’agent de contraste ainsi que des coûts du post-EVAR des AAAs. L’élastographie dynamique utilisant le « Shear Wave Imaging » (SWI) est prometteuse. Cette modalité pourrait complémenter l’échographie-Doppler (DUS) déjà utilisée pour le suivi d’examen post-EVAR. Le SWI a le potentiel de fournir des informations sur l’organisation fibreuse du thrombus ainsi que sur la détection d’endofuites. Tout d’abord, le premier objectif de cette thèse consistait à tester le SWI sur des AAAs dans des modèles canins pour la détection d’endofuites et la caractérisation du thrombus. Des SGs furent implantées dans un groupe de 18 chiens avec un anévrisme créé au moyen de la veine jugulaire. 4 anévrismes avaient une endofuite de type I, 13 avaient une endofuite de type II et un anévrisme n’avait pas d’endofuite. Des examens échographiques, DUS et SWI ont été réalisés à l’implantation, puis 1 semaine, 1 mois, 3 mois et 6 mois après le traitement EVAR. Une angiographie, un CT-scan et des coupes macroscopiques ont été produits au sacrifice. Les régions d’endofuites, de thrombus frais et de thrombus organisé furent identifiées et segmentées. Les valeurs de rigidité données par le SWI des différentes régions furent comparées. Celles-ci furent différentes de façon significative (P < 0.001). Également, le SWI a pu détecter la présence d’endofuites où le CT-scan (1) et le DUS (3) ont échoué. Dans la continuité de ces travaux, le deuxième objectif de ce projet fut de caractériser l’évolution du thrombus dans le temps, de même que l’évolution des endofuites après embolisation dans des modèles canins. Dix-huit anévrismes furent créés dans les artères iliaques de neuf modèles canins, suivis d’une endofuite de type I après EVAR. Deux gels embolisants (Chitosan (Chi) ou Chitosan-Sodium-Tetradecyl-Sulfate (Chi-STS)) furent injectés dans le sac anévrismal pour promouvoir la guérison. Des examens échographiques, DUS et SWI ont été effectués à l’implantation et après 1 semaine, 1 mois, 3 mois et 6 mois. Une angiographie, un CT-scan et un examen histologique ont été réalisés au sacrifice afin d’évaluer la présence, le type et la grosseur de l’endofuite. Les valeurs du module d’élasticité des régions d’intérêts ont été identifiées et segmentées sur les données pathologiques. Les régions d’endofuites et de thrombus frais furent différentes de façon significative comparativement aux autres régions (P < 0.001). Les valeurs d’élasticité du thrombus frais à 1 semaine et à 3 mois indiquent que le SWI peut évaluer la maturation du thrombus, de même que caractériser l’évolution et la dégradation des gels embolisants dans le temps. Le SWI a pu détecter des endofuites où le DUS a échoué (2) et, contrairement au CT-scan, détecter la présence de thrombus frais. Finalement, la dernière étape du projet doctoral consistait à appliquer le SWI dans une phase clinique, avec des patients humains ayant déjà un AAA, pour la détection d’endofuite et la caractérisation de l’élasticité des tissus. 25 patients furent sélectionnés pour participer à l’étude. Une comparaison d’imagerie a été produite entre le SWI, le CT-scan et le DUS. Les valeurs de rigidité données par le SWI des différentes régions (endofuite, thrombus) furent identifiées et segmentées. Celles-ci étaient distinctes de façon significative (P < 0.001). Le SWI a détecté 5 endofuites sur 6 (sensibilité de 83.3%) et a eu 6 faux positifs (spécificité de 76%). Le SWI a pu détecter la présence d’endofuites où le CT-scan (2) ainsi que le DUS (2) ont échoué. Il n’y avait pas de différence statistique notable entre la rigidité du thrombus pour un AAA avec endofuite et un AAA sans endofuite. Aucune corrélation n’a pu être établie de façon significative entre les diamètres des AAAs ainsi que leurs variations et l’élasticité du thrombus. Le SWI a le potentiel de détecter les endofuites et caractériser le thrombus selon leurs propriétés mécaniques. Cette technique pourrait être combinée au suivi des AAAs post-EVAR, complémentant ainsi l’imagerie DUS et réduisant le coût et l’exposition à la radiation ionisante et aux agents de contrastes néphrotoxiques.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La transplantation hépatique est le seul traitement définitif des enfants ayant une hépatite fulminante sans résolution spontanée. L’évolution de cette maladie dans la population pédiatrique diffère de celle adulte, particulièrement en regard de l’encéphalopathie. Pour définir les indications de transplantation hépatique, plusieurs indicateurs précoces de pronostic furent étudiés chez les adultes. Ces indicateurs n’ont pu être transposés à la population pédiatrique. Objectif primaire : Déterminer les marqueurs de risque de mortalité des enfants recevant une transplantation hépatique pour une hépatite fulminante, se définissant par une insuffisance hépatique sévère sans antécédent au cours des huit semaines précédentes. Méthode : Il s’agit d’une étude rétrospective incluant tous les enfants ayant reçu une transplantation hépatique pour une hépatite fulminante à l’hôpital Sainte-Justine entre 1985 et 2005. Le score PELOD (Pediatric Logistic Organ Dysfunction) est une mesure de sévérité clinique d’un enfant aux soins intensifs. Il fut calculé à l’admission et avant la transplantation hépatique. Résultats : Quatorze enfants (cinq mois à seize ans) reçurent une transplantation hépatique pour une hépatite fulminante. Neuf enfants (64%) survécurent et cinq (36%) décédèrent. L’utilisation de la ventilation mécanique fut associée à un mauvais pronostic (p = 0,027). Entre l’admission et la transplantation hépatique, 88% des enfants ayant eu une variation du score PELOD inférieure à cinq survécurent. Tous ceux ayant eu une variation supérieure à cinq décédèrent. (p = 0,027) Conclusion : La variation du score PELOD pourrait aider à définir un indicateur précoce de l’évolution d’un enfant après une transplantation hépatique pour une hépatite fulminante.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur le rôle de l’espace dans l’organisation et dans la dynamique des communautés écologiques multi-espèces. Deux carences peuvent être identifiées dans les études théoriques actuelles portant sur la dimension spatiale des communautés écologiques : l’insuffisance de modèles multi-espèces représentant la dimension spatiale explicitement, et le manque d’attention portée aux interactions positives, tel le mutualisme, en dépit de la reconnaissance de leur ubiquité dans les systèmes écologiques. Cette thèse explore cette problématique propre à l’écologie des communautés, en utilisant une approche théorique s’inspirant de la théorie des systèmes complexes et de la mécanique statistique. Selon cette approche, les communautés d’espèces sont considérées comme des systèmes complexes dont les propriétés globales émergent des interactions locales entre les organismes qui les composent, et des interactions locales entre ces organismes et leur environnement. Le premier objectif de cette thèse est de développer un modèle de métacommunauté multi-espèces, explicitement spatial, orienté à l’échelle des individus et basé sur un réseau d’interactions interspécifiques générales comprenant à la fois des interactions d’exploitation, de compétition et de mutualisme. Dans ce modèle, les communautés locales sont formées par un processus d’assemblage des espèces à partir d’un réservoir régional. La croissance des populations est restreinte par une capacité limite et leur dynamique évolue suivant des mécanismes simples de reproduction et de dispersion des individus. Ces mécanismes sont dépendants des conditions biotiques et abiotiques des communautés locales et leur effet varie en fonction des espèces, du temps et de l’espace. Dans un deuxième temps, cette thèse a pour objectif de déterminer l’impact d’une connectivité spatiale croissante sur la dynamique spatiotemporelle et sur les propriétés structurelles et fonctionnelles de cette métacommunauté. Plus précisément, nous évaluons différentes propriétés des communautés en fonction du niveau de dispersion des espèces : i) la similarité dans la composition des communautés locales et ses patrons de corrélations spatiales; ii) la biodiversité locale et régionale, et la distribution locale de l’abondance des espèces; iii) la biomasse, la productivité et la stabilité dynamique aux échelles locale et régionale; et iv) la structure locale des interactions entre les espèces. Ces propriétés sont examinées selon deux schémas spatiaux. D’abord nous employons un environnement homogène et ensuite nous employons un environnement hétérogène où la capacité limite des communautés locales évoluent suivant un gradient. De façon générale, nos résultats révèlent que les communautés écologiques spatialement distribuées sont extrêmement sensibles aux modes et aux niveaux de dispersion des organismes. Leur dynamique spatiotemporelle et leurs propriétés structurelles et fonctionnelles peuvent subir des changements profonds sous forme de transitions significatives suivant une faible variation du niveau de dispersion. Ces changements apparaissent aussi par l’émergence de patrons spatiotemporels dans la distribution spatiale des populations qui sont typiques des transitions de phases observées généralement dans les systèmes physiques. La dynamique de la métacommunauté présente deux régimes. Dans le premier régime, correspondant aux niveaux faibles de dispersion des espèces, la dynamique d’assemblage favorise l’émergence de communautés stables, peu diverses et formées d’espèces abondantes et fortement mutualistes. La métacommunauté possède une forte diversité régionale puisque les communautés locales sont faiblement connectées et que leur composition demeure ainsi distincte. Par ailleurs dans le second régime, correspondant aux niveaux élevés de dispersion, la diversité régionale diminue au profit d’une augmentation de la diversité locale. Les communautés locales sont plus productives mais leur stabilité dynamique est réduite suite à la migration importante d’individus. Ce régime est aussi caractérisé par des assemblages incluant une plus grande diversité d’interactions interspécifiques. Ces résultats suggèrent qu’une augmentation du niveau de dispersion des organismes permet de coupler les communautés locales entre elles ce qui accroît la coexistence locale et favorise la formation de communautés écologiques plus riches et plus complexes. Finalement, notre étude suggère que le mutualisme est fondamentale à l’organisation et au maintient des communautés écologiques. Les espèces mutualistes dominent dans les habitats caractérisés par une capacité limite restreinte et servent d’ingénieurs écologiques en facilitant l’établissement de compétiteurs, prédateurs et opportunistes qui bénéficient de leur présence.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche tente de déterminer si, dans le cadre d’un cours de physique de cinquième secondaire, l’utilisation d’un laboratoire par enquête guidée (comme complément d’enseignement basé sur une approche conceptuelle) permet aux élèves de mieux comprendre des notions de cinématique, que le laboratoire traditionnel. Elle s’inscrit dans une série d’études, réalisées au collégial ou à l’université, qui portent sur des approches d’enseignement exploitant le laboratoire comme moyen de transmission des concepts mécaniques en physique (McDermott, 1996; Beichner, 1994). Le laboratoire par enquête est associé à une approche conceptuelle axée sur le raisonnement qualitatif alors que celui qui est traditionnel est associé à une approche traditionnelle de l’enseignement de la physique. Le test TUG-K, «Test of Understanding Graphs in Kinematics » (Beichner, 1994), ainsi que des entrevues individuelles ont été utilisés afin d’évaluer la compréhension des concepts de cinématique. Il semble d’abord que le laboratoire par enquête guidé soit efficace pour enseigner la plupart des notions de cinématique. De plus, en comparant deux groupes d’une trentaine d’élèves de 5e secondaire ayant suivi deux types de laboratoires différents, l’étude a permis d’entrevoir une piste concernant la compréhension du concept d’accélération. Les résultats suggèrent qu’un laboratoire associé à une approche conceptuelle permettrait aux étudiants, à long terme, de mieux s’approprier les notions d’accélération qu’un laboratoire traditionnel.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Des études adultes sur l’œdème pulmonaire lésionnel et le Syndrome de Détresse Respiratoire Aiguë ont mené à l’établissement de recommandations sur les stratégies de ventilation mécanique à employer chez ces patients. Cependant, il n’est pas clair si les recommandations adultes sont également bénéfiques pour l’enfant. Objectif Décrire les stratégies de ventilation mécanique employées chez les enfants atteints d’un œdème pulmonaire lésionnel. Méthodes Étude épidémiologique transversale tenue dans 59 unités de Soins Intensifs Pédiatriques de 12 pays en Amérique du Nord et en Europe. Six jours d’étude ont eu lieu entre juin et novembre 2007. Les enfants atteints d’un œdème pulmonaire lésionnel étaient inclus et des données sur la sévérité de leur maladie, les paramètres de ventilation mécanique et les thérapies adjuvantes employées ont été recueillies. Résultats Des 3823 enfants dépistés, 414 (10.8%) avaient un œdème pulmonaire lésionnel et 165 (40%) ont été inclus dans l’étude (124 étaient sous ventilation mécanique conventionnelle, 27 sous ventilation à haute fréquence par oscillation et 14 sous ventilation non invasive). Dans le groupe sous ventilation conventionnelle, 43.5% étaient ventilés avec un mode contrôlé à pression, le volume courant moyen était de 8.3±3.3 ml/kg et l’utilisation de la PEP et FiO2 était hétérogène. Conclusions Cette étude démontre une hétérogénéité dans les stratégies de ventilation mécanique employées chez les enfants souffrant d’un œdème pulmonaire lésionnel. Celle-ci pourrait être en partie reliée à la robustesse des critères diagnostiques actuellement utilisés pour définir l’ALI/SDRA. Une évaluation rigoureuse de ces stratégies est nécessaire pour guider la standardisation des soins et optimiser l’issue de ces patients.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La caractérisation de matériaux par spectroscopie optique d’émission d’un plasma induit par laser (LIPS) suscite un intérêt qui ne va que s’amplifiant, et dont les applications se multiplient. L’objectif de ce mémoire est de vérifier l’influence du choix des raies spectrales sur certaines mesures du plasma, soit la densité électronique et la température d’excitation des atomes neutres et ionisés une fois, ainsi que la température d’ionisation. Nos mesures sont intégrées spatialement et résolues temporellement, ce qui est typique des conditions opératoires du LIPS, et nous avons utilisé pour nos travaux des cibles binaires d’aluminium contenant des éléments à l’état de trace (Al-Fe et Al-Mg). Premièrement, nous avons mesuré la densité électronique à l’aide de l’élargissement Stark de raies de plusieurs espèces (Al II, Fe II, Mg II, Fe I, Mg I, Halpha). Nous avons observé que les densités absolues avaient un comportement temporel différent en fonction de l’espèce. Les raies ioniques donnent des densités électroniques systématiquement plus élevées (jusqu’à 50 % à 200 ns après l’allumage du plasma), et décroissent plus rapidement que les densités issues des raies neutres. Par ailleurs, les densités obtenues par les éléments traces Fe et Mg sont moindres que les densités obtenues par l’observation de la raie communément utilisée Al II à 281,618 nm. Nous avons parallèlement étudié la densité électronique déterminée à l’aide de la raie de l’hydrogène Halpha, et la densité électronique ainsi obtenue a un comportement temporel similaire à celle obtenue par la raie Al II à 281,618 nm. Les deux espèces partagent probablement la même distribution spatiale à l’intérieur du plasma. Finalement, nous avons mesuré la température d’excitation du fer (neutre et ionisé, à l’état de trace dans nos cibles), ainsi que la température d’ionisation, à l’aide de diagrammes de Boltzmann et de Saha-Boltzmann, respectivement. À l’instar de travaux antérieurs (Barthélémy et al., 2005), il nous est apparu que les différentes températures convergeaient vers une température unique (considérant nos incertitudes) après 2-3 microsecondes. Les différentes températures mesurées de 0 à 2 microsecondes ne se recoupent pas, ce qui pourrait s’expliquer soit par un écart à l’équilibre thermodynamique local, soit en considérant un plasma inhomogène où la distribution des éléments dans la plume n’est pas similaire d’un élément à l’autre, les espèces énergétiques se retrouvant au cœur du plasma, plus chaud, alors que les espèces de moindre énergie se retrouvant principalement en périphérie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Rationnelle. La ventilation mécanique invasive (VI) s’accompagne lorsqu’elle se prolonge, d’une augmentation de la morbimortalité. Jusqu’à 64% des enfants hospitalisés aux soins intensifs sont ventilés et peu de données épidémiologiques existent afin d’estimer précocement la durée du support ventilatoire. Objectifs. Déterminer l’incidence et les facteurs de risque précoces de ventilation mécanique invasive prolongée aux soins intensifs pédiatriques. Méthode. Nous avons conduit une étude descriptive rétroélective sur un an. Tous les épisodes de VI aux soins intensifs du Centre hospitalier universitaire Sainte Justine de Montréal ont été inclus. Les facteurs de risque de VI prolongée (≥ 96 heures) ont été déterminés par régression logistique. Résultats. Parmi les 360 épisodes de VI, 36% ont duré ≥ 96 heures. Les facteurs de risques de ventilation prolongée en analyse multivariée sont : âge <12 mois, score de PRISM ≥ 15 à l’admission, pression moyenne dans les voies aériennes ≥13 cm H2O au jour 1 de ventilation, utilisation de la sédation intraveineuse continue au jour 1 de ventilation et ventilation non invasive avant intubation. Conclusion. La VI prolongée survient chez environ un tiers des patients ventilés. Les patients de moins de 12 mois semblent être plus à risque que les enfants plus âgés et devraient bénéficier de stratégies différentes pour diminuer leur durée de ventilation mécanique. La sévérité de la maladie, l’agressivité du support ventilatoire, l’utilisation d’une sédation continue au premier jour de ventilation sont également des facteurs à considérer dans les études visant à diminuer la durée de support ventilatoire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Une partie du travail a mené a un dépôt de brevet.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Malgré l’acceptation théorique et pratique que l’astrologie médiévale rencontre au 13e siècle latin, son statut philosophique ambigu tient, au moins en partie, à son double partage en art mécanique et en science libérale. Plus mystérieux encore reste le fait qu’elle apparaisse en Occident sans devoir violenter les cadres philosophiques où elle s’inscrit, aussi chrétiens soient-ils. Du point de vue de l’histoire de la philosophie, ce que cette arrivée en douceur passe sous silence, c’est l’enracinement conceptuel toujours déjà préétabli du projet astrologique à l’intérieur d’un contexte philosophique plus global, dans et par lequel l’idée d’influence astrale valide sa raison d’être. En passant par la philosophie naturelle et la métaphysique de Thomas d’Aquin, ce travail veut montrer comment l’astrologie médiévale survient en terres chrétiennes à partir de la rencontre de la hiérarchie causale de l’être propre à l’arabo-aristotélisme néo-platonisant avec une théologie de la providence divine. D’aporie en aporie, la déconstruction de ce que toute astrologie présuppose prend place, de sorte qu’il devient possible de comprendre l’aspect rationnel et proprement philosophique de l’entreprise astrologique au Moyen Âge.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les colonnes de plasma entretenues par un champ électrique (continu ou alternatif) à haute pression (p > 10 Torr) sont affectées par les phénomènes de contraction (réduction de la section radiale de la décharge) et de filamentation (fragmentation de la section de plasma en plusieurs filaments). La compréhension de ces phénomènes ainsi que le développement d’une méthode pouvant les supprimer demeurent une étape essentielle pour l’optimisation de certains procédés plasma. Dans cette optique, un premier objectif de notre travail était de déterminer les mécanismes à l’origine de la contraction et de la filamentation dans les décharges créées dans des gaz rares. Ainsi, nous avons montré que dans les plasmas micro-ondes contractés la cinétique de la décharge est contrôlée par les ions moléculaires et que la contraction est liée à l’influence du gradient de la température du gaz sur la concentration de ces ions. De plus, nous avons mis en évidence que la filamentation apparaît lorsque l’inhomogénéité radiale du champ électrique devient importante. Dans un second temps, nous avons développé une méthode de décontraction et de défilamentation de la décharge, qui consiste à ajouter à une décharge initiale de gaz rare des traces d’un autre gaz rare de plus faible potentiel d’ionisation. Dans le cas des plasmas décontractés, nous avons démontré que la cinétique de la décharge n’est plus contrôlée par les ions moléculaires, ce qui confirme bien l’importance de ces ions dans la description de la contraction. Pour terminer, nous avons étendu à la pression atmosphérique la technique d’absorption optique de mesure de densité des états métastables et résonnants à l’aide d’une lampe spectrale, ce qui n’avait été réalisé jusqu’ici que pour des pressions inférieures à 10 Torr. Ces états jouent un rôle essentiel dans l’ionisation des décharges contractées alors que dans les décharges décontractées leur désexcitation par les atomes du gaz adjuvant est l’étape fondamentale du processus de changement de cinétique menant à la décontraction.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Placer une charge au niveau du membre inférieur est une approche sans fondement scientifique, utilisée par les cliniciens, pour renforcer certains muscles clés de la marche. Cette étude a déterminé les modifications du patron de marche lors de l’ajout d’une charge à la cheville parétique ou non parétique chez des personnes ayant une hémiparésie suite à un accident vasculaire cérébral et a comparé les résultats à ceux d’un groupe témoin. Il est supposé qu’une charge placée à la jambe parétique/non dominante (charge ipsilatérale) augmenterait les efforts (moments et puissance) à la hanche parétique/non dominante lors de l’oscillation et qu’une charge placée controlatéralement augmenterait les efforts lors de la phase d’appui principalement pour les abducteurs de hanche stabilisant le bassin dans le plan frontal. La marche avec et sans charge de cinq individus hémiparétiques chroniques et 5 personnes en santé a été analysée en laboratoire par l’enregistrement des forces de réaction du sol et des mouvements des membres inférieurs. Ces informations ont permis de calculer les paramètres temps-distance, les angles à la hanche parétique/non dominante et au tronc, les moments nets, les puissances et le travail mécanique à la hanche parétique/non dominante. Des tests statistiques non-paramétriques ont servi à déterminer l’effet de la condition, avec charge (ipsi- et controlatérale) ou sans charge et à comparer les résultats entre les deux groupes. L’ajout d’une charge n’a pas modifié la vitesse de marche des sujets. Les phases d’appui et d’oscillation étaient rendus plus symétriques par la charge, même si peu de différences apparaissaient dans le plan sagittal avec ou sans la charge. Dans le plan frontal, le moment abducteur de hanche des sujets hémiparétiques a diminué avec la charge controlatérale, tandis qu'il a augmenté chez les sujets en santé. L’utilisation d’une stratégie posturale ou dynamique au tronc pourrait expliquer la différence de l’effet de la charge sur le moment abducteur à la hanche. Au vu de ces résultats, il est nécessaire de poursuivre l’évaluation de cette approche de renforcement musculaire spécifique à la tâche avant d’en recommander son utilisation.