889 resultados para Paramètres atmosphériques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est divisée en deux grands chapitres, dont le premier porte sur des problèmes de commande optimale en dimension un et le deuxième sur des problèmes en dimension deux ou plus. Notons bien que, dans cette thèse, nous avons supposé que le facteur temps n'intervient pas. Dans le premier chapitre, nous calculons, au début, l'équation de programmation dynamique pour la valeur minimale F de l'espérance mathématique de la fonction de coût considérée. Ensuite, nous utilisons le théorème de Whittle qui est applicable seulement si une condition entre le bruit blanc v et les termes b et q associés à la commande est satisfaite. Sinon, nous procédons autrement. En effet, un changement de variable transforme notre équation en une équation de Riccati en G= F', mais sans conditions initiales. Dans certains cas, à partir de la symétrie des paramètres infinitésimaux et de q, nous pouvons en déduire le point x' où G(x')=0. Si ce n'est pas le cas, nous nous limitons à des bonnes approximations. Cette même démarche est toujours possible si nous sommes dans des situations particulières, par exemple, lorsque nous avons une seule barrière. Dans le deuxième chapitre, nous traitons les problèmes en dimension deux ou plus. Puisque la condition de Whittle est difficile à satisfaire dans ce cas, nous essayons de généraliser les résultats du premier chapitre. Nous utilisons alors dans quelques exemples la méthode des similitudes, qui permet de transformer le problème en dimension un. Ensuite, nous proposons une nouvelle méthode de résolution. Cette dernière linéarise l'équation de programmation dynamique qui est une équation aux dérivées partielles non linéaire. Il reste à la fin à trouver les conditions initiales pour la nouvelle fonction et aussi à vérifier que les n expressions obtenues pour F sont équivalentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rampant increases in oil prices and detrimental effects of fossil fuels on the environment have been the main impetus for the development of environmentally friendly and sustainable energy sources. Amongst the many possibilities, microalgae have been proposed as a new alternative energy source to fossil fuels, as their growth is both sustainable and ecologically safe. By definition, microalgae are unicellular photosynthetic microorganisms containing chlorophyll a. These organisms are capable of producing large quantities of oils, surpassing that of traditional oil-seed crops, which can be transformed, through chemical processes, into biofuels such as biodiesel or bio-gasoline. Thus, recent research has gone into discovering high lipid producing algal strains, optimising growth media for increased lipid production and developing metabolic engineering to make microalgae a source of biofuel that is competitive to more traditional sources of biofuel and even to fossil fuel. In this context, the research reported here focused on using a mixotrophic growth mode as a way to increase lipid production for certain strains of microalgae. In addition, nitrogen starvation combined with mixotrophy was studied to analyse its effects on lipid production. Mixotrophy is the parallel usage of two trophic modes, in our case photoautotrophy and heterotrophy. Consequently, 12 algal strains were screened for mixotrophic growth, using glycerol as a carbon source. Glycerol is a waste product of the current biodiesel industry; it is a cheap and abundant carbon source present in many metabolic pathways. From this initial screening, several strains were chosen for subsequent experiments involving nitrogen starvation. Nitrogen starvation has been shown to induce lipid accumulation. The results obtained show that a mixotrophic growth mode, using glycerol as a carbon source, enhances lipid production for certain strains. Moreover, lipid enhancement was shown for nitrogen starvation combined with mixotrophic growth mode. This was dependant on time spent under nitrogen starvation and on initial concentrations of the nitrogen source.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pour analyser les images en tomodensitométrie, une méthode stœchiométrique est gé- néralement utilisée. Une courbe relie les unités Hounsfield d’une image à la densité électronique du milieu. La tomodensitométrie à double énergie permet d’obtenir des informations supplémentaires sur ces images. Une méthode stœchiométrique a été dé- veloppée pour permettre de déterminer les valeurs de densité électronique et de numéro atomique effectif à partir d’une paire d’images d’un tomodensitomètre à double énergie. Le but de cette recherche est de développer une nouvelle méthode d’identification de tissus en utilisant ces paramètres extraits en tomodensitométrie à double énergie. Cette nouvelle méthode est comparée avec la méthode standard de tomodensitométrie à simple énergie. Par ailleurs, l’impact dosimétrique de bien identifier un tissu est déterminé. Des simulations Monte Carlo permettent d’utiliser des fantômes numériques dont tous les paramètres sont connus. Les différents fantômes utilisés permettent d’étalonner les méthodes stœchiométriques, de comparer la polyvalence et la robustesse des méthodes d’identification de tissus double énergie et simple énergie, ainsi que de comparer les distributions de dose dans des fantômes uniformes de mêmes densités, mais de compo- sitions différentes. La méthode utilisant la tomodensitométrie à double énergie fournit des valeurs de densi- tés électroniques plus exactes, quelles que soient les conditions étudiées. Cette méthode s’avère également plus robuste aux variations de densité des tissus. L’impact dosimé- trique d’une bonne identification de tissus devient important pour des traitements aux énergies plus faibles, donc aux énergies d’imagerie et de curiethérapie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La radiothérapie stéréotaxique corporelle (SBRT) est une technique couramment employée pour le traitement de tumeurs aux poumons lorsque la chirurgie n’est pas possible ou refusée par le patient. Une complication de l’utilisation de cette méthode provient du mouvement de la tumeur causé par la respiration. Dans ce contexte, la radiothérapie asservie à la respiration (RGRT) peut être bénéfique. Toutefois, la RGRT augmente le temps de traitement en raison de la plus petite proportion de temps pour laquelle le faisceau est actif. En utilisant un faisceau de photons sans filtre égalisateur (FFF), ce problème peut être compensé par le débit de dose plus élevé d’un faisceau FFF. Ce mémoire traite de la faisabilité d’employer la technique de RGRT en combinaison avec l’utilisation un faisceau FFF sur un accélérateur Synergy S (Elekta, Stockholm, Suède) avec une ceinture pneumatique, le Bellows Belt (Philips, Amsterdam, Pays-Bas), comme dispositif de suivi du signal respiratoire. Un Synergy S a été modifié afin de pouvoir livrer un faisceau 6 MV FFF. Des mesures de profils de dose et de rendements en profondeur ont été acquises en cuve à eau pour différentes tailles de champs. Ces mesures ont été utilisées pour créer un modèle du faisceau 6 MV FFF dans le système de planification de traitement Pinnacle3 de Philips. Les mesures ont été comparées au modèle à l’aide de l’analyse gamma avec un critère de 2%, 2 mm. Par la suite, cinq plans SBRT avec thérapie en arc par modulation volumétrique (VMAT) ont été créés avec le modèle 6 MV du Synergy S, avec et sans filtre. Une comparaison des paramètres dosimétriques a été réalisée entre les plans avec et sans filtre pour évaluer la qualité des plans FFF. Les résultats révèlent qu’il est possible de créer des plans SBRT VMAT avec le faisceau 6 MV FFF du Synergy S qui sont cliniquement acceptables (les crières du Radiation Therapy Oncology Group 0618 sont respectés). Aussi, une interface physique de RGRT a été mise au point pour remplir deux fonctions : lire le signal numérique de la ceinture pneumatique Bellows Belt et envoyer une commande d’irradiation binaire au linac. L’activation/désactivation du faisceau du linac se fait par l’entremise d’un relais électromécanique. L’interface comprend un circuit électronique imprimé fait maison qui fonctionne en tandem avec un Raspberry Pi. Un logiciel de RGRT a été développé pour opérer sur le Raspberry Pi. Celui-ci affiche le signal numérique du Bellows Belt et donne l’option de choisir les limites supérieure et inférieure de la fenêtre d’irradiation, de sorte que lorsque le signal de la ceinture se trouve entre ces limites, le faisceau est actif, et inversement lorsque le signal est hors de ces limites. Le logiciel envoie donc une commande d’irradiation au linac de manière automatique en fonction de l’amplitude du signal respiratoire. Finalement, la comparaison entre la livraison d’un traitement standard sans RGRT avec filtre par rapport à un autre plan standard sans RGRT sans filtre démontre que le temps de traitement en mode FFF est réduit en moyenne de 54.1% pour un arc. De la même manière, la comparaison entre la livraison d’un traitement standard sans RGRT avec filtre par rapport à un plan de RGRT (fenêtre d’irradiation de 75%) sans filtre montre que le temps de traitement de RGRT en mode FFF est réduit en moyenne de 27.3% par arc. Toutefois, il n’a pas été possible de livrer des traitements de RGRT avec une fenêtre de moins de 75%. Le linac ne supporte pas une fréquence d’arrêts élevée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La résonance magnétique cardiovasculaire sensible à l'oxygénation (OS-CMR) est devenue une modalité d'imagerie diagnostique pour la surveillance de changements dans l'oxygénation du myocarde. Cette technique offre un grand potentiel en tant qu'outil diagnostic primaire pour les maladies cardiovasculaires, en particulier la détection non-invasive d'ischémie. Par contre, il existe plusieurs facteurs potentiellement confondants de cette technique, quelques-uns d'ordre méthodologique comme les paramètres de séquençage et d'autres de nature physiologiques qui sont peut compris. En raison des effets causés par le contenu tissulaire d'eau, l'état d'hydratation peut avoir un impact sur l'intensité du signal. Ceci est un des aspects physiologiques en particulier dont nous voulions quantifier l'effet confondant par la manipulation de l'état d'hydratation chez des humains et l'observation des changements de l'intensité du signal dans des images OS-CMR. Méthodes: In vitro: Du sang artériel et veineux de huit porcs a été utilisé pour évaluer la dilution en série du sang et son effet correspondant sur l'intensité du signal de la séquence OS. In vivo: Vingt-deux volontaires en santé ont subi OS-CMR. Les concentrations d'hémoglobine (Hb) ont été mesurées au niveau de base et immédiatement après une l'infusion cristalloïde rapide de 1000 mL de solution Lactate Ringer's (LRS). Les images OS-CMR ont été prises dans une vue mid-ventriculaire court axe. L'intensité du signal myocardique a été mesurée durant une rétention respiratoire volontaire maximale, suite à une période d'hyperventilation de 60 secondes. Les changements dans l'intensité du signal entre le début et la fin de la rétention de la respiration ont été exprimés relativement au niveau de base (% de changement). Résultats: L'infusion a résulté en une diminution significative de l'Hb mesurée (142.5±3.3 vs. 128.8±3.3 g/L; p<0.001), alors que l'IS a augmenté de 3.2±1.2% entre les images du niveau de base en normo- et hypervolémie (p<0.05). L'IS d'hyperventilation ainsi que les changements d'IS induits par l'apnée ont été attenués après hémodilution (p<0.05). L'évaluation quantitative T2* a démontré une corrélation négative entre le temps de T2* et la concentration d'hémoglobine (r=-0.46, p<0.005). Conclusions: Il existe plusieurs éléments confondants de la technique OS-CMR qui requièrent de l'attention et de l'optimisation pour une future implémentation clinique à grande échelle. Le statut d'hydratation en particulier pourrait être un élément confondant dans l'imagerie OS-CMR. L'hypervolémie mène à une augmentation en IS au niveau de base et atténue la réponse IS durant des manoeuvres de respiration vasoactives. Cette atténuation de l'intensité du signal devrait être tenue en compte et corrigée dans l'évaluation clinique d'images OS-CMR.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction. In utero, l’infection des membranes maternelles et fœtales, la chorioamniotite, passe souvent inaperçue et, en particulier lorsque associée à une acidémie, due à l’occlusion du cordon ombilical (OCO), comme il se produirait au cours du travail, peut entrainer des lésions cérébrales et avoir des répercussions neurologiques péri - et postnatales à long terme chez le fœtus. Il n'existe actuellement aucun moyen de détecter précocement ces conditions pathologiques in utéro afin de prévenir ou de limiter ces atteintes. Hypothèses. 1)l’électroencéphalogramme (EEG) fœtal obtenu du scalp fœtal pourrait servir d’outil auxiliaire à la surveillance électronique fœtale du rythme cardiaque fœtal (RCF) pour la détection précoce d'acidémie fœtale et d'agression neurologique; 2) la fréquence d’échantillonnage de l’ECG fœtal (ECGf) a un impact important sur le monitoring continu de la Variabilité du Rythme Cardiaque (VRCf) dans la prédiction de l’acidémie fœtale ; 3) les patrons de la corrélation de la VRCf aux cytokines pro-inflammatoires refléteront les états de réponses spontanées versus inflammatoires de la Voie Cholinergique Anti-inflammatoire (VCA); 4) grâce au développement d’un modèle de prédictions mathématiques, la prédiction du pH et de l’excès de base (EB) à la naissance sera possible avec seulement une heure de monitoring d’ECGf. Méthodes. Dans une série d’études fondamentales et cliniques, en utilisant respectivement le mouton et une cohorte de femmes en travail comme modèle expérimental et clinique , nous avons modélisé 1) une situation d’hypoxie cérébrale résultant de séquences d’occlusion du cordon ombilical de sévérité croissante jusqu’à atteindre un pH critique limite de 7.00 comme méthode expérimentale analogue au travail humain pour tester les première et deuxième hypothèses 2) un inflammation fœtale modérée en administrant le LPS à une autre cohorte animale pour vérifier la troisième hypothèse et 3) un modèle mathématique de prédictions à partir de paramètres et mesures validés cliniquement qui permettraient de déterminer les facteurs de prédiction d’une détresse fœtale pour tester la dernière hypothèse. Résultats. Les séries d’OCO répétitives se sont soldés par une acidose marquée (pH artériel 7.35±0.01 à 7.00±0.01), une diminution des amplitudes à l'électroencéphalogramme( EEG) synchronisé avec les décélérations du RCF induites par les OCO accompagnées d'une baisse pathologique de la pression artérielle (PA) et une augmentation marquée de VRCf avec hypoxie-acidémie aggravante à 1000 Hz, mais pas à 4 Hz, fréquence d’échantillonnage utilisée en clinique. L’administration du LPS entraîne une inflammation systémique chez le fœtus avec les IL-6 atteignant un pic 3 h après et des modifications de la VRCf retraçant précisément ce profil temporel des cytokines. En clinique, avec nos cohortes originale et de validation, un modèle statistique basée sur une matrice de 103 mesures de VRCf (R2 = 0,90, P < 0,001) permettent de prédire le pH mais pas l’EB, avec une heure d’enregistrement du RCF avant la poussée. Conclusions. La diminution de l'amplitude à l'EEG suggère un mécanisme d'arrêt adaptatif neuroprotecteur du cerveau et suggère que l'EEG fœtal puisse être un complément utile à la surveillance du RCF pendant le travail à haut risque chez la femme. La VRCf étant capable de détecter une hypoxie-acidémie aggravante tôt chez le fœtus à 1000Hz vs 4 Hz évoque qu’un mode d'acquisition d’ECG fœtal plus sensible pourrait constituer une solution. Des profils distinctifs de mesures de la VRCf, identifiés en corrélation avec les niveaux de l'inflammation, ouvre une nouvelle voie pour caractériser le profil inflammatoire de la réponse fœtale à l’infection. En clinique, un monitoring de chevet de prédiction du pH et EB à la naissance, à partir de mesures de VRCf permettrait des interprétations visuelles plus explicites pour des prises de décision plus exactes en obstétrique au cours du travail.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les simulations et figures ont été réalisées avec le logiciel R.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les pyréthrinoïdes sont des insecticides largement utilisés. La population générale y est exposée par l’alimentation tandis que les travailleurs agricoles y sont exposés lors de tâches diverses en champs. Leurs effets neurotoxiques, immunitaires et endocriniens potentiels en font des composés à surveiller pour assurer la santé de la population. La mesure de biomarqueurs d’exposition, qui consiste à quantifier la concentration dans l’organisme d’une substance ou de ses métabolites, permet d’estimer les doses absorbées. Les biomarqueurs peuvent également être des molécules répondant à un stress physiologique, identifiées comme des biomarqueurs d’effets. Pour raffiner les stratégies de biosurveillance de l’exposition, on se doit de bien connaître la toxicocinétique d’un xénobiotique; actuellement, les études de biosurveillance considèrent rarement la variabilité temporelle, intra-invidivuelle et inter-individuelle, qui pourrait influencer l’estimation de l’exposition. L’objectif de la thèse est donc d’appliquer une approche cinétique pour l’évaluation de l’exposition aux pyréthrinoïdes en conditions contrôlées et en milieu de travail. Dans un volet exploratoire, l’effet de cette exposition sur des changements métaboliques précoces a également évalué. Trois métabolites finaux (cis-DCCA, trans-DCCA et 3-PBA) de deux pyréthrinoïdes les plus utilisés, soient la perméthrine et la cyperméthrine, ont été mesurés dans le plasma et l’urine de six volontaires oralement exposés à une dose équivalente à la dose de référence. Une demi-vie moyenne (t½) d’élimination apparente du trans-DCCA, cis-DCCA et 3-PBA dans le plasma de 5,1, 6,9 et 9,2 h, respectivement, a été obtenue après exposition orale à la cyperméthrine, comparativement à 7,1, 6,2 et 6,5 h après exposition à la perméthrine. Dans l’urine, la demi-vie d'élimination apparente (t½) était de 6,3, 6,4 et 6,4 h pour le trans-DCCA, cis-DCCA et 3-PBA, respectivement, après administration de la cyperméthrine comparé à 5,4, 4,5 et 5,7 h après administration de la perméthrine. Les profils temporels étaient semblables suite à l’exposition à la cyperméthrine et perméthrine. Ensuite, une étude en milieu agricole a été réalisée avec la participation de travailleurs pour évaluer leur exposition et raffiner les stratégies de biosurveillance. La variabilité intra-individuelle dans les niveaux de biomarqueurs d’exposition chez plusieurs travailleurs était plus importante que la variabilité inter-individuelle. Les échantillons urinaires ont également été utilisés pour identifier des modifications du métabolome pouvant fournir de nouveaux biomarqueurs d’effets précoces. Chez les travailleurs, une augmentation de l'hippurate urinaire (p <0,0001) a été observée après exposition aux pyréthrinoïdes, un biomarqueur de la conjugaison de l’acide benzoïque. En conclusion, cette étude a permis de mieux documenter la cinétique de biomarqueurs d’exposition aux pyréthrinoïdes dans des conditions contrôlées et réelles afin de raffiner les stratégies de biosurveillance. Elle a aussi contribué à renseigner sur les niveaux d’exposition agricole québécois et sur les paramètres professionnels associés à une plus forte exposition. Ce projet s’insère dans une démarche d’analyse de risque en santé au travail.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’« intérêt de l’enfant » est un concept fondamental en droit de la famille puisqu’il constitue le critère déterminant dans toute décision qui concerne l’enfant. Le Code civil du Québec énonce, au second alinéa de l’article 33, les facteurs qui doivent servir à le déterminer, soit « les besoins moraux, intellectuels, affectifs et physiques de l’enfant, son âge, sa santé, son caractère, son milieu familial et les autres aspects de sa situation ». Les auteurs qui s’y sont intéressés l’ont abordé sous différents angles. Certains se sont intéressés à ses origines et à son évolution. D’autres en ont proposé leur propre définition. En ce qui nous concerne, nous avons choisi d’explorer ledit concept en nous intéressant aux diverses interprétations qu’il reçoit de la part des tribunaux dans les décisions relatives à la garde des enfants dans un contexte post-rupture, et ce, à la lumière du genre et de l’âge du décideur. Le concept d’intérêt de l’enfant étant hautement indéterminé, son interprétation est laissée à l’appréciation du juge qui en précisera le contenu en référence à la loi et aux faits particuliers de chaque cas d’espèce. Or, dans les situations où, une fois considéré le contexte factuel et normatif, le juge se retrouve face à une situation « neutre », c’est-à-dire où la garde exclusive et la garde partagée sont tout aussi envisageables, peut-on prétendre que son l’inclinaison vers l’une ou l’autre de ces modalités de garde est influencée par des facteurs autres que le droit et les faits mis en preuve ? Telle est la question au cœur de notre étude. Reposant sur des théories reconnues et bien établies affirmant l’importance de tenir compte du contexte social et de l’expérience individuelle du décideur dans la démarche interprétative que le droit sous-tend, l’hypothèse que nous soumettons est qu’au-delà des faits mis en preuve et du droit, des éléments indissociables au processus d’interprétation, à savoir les valeurs, les idéologies et les traits caractéristiques dominants que sous-tendent le genre et la génération du décideur, influent sur la teneur des jugements qu’il prononce. Sans admettre que ces éléments suffisent, à eux seuls, pour expliquer le produit judiciaire, nous sommes d’avis qu’on ne peut qualifier d’improbable l’incidence qu’ils exercent sur celui-ci. Nous intéressant au processus cognitif qui préside à la réflexion des décideurs, notre thèse vise à cerner, à travers une analyse interdisciplinaire, les facteurs humains et les forces sociales qui structurent les expériences et qui sont susceptibles d’avoir un impact sur les décisions judiciaires. L’objectif de notre étude n’est pas d’établir un lien de causalité entre le genre et l’âge du juge et les décisions qu’il rend, mais plutôt de vérifier si des corrélations peuvent être établies entre ces paramètres. Désirant aller au-delà des perceptions traditionnelles véhiculées par la doctrine classique, nos travaux se veulent davantage une contribution au développement d’une conception non formaliste du droit plutôt qu’une démonstration que le profil identitaire des décideurs conditionne systématiquement et invariablement leurs décisions. Une étude de ce genre comporte certes des difficultés en ce qu’elle confronte le juriste à des concepts et des théories qui appartiennent à d’autres champs disciplinaires et qui, partant, ne lui sont pas familiers. La compréhension plus fine du processus interprétatif et des décisions qui en résultent en justifie cependant le bien-fondé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’influence des contaminants environnementaux (CE) a été largement étudié en contexte d’exposition aigüe et d’intoxication. Qu’en est-il d’une exposition chronique à plus faibles doses sur le développement cognitif et sensoriel des enfants? Les études longitudinales de la présente thèse ont été réalisées au Nunavik. Bien que géographiquement éloignée des centres industriels, la communauté inuite est exposée aux CE via leur transport par les courants atmosphériques et océaniques ainsi que par leur bioaccumulation dans le poisson et les mammifères marins. Puisque l’alimentation autochtone traditionnelle, notamment la chair de béluga, est encore fréquemment consommée par la communauté, une proportion substantielle d’enfants inuits est exposée in utero aux CE. Ceux-ci sont également continuellement exposés à ces agents neurotoxiques durant leur développement postnatal. Or, la variation considérable dans l’adoption de l’alimentation traditionnelle au sein de la communauté représente une opportunité pour étudier la relation entre les niveaux d’exposition aux CE et le développement cognitif et sensoriel des enfants. Bien que certains déficits aient déjà été mis en lien avec l’exposition chronique aux CE dans la littérature, la présente thèse s’intéressa à cette relation plus spécifiquement chez les enfants inuits vivant dans le Grand Nord et plus exposés aux CE en raison de leur alimentation. Par ailleurs, les protocoles qui ont été développés pour cette thèse permettront d’évaluer des aspects qui ont été peu étudiés en lien avec les CE, soit l’attention visuospatiale et le traitement visuel cérébral précoce. Dans le premier volet de cette thèse, la relation entre trois CE et l’attention visuospatiale a été étudiée à l’aide d’une version adaptée de la tâche de Posner (M.I. Posner et al., 1980). Cette tâche psychophysique a été administrée à des enfants inuits (âge moyen = 11.2 ans) dont les niveaux d’exposition au mercure (Hg), au plomb (Pb) et aux biphényles polychlorés (BPCs) ont été documentés durant les périodes pré et postnatale. Les expositions in utero au Pb et aux BPCs ont été significativement associées à de l’impulsivité et de l’inattention, respectivement, alors que l’exposition postnatale au Pb a été associée à des temps de réaction plus longs. Bien qu’aucune relation spécifique avec l’attention visuospatiale n’ait été trouvée, les résultats de cette étude suggèrent que l’exposition aux CE est associée à une diminution des capacités attentionnelles générales chez les enfants résidant au Nunavik. Dans le second volet, le traitement cérébral précoce de l’information visuelle a été examiné à l’aide de potentiels évoqués visuels auprès d’enfants de la même communauté (âge moyen = 10.9 ans). La concentration de Hg dans le sang de cordon ombilical mesurée à la naissance a été associée à une réduction de l’amplitude et à une augmentation de la latence de la composante N75. L’exposition prénatale au Pb a quant à elle été associée à un délai dans la latence de la composante N150. Les résultats obtenus suggèrent ainsi que l’exposition aux métaux lourds, en particulier durant la période gestationnelle, serait associée à des altérations dans le développement visuel. Les résultats présentés dans cette thèse soutiennent l’hypothèse selon laquelle le cerveau en développement est vulnérable lors d’une exposition chronique aux CE, et cela même à des niveaux de concentration inférieurs aux limites recommandées par les organismes de santé publique. Les résultats permettent également d’apporter un éclairage nouveau sur les déficits cognitifs et sensoriels associés aux CE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les mollusques sont des indicateurs de perturbations anthropiques et environnementales. Ce groupe de macroinvertébrés représente en outre une source importante de nourriture pour les poissons et les oiseaux aquatiques du littoral. Les hypothèses de cette étude sont que la communauté de mollusques est influencée indirectement par les tributaires agricoles et/ou par des variables environnementales (comme la dessiccation et l'exposition aux vagues) puisque ces perturbations sont susceptibles de modifier leurs sources alimentaires et leur habitat. Les indicateurs de la réponse des mollusques aux agents perturbateurs sont la composition, la diversité, la densité, ainsi que la biomasse des espèces. En septembre 2013, des mesures de paramètres physico-chimiques de l'eau ont été réalisées, et des échantillons de mollusques et de végétation aquatique ont été prélevés à 14 sites le long des rives du lac Saint-Pierre (Fleuve Saint-Laurent, Québec, Canada). Le long de la rive nord, les sites fortement exposés à l'action du vent, situés à de plus grandes élévations, affichaient une plus faible densité, biomasse et richesse spécifique de mollusques que les sites de la rive sud, en milieu plus abrité et profond. Les sites physiquement perturbés étaient caractérisés par de faibles biomasses en macrophytes submergés. Les sphaeriidae apparaissent comme des exceptions à ces patrons, montrant une abondance plus élevée aux sites presque dépourvus de macrophytes. Bien que les variables physiques et l'habitat exercent une influence déterminante sur les communautés de mollusques, les gastéropodes et les moules unionidés étaient également affectés par la dégradation de la qualité de l'eau dans le panache des tributaires agricoles. La richesse, la densité et la biomasse des gastéropodes étaient négativement influencées par des teneurs élevées de matières en suspension et de fer dissous. Les résultats de notre étude montrent que la communauté de mollusques du lac Saint-Pierre est directement affectée par l'émersion périodique, l'exposition au vent, et indirectement par l'effet de ces variables physiques sur les macrophytes qui constituent leur habitat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les nanoparticules (NPs) de polymère ont montré des résultats prometteurs pour leur utilisation comme système de transport de médicaments pour une libération contrôlée du médicament, ainsi que pour du ciblage. La biodisponibilité des médicaments administrés oralement pourrait être limitée par un processus de sécrétion intestinale, qui pourrait par la suite être concilié par la glycoprotéine P (P-gp). La dispersion de la Famotidine (modèle de médicament) à l’intérieur des nanoparticules (NPs) pegylées a été évaluée afin d’augmenter la biodisponibilité avec du polyéthylène glycol (PEG), qui est connu comme un inhibiteur de P-gp. L’hypothèse de cette étude est que l’encapsulation de la Famotidine (un substrat de P-gp) à l’intérieur des NPs préparées à partir de PEG-g-PLA pourrait inhiber la fonction P-gp. La première partie de cette étude avait pour but de synthétiser quatre copolymères de PEG greffés sur un acide polylactide (PLA) et sur un squelette de polymère (PLA-g-PEG), avec des ratios de 1% et 5% (ratio molaire de PEG vs acide lactique monomère) de soit 750, soit 2000 Da de masse moléculaire. Ces polymères ont été employés afin de préparer des NPs chargés de Famotidine qui possède une faible perméabilité et une solubilité aqueuse relativement basse. Les NPs préparées ont été analysées pour leur principaux paramètres physicochimiques tels que la taille et la distribution de la taille, la charge de surface (Potentiel Zeta), la morphologie, l’efficacité d’encapsulation, le pourcentage résiduel en alcool polyvinylique (PVA) adsorbé à la surface des NPs, les propriétés thermiques, la structure cristalline et la libération du médicament. De même, les formules de NPs ont été testées in vitro sur des cellules CaCo-2 afin dʼévaluer la perméabilité bidirectionnelle de la Famotidine. Généralement, les NPs préparées à partir de polymères greffés PLA-g-5%PEG ont montré une augmentation de la perméabilité du médicament, ce par l’inhibition de l’efflux de P-gp de la Famotidine dans le modèle CaCo-2 in vitro. Les résultats ont montré une baisse significative de la sécrétion de la Famotidine de la membrane basolatéral à apical lorsque la Famotidine était encapsulée dans des NPs préparées à partir de greffes de 5% PEG de 750 ou 2000 Da, de même que pour d’autres combinaisons de mélanges physiques contenant du PEG5%. La deuxième partie de cette étude est à propos de ces NPs chargées qui démontrent des résultats prometteurs en termes de perméabilité et d’inhibition d’efflux de P-gp, et qui ont été choises pour développer une forme orale solide. La granulation sèche a été employée pour densifier les NPs, afin de développer des comprimés des deux formules sélectionnées de NPs. Les comprimés à base de NPs ont démontré un temps de désintégration rapide (moins d’une minute) et une libération similaire à la Famotidine trouvée sur le marché. Les résultats de l’étude du transport de comprimés à base de NPs étaient cohérents avec les résultats des formules de NPs en termes d’inhibition de P-gp, ce qui explique pourquoi le processus de fabrication du comprimé n’a pas eu d’effet sur les NPs. Mis ensemble, ces résultats montrent que l’encapsulation dans une NP de polymère pegylé pourrait être une stratégie prometteuse pour l’amélioration de la biodisponibilité des substrats de P-gp.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les nanomatériaux sont une classe de contaminants qui est de plus en plus présent dans l’environnement. Leur impact sur l’environnement dépendra de leur persistance, mobilité, toxicité et bioaccumulation. Chacun de ces paramètres dépendra de leur comportement physicochimique dans les eaux naturelles (i.e. dissolution et agglomération). L’objectif de cette étude est de comprendre l’agglomération et l’hétéroagglomération des nanoparticules d’argent dans l’environnement. Deux différentes sortes de nanoparticules d’argent (nAg; avec enrobage de citrate et avec enrobage d’acide polyacrylique) de 5 nm de diamètre ont été marquées de manière covalente à l’aide d’un marqueur fluorescent et ont été mélangées avec des colloïdes d’oxyde de silice (SiO2) ou d’argile (montmorillonite). L’homo- et hétéroagglomération des nAg ont été étudiés dans des conditions représentatives d’eaux douces naturelles (pH 7,0; force ionique 10 7 à 10-1 M de Ca2+). Les tailles ont été mesurées par spectroscopie de corrélation par fluorescence (FCS) et les résultats ont été confirmés à l’aide de la microscopie en champ sombre avec imagerie hyperspectrale (HSI). Les résultats ont démontrés que les nanoparticules d’argent à enrobage d’acide polyacrylique sont extrêmement stables sous toutes les conditions imposées, incluant la présence d’autres colloïdes et à des forces ioniques très élevées tandis que les nanoparticules d’argent avec enrobage de citrate ont formées des hétéroagrégats en présence des deux particules colloïdales.