886 resultados para Crimes liés à la drogue


Relevância:

100.00% 100.00%

Publicador:

Resumo:

RESUME : La douleur neuropathique est le résultat d'une lésion ou d'un dysfonctionnement du système nerveux. Les symptômes qui suivent la douleur neuropathique sont sévères et leur traitement inefficace. Une meilleure approche thérapeutique peut être proposée en se basant sur les mécanismes pathologiques de la douleur neuropathique. Lors d'une lésion périphérique une douleur neuropathique peut se développer et affecter le territoire des nerfs lésés mais aussi les territoires adjacents des nerfs non-lésés. Une hyperexcitabilité des neurones apparaît au niveau des ganglions spinaux (DRG) et de la corne dorsale (DH) de la moelle épinière. Le but de ce travail consiste à mettre en évidence les modifications moléculaires associées aux nocicepteurs lésés et non-lésés au niveau des DRG et des laminae I et II de la corne dorsale, là où l'information nociceptive est intégrée. Pour étudier les changements moléculaires liés à la douleur neuropathique nous utilisons le modèle animal d'épargne du nerf sural (spared nerve injury model, SNI) une semaine après la lésion. Pour la sélection du tissu d'intérêt nous avons employé la technique de la microdissection au laser, afin de sélectionner une sous-population spécifique de cellules (notamment les nocicepteurs lésés ou non-lésés) mais également de prélever le tissu correspondant dans les laminae superficielles. Ce travail est couplé à l'analyse à large spectre du transcriptome par puce ADN (microarray). Par ailleurs, nous avons étudié les courants électriques et les propriétés biophysiques des canaux sodiques (Na,,ls) dans les neurones lésés et non-lésés des DRG. Aussi bien dans le système nerveux périphérique, entre les neurones lésés et non-lésés, qu'au niveau central avec les aires recevant les projections des nocicepteurs lésés ou non-lésés, l'analyse du transcriptome montre des différences de profil d'expression. En effet, nous avons constaté des changements transcriptionnels importants dans les nocicepteurs lésés (1561 gènes, > 1.5x et pairwise comparaison > 77%) ainsi que dans les laminae correspondantes (618 gènes), alors que ces modifications transcriptionelles sont mineures au niveau des nocicepteurs non-lésés (60 gènes), mais important dans leurs laminae de projection (459 gènes). Au niveau des nocicepteurs, en utilisant la classification par groupes fonctionnels (Gene Ontology), nous avons observé que plusieurs processus biologiques sont modifiés. Ainsi des fonctions telles que la traduction des signaux cellulaires, l'organisation du cytosquelette ainsi que les mécanismes de réponse au stress sont affectés. Par contre dans les neurones non-lésés seuls les processus biologiques liés au métabolisme et au développement sont modifiés. Au niveau de la corne dorsale de la moelle, nous avons observé des modifications importantes des processus immuno-inflammatoires dans l'aire affectée par les nerfs lésés et des changements associés à l'organisation et la transmission synaptique au niveau de l'aire des nerfs non-lésés. L'analyse approfondie des canaux sodiques a démontré plusieurs changements d'expression, principalement dans les neurones lésés. Les analyses fonctionnelles n'indiquent aucune différence entre les densités de courant tétrodotoxine-sensible (TTX-S) dans les neurones lésés et non-lésés même si les niveaux d'expression des ARNm des sous-unités TTX-S sont modifiés dans les neurones lésés. L'inactivation basale dépendante du voltage des canaux tétrodotoxine-insensible (TTX-R) est déplacée vers des potentiels positifs dans les cellules lésées et non-lésées. En revanche la vitesse de récupération des courants TTX-S et TTX-R après inactivation est accélérée dans les neurones lésés. Ces changements pourraient être à l'origine de l'altération de l'activité électrique des neurones sensoriels dans le contexte des douleurs neuropathiques. En résumé, ces résultats suggèrent l'existence de mécanismes différenciés affectant les neurones lésés et les neurones adjacents non-lésés lors de la mise en place la douleur neuropathique. De plus, les changements centraux au niveau de la moelle épinière qui surviennent après lésion sont probablement intégrés différemment selon la perception de signaux des neurones périphériques lésés ou non-lésés. En conclusion, ces modulations complexes et distinctes sont probablement des acteurs essentiels impliqués dans la genèse et la persistance des douleurs neuropathiques. ABSTRACT : Neuropathic pain (NP) results from damage or dysfunction of the peripheral or central nervous system. Symptoms associated with NP are severe and difficult to treat. Targeting NP mechanisms and their translation into symptoms may offer a better therapeutic approach.Hyperexcitability of the peripheral and central nervous system occurs in the dorsal root ganglia (DRG) and the dorsal horn (DH) of the spinal cord. We aimed to identify transcriptional variations in injured and in adjacent non-injured nociceptors as well as in corresponding laminae I and II of DH receiving their inputs.We investigated changes one week after the injury induced by the spared nerve injury model of NP. We employed the laser capture microdissection (LCM) for the procurement of specific cell-types (enrichment in nociceptors of injured/non-injured neurons) and laminae in combination with transcriptional analysis by microarray. In addition, we studied functionál properties and currents of sodium channels (Nav1s) in injured and neighboring non-injured DRG neurons.Microarray analysis at the periphery between injured and non-injured DRG neurons and centrally between the area of central projections from injured and non-injured neurons show significant and differential expression patterns. We reported changes in injured nociceptors (1561 genes, > 1.5 fold, >77% pairwise comparison) and in corresponding DH laminae (618 genes), while less modifications occurred in non-injured nociceptors (60 genes) and in corresponding DH laminae (459 genes). At the periphery, we observed by Gene Ontology the involvement of multiple biological processes in injured neurons such as signal transduction, cytoskeleton organization or stress responses. On contrast, functional overrepresentations in non-injured neurons were noted only in metabolic or developmentally related mechanisms. At the level of superficial laminae of the dorsal horn, we reported changes of immune and inflammatory processes in injured-related DH and changes associated with synaptic organization and transmission in DH corresponding to non-injured neurons. Further transcriptional analysis of Nav1s indicated several changes in injured neurons. Functional analyses of Nav1s have established no difference in tetrodotoxin-sensitive (TTX-S) current densities in both injured and non-injured neurons, despite changes in TTX-S Nav1s subunit mRNA levels. The tetrodotoxin-resistant (TTX-R) voltage dependence of steady state inactivation was shifted to more positive potentials in both injured and non-injured neurons, and the rate of recovery from inactivation of TTX-S and TTX-R currents was accelerated in injured neurons. These changes may lead to alterations in neuronal electrogenesis. Taken together, these findings suggest different mechanisms occurring in the injured neurons and the adjacent non-injured ones. Moreover, central changes after injury are probably driven in a different manner if they receive inputs from injured or non-injured neurons. Together, these distinct and complex modulations may contribute to NP.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les professionnels de la santé et les familles pour qui des enfants qui participent à la recherche en génétique ou qui nécessitent des services génétiques spécialisés, y compris, le dépistage génétique, seront confrontés à des interrogations non seulement médicales, mais sociales, éthiques et juridiques liées à la génétique en neurologie pédiatrique. Les enfants se retrouvent souvent au centre d’innovations dans le cadre de recherches en génétique et leurs besoins uniques soulèvent des inquiétudes quant aux risques et aux bénéfices associés à cette recherche. Plus précisément, le consentement, l’utilisation de base de données génétique et la thérapie génique soulèvent des enjeux particuliers. En plus de ces enjeux, des risques psychologiques peuvent aussi leur être associés. À la lumière de l’analyse de lignes directrices nationales et internationales, il sera question, dans cet article, des bénéfices et de l’impact des technologies génétiques chez l’enfant. Les médecins, les législateurs et les familles doivent être informés de ces lignes directrices et doivent comprendre les enjeux éthiques et psychologiques liés à la génétique en neurologie pédiatrique. // Health care providers and families with children who participate in genetic research or who need specialized genetic services, including genetic testing, will encounter not only medical but difficult social, ethical, and legal questions surrounding pediatric genetic neurology. Children are often at the center of much of the genetic revolution and their unique needs raise special concerns about the risks and the benefits associated with genetic research, particularly the issues of consent, the use of genetic databases, and gene therapy. Moreover, genetic research and testing raise important psychosocial risks. In this article we discuss some of the benefits and consequences of genetic technologies for children in relation to national and international guidelines. In particular, physicians, policy-makers, and families should be knowledgeable about the guidelines and have good understanding of the psychosocial and ethical issues associated with genetics in pediatric neurology.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un résumé en anglais est également disposnible.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Much of the literature on ethical issues in child and youth participation has drawn on the episodic experiences of participatory research efforts in which young people’s input has been sought, transcribed and represented. This literature focuses in particular on the power dynamics and ethical dilemmas embedded in time-bound adult/child and outsider/insider relationships. While we agree that these issues are crucial and in need of further examination, it is equally important to examine the ethical issues embedded within the “everyday” practices of the organizations in and through which young people’s participation in community research and development often occurs (e.g., community-based organizations, schools and municipal agencies). Drawing on experience from three summers of work in promoting youth participation in adult-led organizations of varying purpose, scale and structure, a framework is postulated that presents participation as a spatial practice shaped by five overlapping dimensions. The framework is offered as a point of discussion and a potential tool for analysis in ecipation in relation to organizational practice.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’appréciation de la puissance cancérogène des fibres d’amiante chrysotile repose en grande partie sur des jugements subjectifs et incertains des experts et des analystes en raison des résultats hétérogènes et équivoques d’études épidémiologiques et toxicologiques sérieuses. L’approche probabiliste bayésienne en évaluation de risques peut formaliser l’impact des jugements subjectifs et de leurs incertitudes sur les estimations de risques, mais elle est encore peu utilisée en santé publique. Le présent travail examine la possibilité d’appliquer l’approche bayésienne dans une récente élicitation d’opinions d’experts pour estimer la toxicité du chrysotile, le degré de consensus et de divergence, ainsi que les niveaux d’incertitude des experts. Les estimations des experts concordaient assez bien sur la différence de toxicité entre chrysotile et amphiboles pour les mésothéliomes. Pour le cancer du poumon, les évaluations probabilistes étaient bien plus disparates. Dans ce cas, les jugements des experts semblaient influencés à différents degrés par des biais heuristiques, surtout les heuristiques d’affect et d’ancrage liés à la controverse du sujet et à l’hétérogénéité des données. Une méthodologie rigoureuse de préparation des experts à l’exercice d’élicitation aurait pu réduire l’impact des biais et des heuristiques sur le panel.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Plusieurs agents anticancéreux très puissants sont caractérisés par une solubilité aqueuse limitée et une toxicité systémique importante. Cette dernière serait liée d’une part à la solubilisation des agents anticancéreux à l’aide de surfactifs de bas poids moléculaire, connus pour leur toxicité intrinsèque, et d’autre part, par le manque de spécificité tissulaire des anticancéreux. Les vecteurs colloïdaux à base de polymères permettraient de résoudre certains défis liés à la formulation d’agents anticancéreux hydrophobes. D’abord, les polymères peuvent être sélectionnés afin de répondre à des critères précis de compatibilité, de dégradation et d’affinité pour le médicament à formuler. Ensuite, le fait d’encapsuler l’agent anticancéreux dans un vecteur peut améliorer son efficacité thérapeutique en favorisant son accumulation au niveau du tissu cible, i.e. la tumeur, et ainsi limiter sa distribution au niveau des tissus sains. Des travaux antérieurs menés au sein de notre laboratoire ont mené à la mise au point de micelles à base de poly(N-vinyl-pyrrolidone)-bloc-poly(D,L-lactide) (PVP-b-PDLLA) capables de solubiliser des agents anticancéreux faiblement hydrosolubles dont le PTX. Ce dernier est commercialisé sous le nom de Taxol® et formulé à l’aide du Crémophor EL (CrEL), un surfactif de bas poids moléculaire pouvant provoquer, entre autres, des réactions d’hypersensibilité sévères. Bien que les micelles de PVP-b-PDLLA chargées de PTX aient démontré une meilleure tolérance comparée au Taxol®, leur potentiel de ciblage tumoral et leur efficacité thérapeutique étaient similaires à la forme commerciale à doses égales. Ceci était possiblement dû au fait que les micelles étaient rapidement déstabilisées et ne pouvaient retenir leur cargo suite à leur administration intraveineuse. Nous avons donc décidé de poursuivre les travaux avec un autre type de vecteur, soit des nanoparticules, qui possèdent une stabilité intrinsèque supérieure aux micelles. L’objectif principal de cette thèse de doctorat était donc de mettre au point des nanoparticules polymères pour l’administration parentérale d’agents anticancéreux faiblement solubles dans l’eau. Les nanoparticules devaient permettre d’encapsuler des agents anticancéreux hydrophobes et de les libérer de manière contrôlée sur plusieurs jours. De plus, elles devaient démontrer un temps de circulation plasmatique prolongée afin de favoriser l’accumulation passive du médicament encapsulé au niveau de la tumeur. La première partie du travail visait à employer pour la première fois le copolymère amphiphile PVP-b-PDLLA comme émulsifiant dans la préparation de nanoparticules polymères. Ainsi, une méthode de fabrication des nanoparticules par émulsion huile-dans-eau a été appliquée afin de produire des nanoparticules à base de PDLLA de taille inférieure à 250 nm. Grâce aux propriétés lyoprotectrices de la couronne de PVP présente à la surface des nanoparticules, celles-ci pouvaient retrouver leur distribution de taille initiale après lyophilisation et redispersion en milieu aqueux. Deux anticancéreux hydrophobes, soit le PTX et l’étoposide (ETO), ont été encapsulés dans les nanoparticules et libérés de ces dernières de façon contrôlée sur plusieurs jours in vitro. Une procédure de « salting-out » a été appliquée afin d’améliorer le taux d’incorporation de l’ETO initialement faible étant donnée sa solubilité aqueuse légèrement supérieure à celle du PTX. Le second volet des travaux visait à comparer le PVP comme polymère de surface des nanoparticules au PEG, le polymère le plus fréquemment employé à cette fin en vectorisation. Par le biais d’études d’adsorption de protéines, de capture par les macrophages et de biodistribution chez le rat, nous avons établi une corrélation in vitro/in vivo démontrant que le PVP n’était pas un agent de surface aussi efficace que le PEG. Ainsi, malgré la présence du PVP à la surface des nanoparticules de PDLLA, ces dernières étaient rapidement éliminées de la circulation sanguine suite à leur capture par le système des phagocytes mononucléés. Par conséquent, dans le troisième volet de cette thèse, le PEG a été retenu comme agent de surface, tandis que différents polymères biodégradables de la famille des polyesters, certains synthétiques (PDLLA et copolymères d’acide lactique/acide glycolique), d’autres de source naturelle (poly(hydroxyalkanoates)(PHAs)), ont été investiguées comme matériaux formant le cœur des nanoparticules. Il en est ressorti que les propriétés physicochimiques des polyesters avaient un impact majeur sur l’efficacité d’encapsulation du PTX et son profil de libération des nanoparticules in vitro. Contrairement aux PHAs, les polymères synthétiques ont démontré des taux d’incorporation élevés ainsi qu’une libération contrôlée de leur cargo. Des études de pharmacocinétique et de biodistribution ont démontré que les nanoparticules de PDLLA dotées d’une couronne de PEG conféraient un temps de circulation plasmatique prolongé au PTX et favorisaient son accumulation tumorale. Les nanoparticules polymères représentent donc une alternative intéressante au Taxol®.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les récents progrès en neuroimagerie ont permis, au cours des dernières années, de faire avancer les connaissances sur les maladies neurologiques et psychiatriques en offrant la possibilité de mieux comprendre l’évolution des maladies neurodégénératives et la nature du comportement, des émotions, de la personnalité, et de la cognition. Plusieurs défis éthiques ont émergés suite à l’utilisation de ces nouvelles technologies d’imagerie cérébrale. La perspective des chercheurs concernant les pratiques d’évaluation des protocoles de recherche en neuroimagerie ainsi que les défis éthiques, sociaux et légaux auxquels font face les chercheurs n'ont pas encore été étudiés, même s’ils constituent des acteurs clés. Nous avons entrepris une étude empirique sur les perspectives des chercheurs quant au processus d'évaluation par les comités d’éthique de la recherche (CÉR) afin d’examiner les enjeux éthiques, légaux et sociaux liés à la pratique de la neuroimagerie au Canada. Pour ce faire, nous avons expédié un questionnaire en ligne et réalisé des entrevues semi-structurées avec des chercheurs en neuroimagerie et des présidents des CÉR. Les entrevues ont été transcrites et analysées à l'aide du logiciel d'analyse qualitative Nvivo. Nos résultats ont mis en lumière plusieurs aspects éthiques légaux et sociaux suscitant une attention particulière afin de remédier aux défis actuels dans la recherche en neuroimagerie ainsi qu’au processus d’évaluation de la recherche par les CÉR. Nos données comportent également des recommandations provenant des chercheurs eux-mêmes afin d'améliorer le processus d'évaluation. Finalement, notre propre expérience avec cette étude multicentrique nous a permis de constater plusieurs des défis mentionnés par les chercheurs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les différents acteurs impliqués dans la formation pratique en milieu scolaire doivent composer avec les réalités culturelles et territoriales des régions du Québec. Les étudiants issus des régions éloignées des universités souhaitent retourner dans leur milieu d’origine afin d’y réaliser un de leur stage. L’omniprésence des technologies de l’information et des communications (TIC) dans les milieux scolaires et universitaires et l’exigence du Ministère de l’Éducation du Québec (MEQ) (2001) à développer une compétence professionnelle qui vise à intégrer les TIC aux fins de préparation, de pilotage et de gestion de l’enseignement concourent à mettre en place un modèle de supervision qui puisse répondre aux exigences liées au domaine de la formation pratique. Les enjeux sont de taille et méritent que l’on s’y attarde. Prenant en considération le fait que l’observation et la communication entre les différents partenaires de la supervision du stagiaire sont à la base d’une formation efficiente qui puisse répondre aux besoins des étudiants, la présente étude propose un modèle de supervision pouvant accroître la présence des universités dans les milieux plus éloignés et ainsi assurer un accompagnement optimal des stagiaires sur l’ensemble du territoire québécois. Cette recherche a pour objectif de mieux comprendre les avantages et les limites d’un modèle de supervision en distanciel faisant appel aux TIC lors des stages réalisés dans les milieux scolaires éloignés de leur université. Plus précisément, l’étude répond à trois objectifs en identifiant (1) les avantages et (2) les limites liés à la supervision des stages lorsqu’ils se déroulent par l’entremise des TIC et en contribuant à (3) comprendre l’efficience d’un modèle de supervision en distanciel appuyé par les TIC sur l’accompagnement des stagiaires dans le développement de leurs compétences professionnelles de l’acte d’enseigner et de l’identité professionnelle. Afin de saisir les enjeux d’un tel modèle, une étude qualitative descriptive s’avère être le choix qui s’impose. Une rigoureuse collecte de données menée auprès de quatre stagiaires, leur enseignant associé respectif et leur superviseur à l’aide de grilles d’observation, d’enregistrements vidéo, de journaux de bord et d’entrevues semi-dirigées permet de répondre à quatre questions de recherche. Ces dernières s’interrogent sur l’efficience d’un modèle de supervision en distanciel au plan de l’encadrement du stagiaire avant, pendant et après sa prestation, au plan du développement des compétences professionnelles de l’acte d’enseigner et de l’identité professionnelle et au plan de la communication entre les partenaires de la supervision. Les données recueillies à partir des différents outils permettent la présentation d’une description de chaque étape et des avantages et des limites de chacune d’elles : l’accueil, l’observation, les échanges-partenaires et la rétroaction. L’étude permet également de mieux comprendre les avantages et les limites d’une supervision en distanciel appuyé par les TIC lors des stages se déroulant dans les milieux scolaires éloignés de leur université. Ainsi, l’étude fait ressortir que chaque étape du modèle de supervision en distanciel proposé contribue, à différents égards, à rendre la supervision efficiente sur le plan de l’accompagnement au développement des compétences professionnelles. Des recommandations et des pistes de recherches sont proposées afin de maximiser le potentiel du modèle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La concertation est un phénomène récent, de plus en plus répandu. Elle s’applique à de nombreux domaines notamment en urbanisme et plus récemment à la protection du patrimoine. Elle semble être un outil approprié pour les autorités municipales afin de faire face aux conflits autour des projets d’aménagement particulièrement ceux liés à la protection du patrimoine. Notre questionnement porte sur l’apport de la concertation dans le domaine de la préservation du patrimoine et sur la pertinence des moyens mis en place pour atteindre un tel objectif. Les tables de concertation, en tant que processus de concertation, sont-elles appropriées pour la gestion des sites patrimoniaux ? À la lumière d’une discussion théorique sur le concept de la concertation en aménagement, nous faisons l’analyse comparative de deux Tables de concertation, celle du Vieux-Montréal et celle du Mont-Royal. Notre analyse porte sur l’évaluation du processus de concertation et sur la construction d’une vision globale pour le devenir des secteurs patrimoniaux concernés. L’objectif est de caractériser le processus de concertation utilisé à Montréal et d’en apprécier l’apport dans le domaine de la protection du patrimoine. L’analyse de nos deux cas d’étude révèle l’existence d’un processus de concertation propre à Montréal, avec ses caractéristiques spécifiques, mais qui reste à parfaire pour son optimisation. Notre recherche se conclut sur la nécessité d’améliorer le processus de concertation, tel qu’étudié, à travers un certain nombre de pistes à explorer.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les Québécois sont de plus en plus conscients de l’environnement qui les entoure et de l’importance d’en assurer la qualité et la pérennité. Certains phénomènes, tels les changements climatiques, l’accumulation de polluants organiques persistants et l’amincissement de la couche d’ozone, que nous qualifierons de phénomènes environnementaux diffus, sont engendrés par de multiples émetteurs de polluants et ont des effets globaux qui ne peuvent être liés à un événement précis et dont les impacts sont difficiles à identifier et à quantifier pour le moment. En l’absence de preuve quant aux effets qu’auront ces phénomènes diffus sur les citoyens et les difficultés liées à la preuve scientifique du lien causal entre ce dommage et un émetteur de polluant donné, les recours classiques en responsabilité civile et pour troubles de voisinage, prévus aux articles 1457 et 976 C.c.Q., apparaissent inopérants. Nous nous interrogeons donc sur l’existence d’un droit à l’environnement qui conférerait aux citoyens le droit de vivre dans un environnement sain et leur permettrait ainsi de réclamer que cesse toute atteinte environnementale engendrée par ces phénomènes, même si elle n’a pas d’effet directement sur eux. Considérant l’importance de l’efficacité des recours qui pourraient permettre une mise en œuvre de ce droit, nous procéderons à l’analyse de trois sources potentielles d’un droit à l’environnement sous cet angle. À cet effet, nous étudierons les recours constitutionnels et quasi-constitutionnels liés à la Charte canadienne des droits et libertés, à la Charte des droits et libertés de la personne et au recours institutionnel prévu dans la Loi sur la qualité de l’environnement. Considérant l’absence de reconnaissance suffisante d’un droit à l’environnement et de recours efficaces pour en assurer la mise en œuvre, nous proposerons ensuite des pistes de solution afin que puisse être développé un mécanisme permettant une réponse judiciaire aux phénomènes environnementaux diffus.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sommaire L’oxygène fait partie intégrante de l’environnement et ceci jusqu’au fonctionnement même des structures cellulaires qui composent le corps humain. Deux systèmes sont intimement liés à la distribution de l’oxygène, ce sont les systèmes cardiovasculaire et respiratoire. La transparence du système optique de l’œil peut être exploitée afin de mesurer de façon non invasive la concentration en oxyhémoglobine du sang qui alimente le système nerveux central. L’oxygénation capillaire de l’œil a été mesurée par spectro-réflectométrie dans deux régions de l’œil: d’une part les capillaires de la zone du nerf optique qui représentent principalement la circulation rétinienne; d’autre part, les capillaires du limbe cornéen. Cinq sujets volontaires, non fumeurs, sains, âgés de 20 à 45 ans et cinq sujets volontaires, fumeurs, sains, âgés de 20 à 40 ans ont participé à cette étude. Tous ces sujets ont été exposés à des conditions d’hyper et d’hypo oxygénation. Une séance d’expérimentations était composée d’un enregistrement continu de 360 secondes. Durant la première étape de 60 secondes, le sujet respirait de l’air ambiant. Durant une deuxième étape de 180 secondes, le sujet était exposé soit à une condition d’hyper (60% O2) soit, à une condition d’hypo oxygénation (15% O2), tandis que les 120 dernières secondes de la séance de mesure permettait d’exposer le sujet, une fois de plus à l’air ambiant. Le rythme cardiaque et les changements d’oxygénation artérielle au niveau du doigt étaient mesurés pendant ce temps vec le sphygmo-oxymètre. Les variations du taux d’oxyhémoglobine du sang au niveau capillaire de l’œil (nerf optique ou sclérotique) étaient toujours en corrélation directe avec les variations du taux d’oxyhémoglobine artériel. Toutefois, les capillaires du nerf optique offrent plus de précision pour les mesures d’oxygénation, relativement aux mesures d’oxygénation du sang contenu dans les capillaires de la sclérotique. La précision de la mesure de la concentration d’oxyhémoglobine obtenue dans cette étude par spectro-réflectométrie de l’œil, en fait un instrument utile au diagnostic d’une grande partie des pathologies pulmonaires ou oculaires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Alors que certains mécanismes pourtant jugés cruciaux pour la transformation de la pluie en débit restent peu ou mal compris, le concept de connectivité hydrologique a récemment été proposé pour expliquer pourquoi certains processus sont déclenchés de manière épisodique en fonction des caractéristiques des événements de pluie et de la teneur en eau des sols avant l’événement. L’adoption de ce nouveau concept en hydrologie reste cependant difficile puisqu’il n’y a pas de consensus sur la définition de la connectivité, sa mesure, son intégration dans les modèles hydrologiques et son comportement lors des transferts d’échelles spatiales et temporelles. Le but de ce travail doctoral est donc de préciser la définition, la mesure, l’agrégation et la prédiction des processus liés à la connectivité hydrologique en s’attardant aux questions suivantes : 1) Quel cadre méthodologique adopter pour une étude sur la connectivité hydrologique ?, 2) Comment évaluer le degré de connectivité hydrologique des bassins versants à partir de données de terrain ?, et 3) Dans quelle mesure nos connaissances sur la connectivité hydrologique doivent-elles conduire à la modification des postulats de modélisation hydrologique ? Trois approches d’étude sont différenciées, soit i) une approche de type « boite noire », basée uniquement sur l’exploitation des données de pluie et de débits sans examiner le fonctionnement interne du bassin versant ; ii) une approche de type « boite grise » reposant sur l’étude de données géochimiques ponctuelles illustrant la dynamique interne du bassin versant ; et iii) une approche de type « boite blanche » axée sur l’analyse de patrons spatiaux exhaustifs de la topographie de surface, la topographie de subsurface et l’humidité du sol. Ces trois approches sont ensuite validées expérimentalement dans le bassin versant de l’Hermine (Basses Laurentides, Québec). Quatre types de réponses hydrologiques sont distingués en fonction de leur magnitude et de leur synchronisme, sachant que leur présence relative dépend des conditions antécédentes. Les forts débits enregistrés à l’exutoire du bassin versant sont associés à une contribution accrue de certaines sources de ruissellement, ce qui témoigne d’un lien hydraulique accru et donc d’un fort degré de connectivité hydrologique entre les sources concernées et le cours d’eau. Les aires saturées couvrant des superficies supérieures à 0,85 ha sont jugées critiques pour la genèse de forts débits de crue. La preuve est aussi faite que les propriétés statistiques des patrons d’humidité du sol en milieu forestier tempéré humide sont nettement différentes de celles observées en milieu de prairie tempéré sec, d’où la nécessité d’utiliser des méthodes de calcul différentes pour dériver des métriques spatiales de connectivité dans les deux types de milieux. Enfin, la double existence de sources contributives « linéaires » et « non linéaires » est mise en évidence à l’Hermine. Ces résultats suggèrent la révision de concepts qui sous-tendent l’élaboration et l’exécution des modèles hydrologiques. L’originalité de cette thèse est le fait même de son sujet. En effet, les objectifs de recherche poursuivis sont conformes à la théorie hydrologique renouvelée qui prône l’arrêt des études de particularismes de petite échelle au profit de l’examen des propriétés émergentes des bassins versants telles que la connectivité hydrologique. La contribution majeure de cette thèse consiste ainsi en la proposition d’une définition unifiée de la connectivité, d’un cadre méthodologique, d’approches de mesure sur le terrain, d’outils techniques et de pistes de solution pour la modélisation des systèmes hydrologiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

À partir des études récentes démontrant l’importance des élites catholiques dans la foulée des changements et de la modernisation de la société québécoise entre les années 1930 et 1970, nous tentons de mieux comprendre ces élites, leurs motifs et leur destin. Issues des jeunes générations de laïcs contestataires des années 1930 et 1940, nous montrons d’abord que les élites catholiques laïques ont été influencées par des courants philosophiques de renouveau chrétien et par leur formation dans l’Action catholique spécialisée. En contestant le cléricalisme et le conservatisme présents au Québec entre 1930 et 1960, elles ont développé une pensée réformiste se situant dans l’esprit du concile Vatican II et de la Révolution tranquille. Un trait caractérise ces élites: même en étant critiques envers l’Église catholique, elles sont tout de même demeurées loyales envers le catholicisme. Nous proposons de nous réapproprier la sociologie de Max Weber afin de mieux comprendre l’implication des élites catholiques laïques à la modernisation de la société québécoise et, par là, de saisir le type particulier de sécularisation qu’a connu le Québec des années 1950 à 1970. Pour ce faire, nous retenons les parcours de vie et le discours de trois représentants de ces élites: Guy Rocher, Jacques Grand’Maison et Claude Ryan. À partir de ces acteurs, nous délinéons trois « voies » distinctes empruntées par les élites catholiques laïques pour s’engager dans la société. Ces trois « voies » relatent certes des types d’engagement différents, mais elles renvoient aussi à un ancrage catholique commun. En considérant le point de vue de ces élites face aux transformations du paysage religieux au Québec, nous examinons enfin l’utilisation du concept de sécularisation par rapport à la laïcisation et la déconfessionnalisation ainsi que les enjeux actuels liés à la religion.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’évolution technologique et l'accroissement de la population vieillissante sont deux tendances majeures de la dernière décennie. Durant cette période, la prolifération ubiquitaire de la téléphonie mobile a changé les habitudes de communication des gens. Le changement constant des appareils téléphoniques portatifs, l'augmentation des fonctions, la diversité iconographique, la variété des interfaces et la complexité de navigation exigent aujourd’hui non seulement plus de temps d'adaptation et d’apprentissage, mais représentent aussi un effort cognitif important. Les technologies d'information et de communication (TIC) sont devenues des outils incontournables de la vie moderne. Pour les personnes âgées, cet univers en perpétuelle mutation avec ces nouveaux appareils représente un obstacle à l’accès à l’information et contribue ainsi au gap générationnel. Le manque de référence et de soutien et les déficiences physiques ou cognitives, que certaines personnes développent en vieillissant, rendent l'usage de ce type d’objet souvent impossible. Pourtant, les produits intelligents plus accessibles, tant au niveau physique que cognitif sont une réelle nécessité au sein de notre société moderne permettant aux personnes âgées de vivre de manière plus autonome et « connectée ». Cette recherche a pour but d'exposer les défis d'usage des téléphones portables existants et d'identifier en particulier les problèmes d’usage que les personnes âgées manifestent. L’étude vise la tranche de population qui est peu habituée aux technologies de communications qui ne ciblent le plus souvent que les plus jeunes et les professionnels. C’est en regardant les habitudes d’usage, que la recherche qualitative nous permettra d’établir un profil des personnes âgées par rapport au TIC et de mieux comprendre les défis liés à la perception, compréhension et l’usage des interfaces de téléphones portables.