45 resultados para sole


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nœud auriculoventriculaire (AV) joue un rôle vital dans le cœur normal et pathologique. Il connecte les oreillettes aux ventricules et, grâce à sa conduction lente, génère un délai entre les contractions auriculaire et ventriculaire permettant d’optimiser le pompage sanguin. Sa conduction lente et sa longue période réfractaire font du nœud AV un filtre d’impulsions auriculaires lors de tachyarythmies assurant ainsi une fréquence ventriculaire plus lente favorable au débit cardiaque. L’optimisation de ce filtrage est une cible dans le traitement de ces arythmies. Malgré ce rôle vital et de nombreuses études, le nœud AV demeure l’objet de plusieurs controverses qui en rendent la compréhension laborieuse. Nos études expérimentales sur des préparations isolées de cœurs de lapin visent à apporter des solutions à certains des problèmes qui limitent la compréhension des propriétés fréquentielles du nœud AV. Le premier problème concerne la définition de la propriété de récupération nodale. On s’accorde généralement sur la dépendance du temps de conduction nodale (intervalle auriculo-Hissien, AH) du temps de récupération qui le précède mais un débat presque centenaire persiste sur la façon de mesurer ce temps de récupération. Selon que l’on utilise à cette fin la longueur du cycle auriculaire (AA) ou l’intervalle His-auriculaire précédent (HA), la même réponse nodale montre des caractéristiques différentes, un paradoxe à ce jour inexpliqué. Le temps de conduction nodale augmente aussi avec le degré et la durée d'une fréquence rapide, un phénomène appelé fatigue. Or, les caractéristiques de la fatigue mesurée varient avec l’indice de récupération utilisé (AA vs. HA). De plus, une troisième propriété appelée facilitation qui entraîne un raccourcissement du temps de conduction diffère aussi avec l’indice de récupération utilisé. Pour établir l’origine de ce problème, nous avons déterminé les différences entre les courbes de récupération (AH compilé en fonction du AA ou HA) pour 30 états fonctionnels nodaux différents. Ces conditions étaient obtenues à l’aide de protocoles permettant la variation du cycle de base (BCL) et du cycle prétest (PTCL), deux paramètres connus pour altérer la fonction nodale. Nous avons pu établir que pour chaque état fonctionnel, la forme de la courbe de récupération et le niveau de fatigue étaient les mêmes pour les deux indices de récupération. Ceci s’applique aussi aux données obtenues à des BCL et PTCL égaux comme dans les protocoles de stimulation prématurée conventionnels couramment utilisés. Nos résultats ont établi pour la première fois que les propriétés nodales de récupération et de fatigue sont indépendantes de l’indice de récupération utilisé. Nos données montrent aussi que les différences entre les courbes de récupération en fonction de l’indice utilisé proviennent d’effets associés aux variations du PTCL. Notre deuxième étude établit à partir des mêmes données pourquoi les variations du PTCL altèrent différemment les courbes de récupération selon l’indice utilisé. Nous avons démontré que ces différences augmentaient en proportion directe avec l’augmentation du temps de conduction au battement prétest. Cette augmentation cause un déplacement systématique de la courbe construite avec l’intervalle AA vers la droite et de celle construite avec l’intervalle HA vers la gauche. Ce résultat met en évidence l’importance de tenir compte des changements du temps de conduction prétest dans l’évaluation de la fonction nodale, un paramètre négligé dans la plupart des études. Ce résultat montre aussi que chacun des deux indices a des limites dans sa capacité d’évaluer le temps de récupération nodale réel lorsque le temps de conduction prétest varie. Lorsque ces limites sont ignorées, comme c’est habituellement le cas, elles entraînent un biais dans l’évaluation des effets de fatigue et de facilitation. Une autre grande difficulté dans l’évaluation des propriétés fréquentielles du nœud AV concerne son état réfractaire. Deux indices sont utilisés pour évaluer la durée de la période réfractaire nodale. Le premier est la période réfractaire efficace (ERPN) définie comme l’intervalle AA le plus long qui n’est pas conduit par le nœud. Le deuxième est la période réfractaire fonctionnelle (FRPN) qui correspond à l’intervalle minimum entre deux activations mesurées à la sortie du nœud. Paradoxalement et pour des raisons obscures, l’ERPN augmente alors que la FRPN diminue avec l’augmentation de la fréquence cardiaque. De plus, ces effets varient grandement avec les sujets, les espèces et l’âge. À partir des mêmes données que pour les deux autres études, nous avons cherché dans la troisième étude l’origine des variations fréquentielles de l’ERPN et de la FRPN. Le raccourcissement du BCL prolonge l’ERPN mais n’affecte pas la FRPN. L’allongement de l’ERPN provient principalement d’un allongement du temps de conduction prétest. Un PTCL court en comparaison avec un BCL court allonge encore plus substantiellement le temps de conduction prétest mais raccourcit en même temps l’intervalle His-auriculaire, ces deux effets opposés s’additionnent pour produire un allongement net de l’ERPN. Le raccourcissement de l’intervalle His-auriculaire par le PTCL court est aussi entièrement responsable pour le raccourcissement de la FRPN. Nous avons aussi établi que, lorsque la composante du temps de conduction prétest est retirée de l’ERPN, un lien linéaire existe entre la FRPN et l’ERPN à cause de leur dépendance commune de l’intervalle His-auriculaire. Le raccourcissement combiné du BCL et du PTCL produit des effets nets prévisibles à partir de leurs effets individuels. Ces effets reproduisent ceux obtenus lors de protocoles prématurés conventionnels. Ces observations supportent un nouveau schème fonctionnel des variations fréquentielles de l’ERPN et de la FRPN à partir des effets distincts du BCL et du PTCL. Elles établissent aussi un nouveau lien entre les variations fréquentielles de l’ERPN et de la FRPN. En conclusion, la modulation fréquentielle de la fonction du nœud AV provient de la combinaison d’effets concurrents cumulatifs liés au cycle de base et non-cumulatifs liés au cycle prétest. Ces effets peuvent être interprétés de façon consistante indépendamment de l’indice de récupération en tenant compte des changements du temps de conduction au battement prétest. Les effets fréquentiels disparates sur l’ERPN et la FRPN sont aussi grandement liés aux changements du temps de conduction prétest. Lorsque l’analyse tient compte de ce facteur, l’ERPN et la FRPN montrent des variations parallèles fortement liées à celles de l’intervalle His-auriculaire. Le nouveau schème fonctionnel des propriétés fréquentielles du nœud AV supporté par nos données aidera à mieux cibler les études sur les mécanismes cellulaires contrôlant la modulation fréquentielle nodale. Nos données pourraient aider à l’interprétation et au contrôle des réponses nodales diverses associées aux tachyarythmies supraventriculaires et à leur traitement pharmacologique. En bref, nos travaux supportent une compréhension factuelle améliorée du comportement fréquentiel du nœud AV, un domaine aux applications multiples en rythmologie cardiaque.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif principal: Il n’est pas démontré que les interventions visant à maîtriser voire modérer la médicamentation de patients atteints d’hypertension peuvent améliorer leur gestion de la maladie. Cette revue systématique propose d’évaluer les programmes de gestion contrôlée de la médicamentation pour l’hypertension, en s’appuyant sur la mesure de l’observance des traitements par les patients (CMGM). Design: Revue systématique. Sources de données: MEDLINE, EMBASE, CENTRAL, résumés de conférences internationales sur l’hypertension et bibliographies des articles pertinents. Méthodes: Des essais contrôlés randomisés (ECR) et des études observationnelles (EO) ont été évalués par 2 réviseurs indépendants. L’évaluation de la qualité (de ce matériel) a été réalisée avec l’aide de l’outil de Cochrane de mesure du risque de biais, et a été estimée selon une échelle à quatre niveaux de qualité Une synthèse narrative des données a été effectuée en raison de l'hétérogénéité importante des études. Résultats: 13 études (8 ECR, 5 EO) de 2150 patients hypertendus ont été prises en compte. Parmi elles, 5 études de CMGM avec l’utilisation de dispositifs électroniques comme seule intervention ont relevé une diminution de la tension artérielle (TA), qui pourrait cependant être expliquée par les biais de mesure. L’amélioration à court terme de la TA sous CMGM dans les interventions complexes a été révélée dans 4 études à qualité faible ou modérée. Dans 4 autres études sur les soins intégrés de qualité supérieure, il n'a pas été possible de distinguer l'impact de la composante CMGM, celle-ci pouvant être compromise par des traitements médicamenteux. L’ensemble des études semble par ailleurs montrer qu’un feed-back régulier au médecin traitant peut être un élément essentiel d’efficacité des traitements CMGM, et peut être facilement assuré par une infirmière ou un pharmacien, grâce à des outils de communication appropriés. Conclusions: Aucune preuve convaincante de l'efficacité des traitements CMGM comme technologie de la santé n’a été établie en raison de designs non-optimaux des études identifiées et des ualités méthodologiques insatisfaisantes de celles-ci. Les recherches futures devraient : suivre les normes de qualité approuvées et les recommandations cliniques actuelles pour le traitement de l'hypertension, inclure des groupes spécifiques de patients avec des problèmes d’attachement aux traitements, et considérer les résultats cliniques et économiques de l'organisation de soins ainsi que les observations rapportées par les patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Le but de cette recherche est de comprendre le conflit de loyauté chez les enfants exposés à la violence conjugale lorsque les parents sont séparés. Le premier objectif vise à décrire le contexte relationnel de l’enfant avec son père et sa mère. Le second objectif cherche à évaluer la présence et à décrire, le cas échéant, la nature du conflit de loyauté et ses conséquences chez l’enfant. Un troisième objectif porte sur l’identification de sous-groupes d’enfants similaires quant à leur discours sur le conflit de loyauté. Enfin, l’objectif final consiste à décrire un possible changement d’intensité du conflit de loyauté dans le temps. La recherche adopte une méthode qualitative pour recueillir le point de vue des enfants sur un possible vécu de conflit de loyauté des enfants entre leur père et leur mère. Douze enfants, ayant reçu des services d’intervention en maison d’hébergement, donnent leur point de vue sur leur expérience de conflit de loyauté. L’opinion de leur mère raconte l’histoire d’exposition à la violence conjugale de l’enfant ainsi que sa relation avec chacun des deux parents. La perception des intervenantes sur un possible conflit de loyauté chez l’enfant ainsi que sur sa relation avec chacun de ses parents vient enrichir cette recherche. Une description du contexte relationnel de l’enfant avec son père et sa mère démontre que la relation des enfants avec leur père ne semble pas toujours facile, alors que celle de l’enfant avec sa mère est plus positive. Les intervenantes jugent que les douze enfants vivent un conflit de loyauté, alors qu’un seul de ces participants verbalise ne pas en vivre. Une première analyse qualitative du discours des enfants a permis de constater qu’aucun des onze enfants n’identifie le père ou la mère comme étant le seul initiateur du conflit de loyauté. Comme résultat des verbalisations des enfants, deux groupes sont formés selon le degré d’élaboration du discours (élaboré ou non élaboré). Les résultats principaux permettent de constater que le degré de conflit de loyauté initié par les mères demeure stable dans le temps alors qu’il s’intensifie lorsqu’initié par certains pères de l’étude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs. L’objectif de ce mémoire est d’améliorer les connaissances quant à l’effet des interventions policières sur la violence imputable aux bandes criminelles. À travers l’évaluation des cinq plus importantes opérations policières réalisées entre 1991 et 2008 au Québec, trois modèles conceptuels sont confrontés : 1) celui du marché qui prévoit une hausse des affrontements entres bandes rivales dont le but est de prendre possession d’un marché criminel maintenant disponible en raison du retrait d’un joueur clé, 2) celui de la dissuasion qui prévoit une baisse des violences criminelles, et 3) celui de l’attrition qui envisage une baisse des violences en raison de l’essoufflement des bandes. Méthodologie. Les données de cette étude proviennent de l’Enquête générale sur les homicides de Statistique Canada. Différents taux d’homicides furent agrégés sur une base annuelle pour différentes provinces et régions métropolitaines de recensement. Des analyses de séries chronologiques interrompues furent ensuite réalisées pour estimer l’effet des interventions policières. Résultats. L’opération Printemps 2001 est la seule intervention policière à être associée à une baisse significative des homicides reliés aux bandes criminelles. « Sans-Frontière », « Colisée » et les deux escouades Carcajou de Montréal et de Québec, n’ont produit aucun effet préventif notable. Au contraire, Carcajou Montréal et Québec ont été associées à une hausse des homicides liés aux gangs. Conclusion. Les présents résultats appuient davantage la thèse de la dissuasion que celles du marché ou de l’attrition. Afin de produire un effet de dissuasion, les résultats suggèrent que l’intervention policière doit : 1) cibler un nombre important de membres de l’organisation criminelle, 2) s’attaquer aux têtes dirigeantes, 3) assurer la neutralisation des membres de l’organisation, et 4) assurer la diffusion du message pénal auprès des délinquants concernés. D’autres études sont toutefois nécessaires pour estimer l’effet des interventions policières dans d’autres contextes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le glaucome est la deuxième cause de cécité irréversible dans le monde. La perte de vision qui se produit lors du glaucome s’explique par une dégénérescence du nerf optique et une mort progressive et sélective des cellules ganglionnaires de la rétine (CRG). L'hypertension oculaire est un facteur de risque majeur dans le glaucome, mais des défauts du champ visuel continuent à se développer chez un contingent de patients malgré l'administration de médicaments qui abaissent la pression intraoculaire (PIO). Par conséquent, bien que la PIO représente le seul facteur de risque modifiable dans le développement du glaucome, son contrôle ne suffit pas à protéger les CRGs et préserver la fonction visuelle chez de nombreux patients. Dans ce contexte, j'ai avancé l'hypothèse centrale voulant que les stratégies de traitement du glaucome visant à promouvoir la protection structurale et fonctionnelle des CRGs doivent agir sur les mécanismes moléculaires qui conduisent à la mort des ces neurones. Dans la première partie de ma thèse, j'ai caractérisé l'effet neuroprotecteur de la galantamine, un inhibiteur de l'acétylcholinestérase qui est utilisé cliniquement dans le traitement de la maladie d'Alzheimer. Cette étude s’est basée sur l'hypothèse que la galantamine, en modulant l'activité du récepteur de l'acétylcholine, puisse améliorer la survie des CRGs lors du glaucome. Nous avons utilisé un modèle expérimental bien caractérisé d'hypertension oculaire induite par l’administration d'une solution saline hypertonique dans une veine épisclérale de rats Brown Norway. Les résultats de cette étude (Almasieh et al. Cell Death and Disease, 2010) ont démontré que l'administration quotidienne de galantamine améliore de manière significative la survie des corps cellulaires et des axones CRGs. La protection structurelle des CRGs s’accompagne d’une préservation remarquable de la fonction visuelle, évaluée par l'enregistrement des potentiels évoqués visuels (PEV) dans le collicule supérieur, la cible principale des CRGs chez le rongeur. Une autre constatation intéressante de cette étude est la perte substantielle de capillaires rétiniens et la réduction du débit sanguin associé à la perte des CRGs dans le glaucome expérimental. Il est très intéressant que la galantamine ait également favorisé la protection de la microvascularisation et amélioré le débit sanguin rétinien des animaux glaucomateux (Almasieh et al. en préparation). J'ai notamment démontré que les neuro-et vasoprotections médiées par la galantamine se produisent par iv l'activation des récepteurs muscariniques de l'acétylcholine. Dans la deuxième partie de ma thèse, j'ai étudié le rôle du stress oxydatif ainsi que l'utilisation de composés réducteurs pour tester l'hypothèse que le blocage d'une augmentation de superoxyde puisse retarder la mort des CRG lors du glaucome expérimental. J'ai profité d'un composé novateur, un antioxydant à base de phosphineborane (PB1), pour tester sur son effet neuroprotecteur et examiner son mécanisme d'action dans le glaucome expérimental. Les données démontrent que l'administration intraoculaire de PB1 entraîne une protection significative des corps cellulaire et axones des CRGs. Les voies moléculaires conduisant à la survie neuronale médiée par PB1 ont été explorées en déterminant la cascade de signalisation apoptotique en cause. Les résultats démontrent que la survie des CRGs médiée par PB1 ne dépend pas d’une inhibition de signalisation de protéines kinases activées par le stress, y compris ASK1, JNK ou p38. Par contre, PB1 induit une augmentation marquée des niveaux rétiniens de BDNF et une activation en aval de la voie de survie des ERK1 / 2 (Almasieh et al. Journal of Neurochemistry, 2011). En conclusion, les résultats présentés dans cette thèse contribuent à une meilleure compréhension des mécanismes pathologiques qui conduisent à la perte de CRGs dans le glaucome et pourraient fournir des pistes pour la conception de nouvelles stratégies neuroprotectrices et vasoprotectrices pour le traitement et la gestion de cette maladie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec l’usage élargi de la CAAO, ces outils ont été largement utilisés dans le processus de conception architecturale. En dépit des fonctionnalités avancées offertes par les systèmes de CAAO, l'utilisation de la CAAO est principalement concentrée dans les étapes de production, comme un support graphique pour le dessin, la modélisation, le rendu et la simulation. Par conséquent, il est raisonnable de considérer que la situation actuelle relative à l’usage de la CAAO dans la profession d'architecte appelle à de nouvelles améliorations. En d'autres termes, nous devons trouver un moyen de mieux intégrer la technologie et les outils de CAAO dans le processus de conception architecturale, qui est notre question de recherche. Nous avons besoin de savoir comment la CAAO pourrait être utilisée pour améliorer la capacité de conception de l'architecte. Il ressort des discussions et des recherches menées pour cette étude que nous voulons un soutien de la technologie pour nous aider à mieux concevoir et non pas que la technologie conçoive à notre place. Nous aimerions avoir un système de CAAO qui pourrait nous servir d’assistant à la conception. En étudiant la situation de l'intégration des outils de CAAO dans les pratiques actuelles de conception des architectes et en examinant les approches utilisées dans les premières tentatives de développement d’un outil de CAAO intégré au processus de conception, on peut conclure que l'approche exploratoire et heuristique serait une meilleure approche qui pourrait être adaptée pour développer un système CAAO en soutien au travail de l’architecte. De plus, une étude plus approfondie a démontré que les deux sous- approches des approches exploratoires et heuristiques (approches basées sur les cas et les contraintes), sont applicables, mais aucune d'elles n'est suffisante. Par conséquent, l’approche hybride qui prend en compte les avantages de chacune des deux sous- approches précitées serait la plus applicable. Elle nous permettrait de développer un outil CAAD qui pourrait vraiment être intégré dans le processus de conception architecturale. Cette conclusion a été vérifiée par une étude complémentaire basée sur des entrevues.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude porte sur la culture de travail des femmes qui ont été à l’emploi du grand magasin Dupuis Frères de Montréal entre 1920 et 1960. Nous nous intéressons aux particularités du travail salarié féminin dans le domaine de la vente au détail au Québec, mais aussi à la nature et à l’évolution de cette culture de travail de même qu’à ses liens avec les changements qui surviennent à l’époque dans la construction des nouvelles normes de la féminité respectable. D’une part, notre but est de montrer que pour les travailleuses de Dupuis, leur emploi leur permet de gagner leur vie certes, mais aussi de l’agrémenter, de se divertir au moyen de loisirs organisés par l’entreprise et de créer des liens entre elles. À travers la culture de travail qu’elles y développent, ces femmes se créent une identité particulière. Nous soulignons aussi que Dupuis Frères, dans un esprit paternaliste, encadre de près ses employées et exploite leur culture de travail afin de s’assurer de leur loyauté et de maintenir sa bonne réputation auprès de l’opinion publique. D’autre part, nous cherchons à prouver que même si la culture des femmes à l’emploi de Dupuis au cours de cette période est largement influencée par la domesticité et l’idéologie des sphères séparées, caractéristiques de la féminité « traditionnelle » dominante, elle intègre néanmoins de plus en plus, surtout à partir de la Deuxième Guerre mondiale, de nouvelles dimensions plus « modernes » de la féminité qui ne remplacent pas l’idéal de la mère-ménagère, mais qui viennent plutôt s’y greffer et qui rendent, du coup, leur identité féminine plus complexe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre thèse étudie les liens entre les « redevances forestières annuelles » (RFA) et le « développement local » dans deux communes du Cameroun. Ce travail anthropologique s’inscrit dans le débat qui se fait à l’échelle internationale relativement au rôle et au devenir des populations locales dans la gestion des ressources naturelles. Dans le passé, la gestion des redevances forestières annuelles (RFA) a été, dans les pays d’Afrique centrale et au Cameroun en particulier, sous la seule responsabilité de l’État central. Une telle politique n’offrait pas la garantie nécessaire à l’utilisation durable de ces ressources qui sont indispensables à la vie des populations villageoises riveraines et à l’équilibre de l’environnement. Profitant de la crise des années 1980 et 1990 en Afrique, le FMI et la Banque mondiale ont exercé une pression sur les États africains pour qu’ils revoient, en conformité avec la Conférence de Rio (1992), leurs politiques en matière de gestion et de conservation des ressources forestières. Dans le bassin du Congo, le Cameroun a été le tout premier pays à réviser, en 1994, ses lois forestières par le biais d’une décentralisation de la fiscalité forestière : les taxes perçues furent réparties entre l’État, les collectivités territoriales décentralisées et les populations villageoises riveraines. Les fonds transférés aux communes et aux populations riveraines devaient servir au développement local en contribuant notamment à l’amélioration des conditions générales de vie des populations à travers la réalisation d’œuvres sociales, l’adduction d’eau, la construction et l’entretien des routes, des écoles, des cases de santé, etc. Dans les faits, l’impact de la fiscalité forestière décentralisée reste à ce jour encore peu visible sur la dynamique du développement local des communes. Notre projet de recherche doctorale prend place dans le domaine d’une anthropologie du développement centrée sur l’étude des solutions que les populations locales apportent aux problèmes auxquels elles sont confrontées dans leur vie de tous les jours. L’analyse des impacts que les politiques de développement économique exercent sur les populations villageoises d’Afrique est ici à l’avant-plan, pas seulement au sens d’une critique des politiques étatiques en matière d’exploitation forestière, mais aussi au sens d’une meilleure compréhension des conditions de mise en œuvre de ces politiques et de l’impact de celles-ci sur les populations villageoises, tant sur le plan des avantages financiers directs que des transformations écologiques que les activités forestières introduisent dans les pratiques agricoles des villageois. Sur le plan méthodologique, il faut noter que ce fut très difficile d’obtenir les informations nécessaires, notre sujet d’étude se révélant être très sensible quant à sa portée politique. Nous avons néanmoins pu recueillir un solide ensemble de données par le biais d’une démarche de proximité de type qualitatif qui a été conduite dans deux communes forestières qui représentent deux réalités différentes en matière de gestion des RFA. La collecte des données a été faite, de manière intensive, dans sept villages qui répondaient à nos critères : nous avons ainsi pu étudier, de manière approfondie, la situation des groupes sociaux les plus défavorisés qui sont exclus dans le partage des revenus forestiers. Pour construire notre cadre théorique, nous avons combiné des éléments empruntés aux théories environnementales, à l’anthropologie économique et à l’analyse des modes de gestion. Il faut noter, par ailleurs, que l’anthropologue n’est ni un aménagiste, ni un environnementaliste, ni un spécialiste des études managériales. Nous avons conduit notre étude comparative dans les communes concernées en nous fixant pour objectif de comprendre les mécanismes de gestion des RFA mis en place par les leaders locaux et d’évaluer leur impact sur l’amélioration des conditions de vie des populations villageoises et sur leur écosystème. Notre préoccupation était de savoir si les RFA constituent des vecteurs de développement socioéconomique pour des populations vivant dans et de la forêt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Devenir parent en accueillant un enfant en vue de l’adopter en contexte de protection de la jeunesse, dans le cadre du programme Banque-mixte, est une expérience particulière, puisque l’enfant arrive dans la famille sans aucune garantie qu’il pourra être adopté. Également, les parents Banque-mixte, en tant que famille d’accueil, ont l’obligation d’amener l’enfant à des visites avec ses parents d’origine et doivent composer avec la présence d’intervenants dans leur vie privée. À l’aide d’une démarche de théorisation enracinée, la présente étude vise à comprendre comment le parent Banque-mixte développe son sentiment de filiation, c’est-à-dire le sentiment d’être le parent de l’enfant qu’il accueille, alors qu’il n’est ni le parent légal, ni le parent biologique. Des entrevues semi-dirigées ont été réalisées avec 25 parents afin d’aborder des thèmes tels que les motivations sous-jacentes à leur projet parental, l’expérience du processus pour devenir une famille Banque-mixte et la relation avec l’enfant. Les résultats permettent de jeter les bases d’une nouvelle théorie, selon laquelle le sentiment de filiation précède la filiation légale dans ces circonstances. Ainsi, le parent Banque-mixte ne devient pas un parent au moment du jugement d’adoption; il le devient bien avant, à partir du moment où il atteint un point de non-retour, c’est-à-dire où il constate de manière rationnelle ou émotionnelle que cet enfant est le sien. En l’absence d’un lien de sang et d’un lien légal, le parent Banque-mixte construit son sentiment de filiation sur la base de son profond désir d’enfant et de trois piliers qui lui permettent de justifier son sentiment d’être le parent, soit l’exercice du rôle parental, la construction d’une relation significative avec l’enfant, ainsi que la reconnaissance par autrui de son rôle de parent. Lorsque le parent Banque-mixte n’est pas confronté à l’incertitude de voir l’enfant retourner dans son milieu d’origine, il doit patienter en attendant la concrétisation de l’adoption, mais l’absence de filiation légale ne remet pas en question son sentiment d’être le parent. Par contre, le fait de se sentir le parent avant de le devenir légalement peut générer des tensions dans l’expérience du parent Banque-mixte, puisque le statut de famille d’accueil est en dissonance avec le sentiment de filiation. Afin de minimiser les effets indésirables de l’incertitude, les intervenants de l’adoption et de l’enfant développent différentes stratégies pour rassurer et protéger les parents Banque-mixte, en plus de minimiser l’inquiétude quant à la probabilité du retour de l’enfant dans son milieu familial d’origine. Finalement, guidés par leur besoin de vivre leur filiation de manière exclusive, les parents Banque-mixte font l’effort de mettre à distance les parents d’origine, tout en conservant une certaine ouverture uniquement dans le but de permettre à l’enfant d’intégrer sainement ses origines. En conclusion, les retombées pour l’avancement des connaissances, l’amélioration des pratiques et l’élaboration de nouvelles législations sont discutées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1er Prix du concours d'initiation à la recherche organisé par le Regroupement Droit et Changements. La Loi sur les Indiens institutionnalise toujours de nombreuses facettes de ce qu’est être « Indien » pour beaucoup d’individus au Canada et un changement de perspective doit être opéré. Cet essai puise dans la pensée du philosophe Theodor Adorno pour réfléchir aux tentatives de reconnaissance juridique par le Canada des individus et sociétés autochtones en vertu de l’article 35 de la Constitution. L’auteur présente la théorie de la dialectique négative d’Adorno de 1966 sur le rapport à l’altérité, à partir de l’analyse de la professeure Drucilla Cornell, afin d’identifier ce que sa pensée prescrit pour établir des rapports non-oppressants entre Autochtones et non-Autochtones et leurs gouvernements aujourd’hui. La dialectique négative est particulièrement appropriée à la tentative de reconnaissance juridique de l’existence des sociétés autochtones par le Canada, du fait de leur statut marginalisé et de leurs revendications à la spécificité. Après avoir établi un tel cadre, l’auteur souligne que des précédentes tentatives de reconnaissances se sont soldées par des échecs en raison des désaccords au niveau des valeurs impliquées et des concepts utilisés auxquels elles ont donné lieu. Le processus de signature des traités numérotés de 1871-1921 est employé comme illustration en raison de son résultat souvent décrit aujourd’hui comme coercitif et injuste en dépit du discours de négociation sur un pied d’égalité l’ayant accompagné. Les critiques contemporaines de la politique en vigueur de mise en œuvre de l’autonomie gouvernementale autochtone par des accords négociés sont également présentées, afin d’illustrer que des désaccords quant à la manière dont l’État canadien entend reconnaître les peuples autochtones persistent à ce jour. L’auteur ajoute que, du point de vue de la dialectique négative, de tels désaccords doivent nécessairement être résolus pour que des rapports moins oppressifs puissent être établis. L’auteur conclut que la dialectique négative impose à la fois de se considérer soi-même (« je est un autre ») et de considérer l’autre comme au-delà des limites de sa propre pensée. La Cour suprême a déjà reconnu que la seule perspective de la common law n’est pas suffisante pour parvenir à une réconciliation des souverainetés des Autochtones et de la Couronne en vertu de la Constitution. Le concept de common law de fiduciaire présente un véhicule juridique intéressant pour une reconfiguration plus profonde par le gouvernement canadien de son rapport avec les peuples autochtones, priorisant processus plutôt que résultats et relations plutôt que certitude. Il doit toutefois être gardé à l’esprit que la reconnaissance de ces peuples par l’État canadien par le prisme de la pensée d’Adorno présente non seulement le défi d’inclure de nouvelles perspectives, mais également de remettre en cause les prémisses fondamentales à partir desquelles on considère la communauté canadienne en général.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’auteur se penche sur la question de la responsabilité civile des prestateurs de moteurs de recherches et des fournisseurs d’hyperliens eu égard aux contenus illicites situés sur les sites qu’ils répertorient. Pour ce faire, il analyse la disposition législative régissant la responsabilité de ces intermédiaires, à savoir l’article 22 de la Loi concernant le cadre juridique des technologies de l’information, et se questionne sur l’efficacité véritable de cette disposition eu égard à l’intention présumée du législateur et à la position adoptée à l’étranger. L’auteur constate effectivement que la rédaction de cet article de loi laisse place à plusieurs problématiques qui risquent d’avoir des répercussions indésirables pour ces intermédiaires. Dans la seconde partie de son exposé, l’auteur aborde certaines situations pratiques pouvant entraîner la responsabilité de ces intermédiaires, notamment les questions liées aux virus informatiques, à la diffamation et à la propriété intellectuelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les institutions juridiques ont été bâties autour des réalités connues depuis des millénaires, que nous appelons de nos jours des phénomènes du monde réel. Ces phénomènes retrouvent présentement un nouveau théâtre – le cyberespace, et les règles du droit font face au défi de s’approprier ce nouvel environnement. Entre autres, les technologies du cyberespace ont mis au monde divers moyens qui nous permettent de nous identifier et de manifester notre attitude envers les actes juridiques – des finalités qui ont été assurées de longue date par la signature manuscrite. Bien que ces nouveaux moyens aient mérité un nom similaire à leur contrepartie traditionnelle – l’appellation de signature électronique, ils restent des phénomènes dont la proximité avec la signature manuscrite est discutable. Force est de constater que le seul point commun entre les moyens classiques et électroniques de signer réside dans les fonctions qu’ils remplissent. C’est en se basant sur ces fonctions communes que le droit a adopté une attitude identique envers les moyens d’authentification traditionnels et électroniques et a accueilli ces derniers sous l’emprise de ses institutions. Cependant, ceci ne signifie pas que ces institutions se soient avérées appropriées et qu’elles ne demandent aucun ajustement. Un des buts de notre étude sera de mettre en relief les moyens d’adaptation qu’offre le droit pour réconcilier ces deux environnements. Ainsi, pour ajuster l’institution de la signature aux phénomènes électroniques, le droit s’est tourné vers le standard de fiabilité de la signature électronique. Le standard de fiabilité est un complément de l’institution juridique de signature qui ne se rapporte qu’à la signature électronique et dont cette étude démontrera les applications. Les composantes du standard de fiabilité qui occuperont un deuxième volet de notre étude représentent un ensemble de règles techniques liées à la signature électronique. Ainsi, comme le standard de fiabilité puise sa substance dans les propriétés de l’architecture du cyberespace, l’attitude du droit envers la signature électronique s’avère tributaire de la morphologie du cyberespace. Étant donné que les possibilités qui nous sont offertes par la technologie continue à déterminer la réglementation juridique, il est légitime de conclure que l’examen des tendances dans l’évolution du cyberespace nous fournira un point de vue prospectif sur l’évolution des règles du droit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La notion de réussite criminelle a essentiellement été définie au moyen de l’indicateur objectif des gains monétaires. Si l’idée selon laquelle l’argent est au coeur de la réussite professionnelle fait l’objet d’un large consensus social, il semble improbable que les gains monétaires permettent à eux seuls d’appréhender la réussite. Pour mieux comprendre certaines dimensions des carrières criminelles telles que la persistance et le désistement, il paraît utile de se pencher sur la manière dont les criminels définissent leur propre réussite. Il a été établi que l’auto-efficacité, soit la croyance que possède un individu en sa capacité à accomplir une tâche, permet de prédire plusieurs dimensions des carrières légitimes. À partir de la théorie sur l’auto-efficacité, ce mémoire examine de quelle manière se forme l’auto-efficacité criminelle. Nous soutenons que les perceptions relatives à la réussite criminelle sont affectées par des facteurs semblables à ceux qui jouent dans le développement de l’auto-efficacité légitime. Nous partons de l’hypothèse que les criminels forgent leur auto-efficacité à partir de quatre sources d’expérience : les réussites personnelles, l’apprentissage vicariant, la persuasion sociale et les états physiologiques. Il est également avancé que certaines caractéristiques individuelles et environnementales ont un impact significatif sur le développement de l’auto-efficacité criminelle. Sur la base d’entrevues auprès de 212 délinquants, nos résultats indiquent que l’auto-efficacité criminelle est une construction complexe fondée sur les caractéristiques individuelles et environnementales, ainsi que sur les expériences criminelles personnelles. Nous discutons de l’impact éventuel de ces conclusions sur l’appréhension de la persévérance et du désistement dans les carrières criminelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : Les médecins spécialistes peuvent participer aux soins ambulatoires des personnes atteintes de maladies chroniques (MCs) et comorbidité comme co-gestionnaire ou consultant selon qu’ils sont responsables ou non du suivi du patient. Il y a un manque d’évidences sur les déterminants et l’impact du type d’implication du médecin spécialiste, ainsi que sur la façon optimale de mesurer la comorbidité pour recueillir ces évidences. Objectifs : 1) déterminer chez les patients atteints de MCs les facteurs associés à la cogestion en spécialité, dont les caractéristiques des organisations de première ligne et la comorbidité; 2) évaluer si le type d’implication du spécialiste influence le recours à l’urgence; 3) identifier et critiquer les méthodes de sélection d’un indice de comorbidité pour la recherche sur l’implication des spécialistes dans le suivi des patients. Méthodologie : 709 adultes (65 +/- 11 ans) atteints de diabète, d’arthrite, de maladie pulmonaire obstructive chronique ou d’insuffisance cardiaque furent recrutés dans 33 cliniques de première ligne. Des enquêtes standardisées ont permis de mesurer les caractéristiques des patients (sociodémographiques, comorbidité et qualité de vie) et des cliniques (modèle, ressources). L’utilisation des services de spécialistes et de l’urgence fut mesurée avec une base de données médico-administratives. Des régressions logistiques multivariées furent utilisées pour modéliser les variables associées à la cogestion et comparer le recours à l’urgence selon le type d’implication du spécialiste. Une revue systématique des études sur l’utilisation des services de spécialistes, ainsi que des revues sur les indices de comorbidité fut réalisée pour identifier les méthodes de sélection d’un indice de comorbidité utilisées et recommandées. Résultats : Le tiers des sujets a utilisé les services de spécialistes, dont 62% pour de la cogestion. La cogestion était associée avec une augmentation de la gravité de la maladie, du niveau d’éducation et du revenu. La cogestion diminuait avec l’âge et la réception de soins dans les cliniques avec infirmière ayant un rôle innovateur. Le recours à l’urgence n’était pas influencé par l’implication du spécialiste, en tant que co-gestionnaire (OR ajusté = 1.06, 95%CI = 0.61-1.85) ou consultant (OR ajusté = 0.97, 95%CI = 0.63-1.50). Le nombre de comorbidités n’était pas associé avec la cogestion, ni l’impact du spécialiste sur le recours à l’urgence. Les revues systématiques ont révélé qu’il n’y avait pas standardisation des procédures recommandées pour sélectionner un indice de comorbidité, mais que 10 critères concernant principalement la justesse et l’applicabilité des instruments de mesure pouvaient être utilisés. Les études sur l’utilisation des services de spécialistes utilisent majoritairement l’indice de Charlson, mais n’en expliquent pas les raisons. Conclusion : L’implication du spécialiste dans le suivi des patients atteints de MCs et de comorbidité pourrait se faire essentiellement à titre de consultant plutôt que de co-gestionnaire. Les organisations avec infirmières ayant un rôle innovateur pourraient réduire le besoin pour la cogestion en spécialité. Une méthode structurée, basée sur des critères standardisés devrait être utilisée pour sélectionner l’indice de comorbidité le plus approprié en recherche sur les services de spécialistes. Les indices incluant la gravité des comorbidités seraient les plus pertinents à utiliser.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les défis conjoints du changement climatique d'origine anthropique et la diminution des réserves de combustibles fossiles sont le moteur de recherche intense pour des sources d'énergie alternatives. Une avenue attrayante est d'utiliser un processus biologique pour produire un biocarburant. Parmi les différentes options en matière de biocarburants, le bio-hydrogène gazeux est un futur vecteur énergétique attrayant en raison de son efficacité potentiellement plus élevé de conversion de puissance utilisable, il est faible en génération inexistante de polluants et de haute densité d'énergie. Cependant, les faibles rendements et taux de production ont été les principaux obstacles à l'application pratique des technologies de bio-hydrogène. Des recherches intensives sur bio-hydrogène sont en cours, et dans les dernières années, plusieurs nouvelles approches ont été proposées et étudiées pour dépasser ces inconvénients. À cette fin, l'objectif principal de cette thèse était d'améliorer le rendement en hydrogène moléculaire avec un accent particulier sur l'ingénierie métabolique et l’utilisation de bioprocédés à variables indépendantes. Une de nos hypothèses était que la production d’hydrogène pourrait être améliorée et rendue plus économiquement viable par ingénierie métabolique de souches d’Escherichia coli producteurs d’hydrogène en utilisant le glucose ainsi que diverses autres sources de carbone, y compris les pentoses. Les effets du pH, de la température et de sources de carbone ont été étudiés. La production maximale d'hydrogène a été obtenue à partir de glucose, à un pH initial de 6.5 et une température de 35°C. Les études de cinétiques de croissance ont montré que la μmax était 0.0495 h-1 avec un Ks de 0.0274 g L-1 lorsque le glucose est la seule source de carbone en milieu minimal M9. .Parmi les nombreux sucres et les dérivés de sucres testés, les rendements les plus élevés d'hydrogène sont avec du fructose, sorbitol et D-glucose; 1.27, 1.46 et 1.51 mol H2 mol-1 de substrat, respectivement. En outre, pour obtenir les interactions entre les variables importantes et pour atteindre une production maximale d'hydrogène, un design 3K factoriel complet Box-Behnken et la méthodologie de réponse de surface (RSM) ont été employées pour la conception expérimentale et l'analyse de la souche d'Escherichia coli DJT135. Le rendement en hydrogène molaire maximale de 1.69 mol H2 mol-1 de glucose a été obtenu dans les conditions optimales de 75 mM de glucose, à 35°C et un pH de 6.5. Ainsi, la RSM avec un design Box-Behken était un outil statistique utile pour atteindre des rendements plus élevés d'hydrogène molaires par des organismes modifiés génétiquement. Ensuite, l'expression hétérologue de l’hydrogénases soluble [Ni-Fe] de Ralstonia eutropha H16 (l'hydrogénase SH) a tenté de démontrer que la mise en place d'une voie capable de dériver l'hydrogène à partir de NADH pourrait surpasser le rendement stoechiométrique en hydrogène.. L’expression a été démontrée par des tests in vitro de l'activité enzymatique. Par ailleurs, l'expression de SH a restaurée la croissance en anaérobie de souches mutantes pour adhE, normalement inhibées en raison de l'incapacité de réoxyder le NADH. La mesure de la production d'hydrogène in vivo a montré que plusieurs souches modifiées métaboliquement sont capables d'utiliser l'hydrogénase SH pour dériver deux moles d’hydrogène par mole de glucose consommé, proche du maximum théorique. Une autre stratégie a montré que le glycérol brut pourrait être converti en hydrogène par photofermentation utilisant Rhodopseudomonas palustris par photofermentation. Les effets de la source d'azote et de différentes concentrations de glycérol brut sur ce processus ont été évalués. À 20 mM de glycérol, 4 mM glutamate, 6.1 mol hydrogène / mole de glycérol brut ont été obtenus dans des conditions optimales, un rendement de 87% de la théorie, et significativement plus élevés que ce qui a été réalisé auparavant. En prolongement de cette étude, l'optimisation des paramètres a également été utilisée. Dans des conditions optimales, une intensité lumineuse de 175 W/m2, 30 mM glycérol et 4.5 mM de glutamate, 6.69 mol hydrogène / mole de glycérol brut ont été obtenus, soit un rendement de 96% de la valeur théorique. La détermination de l'activité de la nitrogénase et ses niveaux d'expression ont montré qu'il y avait relativement peu de variation de la quantité de nitrogénase avec le changement des variables alors que l'activité de la nitrogénase variait considérablement, avec une activité maximale (228 nmol de C2H4/ml/min) au point central optimal. Dans la dernière section, la production d'hydrogène à partir du glucose via la photofermentation en une seule étape a été examinée avec la bactérie photosynthétique Rhodobacter capsulatus JP91 (hup-). La méthodologie de surface de réponse avec Box-Behnken a été utilisée pour optimiser les variables expérimentales de façon indépendante, soit la concentration de glucose, la concentration du glutamate et l'intensité lumineuse, ainsi que d'examiner leurs effets interactifs pour la maximisation du rendement en hydrogène moléculaire. Dans des conditions optimales, avec une intensité lumineuse de 175 W/m2, 35 mM de glucose, et 4.5 mM de glutamate,, un rendement maximal d'hydrogène de 5.5 (± 0.15) mol hydrogène /mol glucose, et un maximum d'activité de la nitrogénase de 246 (± 3.5) nmol C2H4/ml/min ont été obtenus. L'analyse densitométrique de l'expression de la protéine-Fe nitrogenase dans les différentes conditions a montré une variation significative de l'expression protéique avec un maximum au point central optimisé. Même dans des conditions optimales pour la production d'hydrogène, une fraction significative de la protéine Fe a été trouvée dans l'état ADP-ribosylée, suggérant que d'autres améliorations des rendements pourraient être possibles. À cette fin, un mutant amtB dérivé de Rhodobacter capsulatus JP91 (hup-) a été créé en utilisant le vecteur de suicide pSUP202. Les résultats expérimentaux préliminaires montrent que la souche nouvellement conçue métaboliquement, R. capsulatus DG9, produit 8.2 (± 0.06) mol hydrogène / mole de glucose dans des conditions optimales de cultures discontinues (intensité lumineuse, 175 W/m2, 35 mM de glucose et 4.5 mM glutamate). Le statut d'ADP-ribosylation de la nitrogénase-protéine Fe a été obtenu par Western Blot pour la souche R. capsulatus DG9. En bref, la production d'hydrogène est limitée par une barrière métabolique. La principale barrière métabolique est due au manque d'outils moléculaires possibles pour atteindre ou dépasser le rendement stochiométrique en bio-hydrogène depuis les dernières décennies en utilisant les microbes. À cette fin, une nouvelle approche d’ingénierie métabolique semble très prometteuse pour surmonter cette contrainte vers l'industrialisation et s'assurer de la faisabilité de la technologie de la production d'hydrogène. Dans la présente étude, il a été démontré que l’ingénierie métabolique de bactéries anaérobiques facultatives (Escherichia coli) et de bactéries anaérobiques photosynthétiques (Rhodobacter capsulatus et Rhodopseudomonas palustris) peuvent produire de l'hydrogène en tant que produit majeur à travers le mode de fermentation par redirection métabolique vers la production d'énergie potentielle. D'autre part, la méthodologie de surface de réponse utilisée dans cette étude représente un outil potentiel pour optimiser la production d'hydrogène en générant des informations appropriées concernant la corrélation entre les variables et des producteurs de bio-de hydrogène modifiés par ingénierie métabolique. Ainsi, un outil d'optimisation des paramètres représente une nouvelle avenue pour faire un pont entre le laboratoire et la production d'hydrogène à l'échelle industrielle en fournissant un modèle mathématique potentiel pour intensifier la production de bio-hydrogène. Par conséquent, il a été clairement mis en évidence dans ce projet que l'effort combiné de l'ingénierie métabolique et la méthodologie de surface de réponse peut rendre la technologie de production de bio-hydrogène potentiellement possible vers sa commercialisation dans un avenir rapproché.