995 resultados para Lieu
Resumo:
Un circuit arithmétique dont les entrées sont des entiers ou une variable x et dont les portes calculent la somme ou le produit représente un polynôme univarié. On assimile la complexité de représentation d'un polynôme par un circuit arithmétique au nombre de portes multiplicatives minimal requis pour cette modélisation. Et l'on cherche à obtenir une borne inférieure à cette complexité, et cela en fonction du degré d du polynôme. A une chaîne additive pour d, correspond un circuit arithmétique pour le monôme de degré d. La conjecture de Strassen prétend que le nombre minimal de portes multiplicatives requis pour représenter un polynôme de degré d est au moins la longueur minimale d'une chaîne additive pour d. La conjecture de Strassen généralisée correspondrait à la même proposition lorsque les portes du circuit arithmétique ont degré entrant g au lieu de 2. Le mémoire consiste d'une part en une généralisation du concept de chaînes additives, et une étude approfondie de leur construction. On s'y intéresse d'autre part aux polynômes qui peuvent être représentés avec très peu de portes multiplicatives (les d-gems). On combine enfin les deux études en lien avec la conjecture de Strassen. On obtient en particulier de nouveaux cas de circuits vérifiant la conjecture.
Resumo:
La stratégie de la tectonique moléculaire a montré durant ces dernières années son utilité dans la construction de nouveaux matériaux. Elle repose sur l’auto-assemblage spontané de molécule dite intelligente appelée tecton. Ces molécules possèdent l’habilité de se reconnaitre entre elles en utilisant diverses interactions intermoléculaires. L'assemblage résultant peut donner lieu à des matériaux moléculaires avec une organisation prévisible. Cette stratégie exige la création de nouveaux tectons, qui sont parfois difficiles à synthétiser et nécessitent dans la plupart des cas de nombreuses étapes de synthèse, ce qui empêche ou limite leur mise en application pratique. De plus, une fois formées, les liaisons unissant le corps central du tecton avec ces groupements de reconnaissance moléculaire ne peuvent plus être rompues, ce qui ne permet pas de remodeler le tecton par une procédure synthétique simple. Afin de contourner ces obstacles, nous proposons d’utiliser une stratégie hybride qui se sert de la coordination métallique pour construire le corps central du tecton, combinée avec l'utilisation des interactions plus faibles pour contrôler l'association. Nous appelons une telle entité métallotecton du fait de la présence du métal. Pour explorer cette stratégie, nous avons construit une série de ligands ditopiques comportant soit une pyridine, une bipyridine ou une phénantroline pour favoriser la coordination métallique, substitués avec des groupements diaminotriazinyles (DAT) pour permettre aux complexes de s'associer par la formation de ponts hydrogène. En plus de la possibilité de créer des métallotectons par coordination, ces ligands ditopiques ont un intérêt intrinsèque en chimie supramoléculaire en tant qu'entités pouvant s'associer en 3D et en 2D. En parallèle à notre étude de la chimie de coordination, nous avons ii examiné l'association des ligands, ainsi que celle des analogues, par la diffraction des rayons-X (XRD) et par la microscopie de balayage à effet tunnel (STM). L'adsorption de ces molécules sur la surface de graphite à l’interface liquide-solide donne lieu à la formation de différents réseaux 2D par un phénomène de nanopatterning. Pour comprendre les détails de l'adsorption moléculaire, nous avons systématiquement comparé l’organisation observée en 2D par STM avec celle favorisée dans les structures 3D déterminées par XRD. Nous avons également simulé l'adsorption par des calculs théoriques. Cette approche intégrée est indispensable pour bien caractériser l’organisation moléculaire en 2D et pour bien comprendre l'origine des préférences observées. Ces études des ligands eux-mêmes pourront donc servir de référence lorsque nous étudierons l'association des métallotectons dérivés des ligands par coordination. Notre travail a démontré que la stratégie combinant la chimie de coordination et la reconnaissance moléculaire est une méthode de construction rapide et efficace pour créer des réseaux supramoléculaires. Nous avons vérifié que la stratégie de la tectonique moléculaire est également efficace pour diriger l'organisation en 3D et en 2D, qui montre souvent une homologie importante. Nous avons trouvé que nos ligands hétérocycliques ont une aptitude inattendue à s’adsorber fortement sur la surface de graphite, créant ainsi des réseaux organisés à l'échelle du nanomètre. L’ensemble de ces résultats promet d’offrir des applications dans plusieurs domaines, dont la catalyse hétérogène et la nanotechnologie. Mots clés : tectonique moléculaire, interactions intermoléculaires, stratégie hybride, coordination métallique, diffraction des rayons-X, microscopie de balayage à effet tunnel, graphite, phénomène de nanopatterning, calculs théoriques, ponts hydrogène, chimie supramoléculaire, ligands hétérocycliques, groupements DAT, catalyse hétérogène, nanotechnologie.
Resumo:
On se propose dans cet article d'explorer les relations ambivalentes qu'entretient le commerce équitable avec le marché. L'objectif de développement mis en avant par le commerce équitable est-il compromis ou favorisé par le recours aux échanges marchands ? Les militants du commerce équitable semblent très critiques envers la logique marchande, le marché étant souvent présenté comme un lieu d'exploitation des faibles par les forts. En même temps, le principe même du commerce équitable fait de l'échange marchand le moyen privilégié pour sortir de la pauvreté, de l'assistance, et accéder au développement. En fait, le commerce équitable nous permet de redécouvrir différentes formes de marché.
Resumo:
La préparation de formulations à libération contrôlée est le domaine des sciences pharmaceutiques qui vise à modifier l’environnement immédiat des principes actifs pour en améliorer l’efficacité et l’innocuité. Cet objectif peut être atteint en modifiant la cinétique de circulation dans le sang ou la distribution dans l’organisme. Le but de ce projet de recherche était d’étudier le profil pharmacocinétique (PK) de différentes formulations liposomales. L’analyse PK, généralement employée pour représenter et prédire les concentrations plasmatiques des médicaments et de leurs métabolites, a été utilisée ici pour caractériser in vivo des formulations sensibles au pH servant à modifier la distribution intracellulaire de principes actifs ainsi que des liposomes destinés au traitement des intoxications médicamenteuses. Dans un premier temps, la PK d’un copolymère sensible au pH, à base de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique (MAA) a été étudiée. Ce dernier, le p(NIPAM-co-MAA) est utilisé dans notre laboratoire pour la fabrication de liposomes sensibles au pH. L’étude de PK conduite sur les profils de concentrations sanguines de différents polymères a défini les caractéristiques influençant la circulation des macromolécules dans l’organisme. La taille des molécules, leur point de trouble ainsi que la présence d’un segment hydrophobe à l’extrémité des chaînes se sont avérés déterminants. Le seuil de filtration glomérulaire du polymère a été évalué à 32 000 g/mol. Finalement, l’analyse PK a permis de s’assurer que les complexes formés par la fixation du polymère à la surface des liposomes restaient stables dans le sang, après injection par voie intraveineuse. Ces données ont établi qu’il était possible de synthétiser un polymère pouvant être adéquatement éliminé par filtration rénale et que les liposomes sensibles au pH préparés avec celui-ci demeuraient intacts dans l’organisme. En second lieu, l’analyse PK a été utilisée dans le développement de liposomes possédant un gradient de pH transmembranaire pour le traitement des intoxications médicamenteuses. Une formulation a été développée et optimisée in vitro pour capturer un médicament modèle, le diltiazem (DTZ). La formulation liposomale s’est avérée 40 fois plus performante que les émulsions lipidiques utilisées en clinique. L’analyse PK des liposomes a permis de confirmer la stabilité de la formulation in vivo et d’analyser l’influence des liposomes sur la circulation plasmatique du DTZ et de son principal métabolite, le desacétyldiltiazem (DAD). Il a été démontré que les liposomes étaient capables de capturer et de séquestrer le principe actif dans la circulation sanguine lorsque celui-ci était administré, par la voie intraveineuse. L’injection des liposomes 2 minutes avant l’administration du DTZ augmentait significativement l’aire sous la courbe du DTZ et du DAD tout en diminuant leur clairance plasmatique et leur volume de distribution. L’effet de ces modifications PK sur l’activité pharmacologique du médicament a ensuite été évalué. Les liposomes ont diminué l’effet hypotenseur du principe actif administré en bolus ou en perfusion sur une période d’une heure. Au cours de ces travaux, l’analyse PK a servi à établir la preuve de concept que des liposomes possédant un gradient de pH transmembranaire pouvaient modifier la PK d’un médicament cardiovasculaire et en diminuer l’activité pharmacologique. Ces résultats serviront de base pour le développement de la formulation destinée au traitement des intoxications médicamenteuses. Ce travail souligne la pertinence d’utiliser l’analyse PK dans la mise au point de vecteurs pharmaceutiques destinés à des applications variées. À ce stade de développement, l’aspect prédictif de l’analyse n’a pas été exploité, mais le côté descriptif a permis de comparer adéquatement diverses formulations et de tirer des conclusions pertinentes quant à leur devenir dans l’organisme.
Resumo:
La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.
Resumo:
Le sujet de l’avortement provoqué demeure encore tabou au Togo et la compréhension du phénomène reste incomplète. La présente étude vise à dresser un portrait complet de ses divers aspects dans la capitale togolaise, qui a connu une baisse importante de la fécondité au cours des dernières années. À partir des données des Enquêtes démographiques et de santé (EDS) de 1988 et 1998, et de celles de l’Enquête sur la planification familiale et l’avortement provoqué (EPAP) de 2002, l’étude montre que le recours à l’avortement est à la hausse à Lomé, bien que l’estimation de son ampleur dépende de la méthode utilisée. Plus de 32 % des femmes ayant déjà été enceintes ont déclaré avoir avorté au moins une fois. Toutefois, l’avortement est plus fréquent chez les jeunes, qui y ont recours de manière plus précoce et plus rapprochée que leurs aînées. En contribuant ainsi à la régulation des naissances, l’avortement réduit la fécondité de 10 à 12 %. En utilisant les données de l’EPAP, réalisée auprès de 4755 femmes âgées de 15-49 ans, nous avons aussi étudié le recours à l’avortement comme une séquence d’étapes débutant par l’exposition au risque de grossesse jusqu’au recours à l’avortement, en passant par une absence de pratique contraceptive et le fait qu’une grossesse qui survient soit déclarée « non désirée ». L’ethnie et la génération sont associées à certaines étapes de la séquence alors que la religion, la parité, le statut matrimonial et le niveau d’instruction sont associés aux quatre étapes. Ainsi, le risque élevé d’avorter chez les femmes instruites découle en fait de leur risque élevé à toutes les étapes. En étant moins à risque de grossesse, les femmes qui ont au moins deux enfants sont plus susceptibles que les nullipares, d’utiliser une contraception moderne, de déclarer une grossesse comme non désirée et d’avorter. Si plusieurs grossesses non désirées surviennent aux âges jeunes, c’est surtout le caractère « hors union » de la grossesse qui fait qu’elle est considérée comme « non désirée » et interrompue. En outre, les femmes qui ont déjà avorté ou utilisé une contraception sont plus enclines à recourir à un avortement. Les résultats montrent également que le partenaire soutient souvent la femme dans la décision d’avorter et s’acquitte des coûts dans la majorité des cas. Malgré le fait qu’ils soient illégaux, plus de 40 % des avortements sont pratiqués à Lomé dans des centres de santé, par un membre du personnel médical, et à l’aide du curetage ou de l’aspiration. Mais, la moitié de ces avortements (22 %) avait été tentée au préalable par des méthodes non médicales. Plusieurs avortements ont aussi lieu soit à domicile (36 %), soit chez des tradi-thérapeutes (24 %), grâce à des méthodes non médicales. Par ailleurs, près de 60 % des avortements ont entraîné des complications sanitaires, conduisant la majorité des femmes à une hospitalisation. Sur le plan psychologique et relationnel, nous avons montré que la plupart des avortements ont entraîné des regrets et remords, de même que des problèmes entre les femmes et leurs parents. Les parents soutiennent en fait peu les femmes dans la décision d’avorter et interviennent rarement dans le paiement des coûts. L’étude a enfin révélé que la loi sur l’avortement est peu connue. Cependant, être âgée de 25 ans ou plus, en union ou très instruite, connaître des méthodes contraceptives, le recours d’une parente ou amie à l’avortement sont associés, toutes choses égales par ailleurs, à une plus grande chance de connaître la loi. L’analyse, en appuyant des déclarations des professionnels de la santé et des femmes, montre que malgré sa forte prévalence à Lomé, le recours à l’avortement demeure largement stigmatisé. Les quelques professionnels et femmes qui se sont prononcés en faveur de sa légalisation pensent que celle-ci permettrait de « réduire les avortements clandestins et risqués ». En fait, ce sont les femmes les plus instruites, âgées de 25 ans ou plus, utilisant la contraception, ayant déjà avorté ou connaissant quelqu’un l’ayant fait, qui sont plus aptes à approuver la légalisation de l’avortement. Celles qui appartiennent aux églises de type « pentecôtiste », plus sévères quant aux relations sexuelles hors mariage, sont par contre moins susceptibles que les catholiques d’avoir une telle attitude positive.
Resumo:
Le site archéologique de Las Mercedes est situé sur le versant atlantique du Costa Rica. Ce site monumental est considéré comme le haut lieu d'une société hiérarchisée ayant une organisation sociopolitique complexe. Las Mercedes semble avoir été un centre administratif et cérémoniel dont l'apogée se situe entre 1000 et 1500 ans de notre ère. Notre mémoire porte sur la documentation d'assemblages céramiques extraits de contextes archéologiques stratigraphiques provenant notamment de deux monticules architecturaux. Notre projet se veut une contribution à une meilleure connaissance de Las Mercedes, selon une perspective diachronique d'affiliation culturelle et de séquences d'occupation. Les datations radiométriques provenant de l'assise des monticules convergent aux alentours de l'an 1000 de notre ère. D'autre part, les assemblages céramiques correspondant aux styles culturels El Bosque (500 avant notre ère à 500 de notre ère), La Selva (500-1000) et La Cabana (1000-1500) représentant une séquence temporelle d'environ deux millénaires. La présente étude vise à comprendre ce phénomène à l'aide des données provenant de l'intervention archéologique conduite, en 2005, conjointement par le Museo Nacional du Costa Rica et l'Université de Montréal. Les assemblages sont décrits selon des attributs technologiques, morphologiques et stylistiques en vue d'en faire une étude comparative et interprétative. Les résultats de notre recherche suggèrent qu'indépendamment des contextes archéologiques, les assemblages ont un composition hétérogène formée des trois styles culturels. Par ailleurs, le modèle présente un certain caractère homogène. Ainsi, les assemblages se composent de façon récurrente de 12% de céramique El Bosque, 55 % La Selva et 33 % La Cabana. Une interprétation parcellaire peut être soutirée de ce mélange céramique. L'amalgame des styles culturels témoignent que Las Mercedes a connu une longue occupation, toutefois les résultats ne permettent pas de confirmer ou d'infirmer nos hypothèses de travail.
Resumo:
Les patients atteints de la maladie de Tangier présentent des niveaux très bas de lipoprotéines de haute densité (HDL), un facteur de risque pour le développement des maladies cardiovasculaires. In vivo, les HDL ont un effet protecteur important contre l’athérosclérose puisqu’elles effectuèrent le transport à rebours du cholestérol des tissus périphériques vers le foie. Or, la maladie de Tangier est causée par des mutations dans le gène du transporteur « ATP-binding cassette A1 » (ABCA1). Le modèle actuel stipule que ce transporteur assure la lipidation de l’apolipoprotéine A-I (apoA-I), la composante protéique majeure des HDL, pour former des particules HDL naissantes discoïdales. Un défaut dans la lipidation de l’apoA-I par l’ABCA1 abolit la biogénèse des HDL. Nous avons voulu étudier les sites d’interaction de l’ABCA1 avec son ligand (l’apoA-I), les voies de biogénèse impliquées, et l’implication des pré-β-HDL dans l’efflux du cholestérol par la voie de l’ABCA1. D’abord, nous avons utilisé un système de culture cellulaire (fibroblastes humaines et BHK-ABCA1-inductible) afin de déterminer les sites de liaison cellulaires de l’apoA-I, leurs localisations et l’implication de l’ABCA1. Nous avons trouvé que la majorité de l’apoA-I n’est pas associée à l’ABCA1 et, deux tiers de cet apoA-I, était à la membrane plasmique. Ensuite, Une étude plus détaillée examinait les voies de lipidation de l’apoA-I, soit au niveau de la membrane plasmique (MP), soit aux compartiments intracellulaires (CICs). Nous avons montré que la lipidation de l’apoA-I a lieu aux deux niveaux (MP et CICs) selon deux voies différentes cinétiquement. Finalement, nous avons montré que les pré-β-HDL effluent aussi (efficacement que l’apoA-I) le cholestérol par la voie de l’ABCA1. Ces observations réunies démontrent que 1) la majorité de l’apoA-I s’est trouvé non-associée à l’ABCA1; 2) deux tiers de l’apoA-I s’associent a la membrane plasmique; 3) la lipidation de l’apoA-I se fait en partie à la membrane plasmique et, par la voie de retro-endocytose du complexe apoA-I/ABCA1.
Resumo:
Nous présentons un relevé et une analyse spectroscopiques de plus de 1300 naines blanches brillantes (V < 17.5) et riches en hydrogène. Des spectres dans le domaine du visible avec un rapport signal-sur-bruit élevé ont été obtenus et les données ont ensuite été analysées avec notre méthode spectroscopique habituelle qui compare les profils observés des raies de Balmer à des spectres synthétiques calculés à partir de la dernière génération de modèles d’atmosphère. D’abord, nous présentons une analyse détaillée de 29 naines blanches de type DAO utilisant une nouvelle grille de modèles qui inclut du carbone, de l’azote et de l’oxygène aux abondances solaires. Nous démontrons que l’ajout de ces métaux dans les modèles d’atmosphère est essentiel pour surmonter le problème des raies de Balmer qui empêche un ajustement simultané de toutes les raies de Balmer avec des paramètres atmosphériques cohérents. Nous identifions également 18 naines blanches chaudes de type DA qui souffrent aussi du problème des raies de Balmer. Des spectres dans l’ultraviolet lointain obtenus des archives du satellite FUSE sont ensuite examinés pour démontrer qu’il existe une corrélation entre les abondances métalliques élevées et les cas du problème des raies de Balmer. Les conséquences de ces résultats pour toutes les naines blanches chaudes et riches en hydrogène sont discutées. En particulier, le scénario évolutif pour les naines blanches DAO est révisé et nous n’avons plus besoin d’évoquer l’évolution post-EHB pour expliquer la majorité des étoiles DAO. Finalement, nous élaborons un scénario dans lequel les métaux engendrent un faible vent stellaire qui expliquerait la présence d’hélium dans les étoiles DAO. Ensuite, nous présentons les résultats globaux de notre relevé, ce qui inclut une analyse spectroscopique de plus de 1200 naines blanches de type DA. En premier lieu, nous présentons le contenu spectroscopique de notre échantillon qui contient de nombreuses classifications erronées ainsi que plusieurs naines blanches de type DAB, DAZ et magnétiques. Nous discutons ensuite des nouveaux modèles d'atmosphère utilisés dans notre analyse. De plus, nous utilisons des modèles de naines M pour obtenir de meilleures valeurs des paramètres atmosphériques pour les naines blanches qui sont membres de systèmes binaires DA+dM. Certaines naines blanches uniques et quelques systèmes binaires double-dégénérées sont également analysés de manière plus détaillée. Nous examinons ensuite les propriétés globales de notre échantillon incluant la distribution de masse et la distribution de masse en fonction de la température. Nous étudions également la façon dont les nouveaux profils de raies de Balmer affectent la détermination des paramètres atmosphériques. Nous testons la précision et la robustesse de nos méthodes en comparant nos résultats avec ceux du projet SPY, dans le cadre duquel plus de 300 des mêmes naines blanches ont été analysées d'une manière complètement indépendante. Finalement, nous faisons un retour sur la bande d'instabilité des naines blanches pulsantes de type ZZ Ceti pour voir quels effets ont les nouveaux profils de raies sur la détermination de ses frontières empiriques.
Resumo:
Le sujet de ce mémoire est l’étude ab initio des nanotubes de carbone. Premièrement, une introduction du sujet est présentée. Elle porte sur l’historique, la structure géométrique et électronique et les applications possibles des nanotubes de carbone. En deuxième lieu, la stabilité énergétique des nanotubes de carbones double parois ainsi que leur structure électronique sont étudiées. On trouve entre autres que le changement d’hybridation provoque une chute de l’énergie du dernier niveau occupé pour les petits nanotubes. Troisièmement, nous présenterons une étude sur la dépendance en diamètre et en métallicité du greffage d’unité bromophényle sur la surface des nanotubes. La principale conclusion est qu’il est plus facile de fonctionnaliser les nanotubes de petit diamètre puisque ceux-ci ont déjà une partie d’hybridation sp3 dans leur structure électronique. Finalement, le dernier chapitre aborde la combustion des nanotubes par le dioxyde de carbone. On constate que cette combustion ne peut pas débuter sur une surface intacte, ni par un pontage d’oxygène dû à la grande quantité d’énergie requise. La réaction privilégiée est alors la combustion par les extrémités du nanotube. Nous proposons une dynamique de réaction qui contient une sélectivité en diamètre.
Resumo:
Nous avons déjà démontré que les probiotiques réduisaient l'apoptose observée dans le système limbique après un infarctus du myocarde (IM), suggérant un rôle anti-dépresseur potentiel des probiotiques. Cette étude a été conçue pour déterminer si les probiotiques pouvaient atténuer le comportement dépressif observé après un infarctus du myocarde. Un autre objectif visait à démontrer qu’une altération de la barrière intestinale pourrait avoir lieu lors d’un IM et que les probiotiques pourraient empêcher cette altération de la perméabilité intestinale. Méthodes: Des rats mâles Sprague-Dawley ont reçu des probiotiques (1 milliard de cellules bactériennes vivantes de Lactobacillus helveticus R0052 et Bifidobacterium longum R0175) ou le véhicule tous les jours en dilution dans leur eau, débutant 1 semaine avant l'induction d'une ischémie myocardique. Un infarctus a ensuite été induit chez la moitié des rats, par l'occlusion de l'artère coronaire antérieure gauche (40 minutes) suivie d'une reperfusion. Les rats témoins, l'autre moitié de la cohorte, ont été soumis à la même procédure sans occlusion coronarienne. Une semaine après l'infarctus, les animaux ont été resoumis au traitement préalable jusqu'au moment du sacrifice. Le comportement dépressif a été évalué par trois tests soit: l'interaction sociale, le test de nage forcée et le test d'évitement passif. Résultats: Les résultats obtenus indiquent qu'en absence d'infarctus, les probiotiques n'ont pas d'effet significatif. Toutefois, en dépit de taille similaire IM, des rats traités avec des probiotiques, ont démontré davantage d'interactions sociales et une meilleure performance dans le test de nage forcée et d'évitement passif, comparativement à des rats du groupe IM sans probiotique (p<0,05). Conclusion: Les probiotiques atténuent le comportement dépressif observé après infarctus du myocarde par un mécanisme qui pourrait impliquer l'intégrité des intestins.
Resumo:
Cette thèse avait pour but premier d’évaluer la douleur chronique endométriosique et ses concomitants (dépression, anxiété et stress), les conséquences de la douleur sur le physique, les activités et le travail, sur la relation maritale et les séquelles sur la qualité de vie chez des participantes souffrant de douleurs pelviennes chroniques diagnostiquées endométriose (laparoscopie). En deuxième lieu, il s’agissait d’évaluer et de comparer l’efficacité des techniques psychologiques de contrôle de la douleur (Hypnose, Cognitif-behavioral) en ajout aux traitements médicaux à un groupe contrôle (Attention thérapeute). L’échantillon était composé de 60 femmes réparties aléatoirement soit à l’un des deux groupes de traitement ou au groupe contrôle. Les instruments de mesure étaient tous des questionnaires déjà traduits en français et validés pour la population francophone québécoise. Des tests du khi-carré ont été effectués pour les variables nominales et des analyses de variances (ANOVA) ont été faites pour les variables continues. Dans des modèles ANOVA estimant l’effet du traitement, du temps et de leur interaction, une différence significative (effet de Groupe ou traitement) a été trouvée pour les variables suivantes : Douleur (McGill :composante évaluative p = 0.02), au moment « présent » de l’Échelle visuelle analogique (EVA, p = 0.05) et dans l’Échelle de Qualité de vie (douleur, p = 0,03) ainsi qu’à la dimension Fonctionnement social de cette dernière échelle (SF-36; p = 0,04). En comparant les données en pré et post-traitement, des résultats significatifs au niveau du Temps ont aussi été mis en évidence pour les variables suivantes : Douleur McGill: Score total, (p = 0,03), Affective (p = 0,04), Évaluative (p = 0,01); Douleur (ÉVA) moment Fort (p < 0,0005), Dépression (p = 0,005), Anxiété (situationnelle/état (p = 0,002), Anxiété/trait (p < 0,001), Stress (p = 0, 003) ainsi que pour quatre composantes de la Qualité de vie (Fonctionnement social, (p = 0,05), Vitalité (p = 0,002), Douleur, (p = 0,003) et Changement de la santé (p < 0,001) et ceci pour les trois groupes à l’exception du groupe Hypnose sur cette dernière variable. Des effets d’Interaction (Groupe X Temps) sont ressortis sur les variables « Conséquences physiques » de la douleur mais sur la dimension « Activités » seulement (p = 0,02), sur l’anxiété situationnelle (État : p = 0,007). Un effet d’interaction se rapprochant de la signification (p = 0,08) a aussi été analysé pour la variable Fonctionnement social (SF-36). L’étude montre une légère supériorité quant au traitement Cognitif-behavioral pour l’anxiété situationnelle, pour le Fonctionnement social et pour la douleur mesurée par le SF-36. L’étude présente des forces (groupe homogène, essai clinique prospectif, répartition aléatoire des participantes et groupe contrôle) mais aussi des lacunes (faible échantillon et biais potentiels reliés à l’expérimentateur et à l’effet placebo). Toute future étude devrait tenir compte de biais potentiels quant au nombre d’expérimentateur et inclure un groupe placebo spécifique aux études à caractère psychologique. Une future étude devrait évaluer le schème cognitif « catastrophisation » impliqué dans la douleur, les traits de personnalité des participantes ainsi que le rôle du conjoint. De plus, des techniques psychologiques (entrevues motivationnelles) récentes utilisées dans plusieurs études devraient aussi être prises en considérations. Tout de même des résultats significatifs offrent des pistes intéressantes pour un essai clinique comportant un échantillon plus élevé et pour un suivi à long terme.
Resumo:
Les virus du papillome humain (VPH) sont de petits virus à ADN double brin infectant les épithéliums de la peau et des muqueuses. La réplication nécessaire au maintien de leur génome dans les cellules infectées dépend des protéines virales E1 et E2. Au cours de la réplication, E1 est recrutée à l’origine de réplication par E2 afin d’être assemblée en doubles hexamères capables de dérouler l’ADN. E1 contient un domaine C-terminal responsable de l’activité ATPase/hélicase, un domaine central de liaison à l’origine et une région N-terminale régulant la réplication in vivo. Cette région contient des signaux de localisation et d’export nucléaire qui modulent le transport intracellulaire de E1. Chez le virus du papillome bovin (VPB), il a été proposé que ce transport est régulé par la sumoylation de E1. Finalement, la région N-terminale de E1 contient un motif de liaison aux cyclines permettant son interaction avec la cycline E/A-Cdk2. La phosphorylation de E1 par cette dernière régule différemment l’export nucléaire des protéines E1 du VPB et du VPH. Dans la première partie de cette étude, nous avons démontré que bien que la protéine E1 des VPH interagit avec Ubc9, l’enzyme de conjugaison de la voie de sumoylation, cette voie n’est pas requise pour son accumulation au noyau. Dans la seconde partie, nous avons déterminé que l’accumulation nucléaire de E1 est plutôt régulée pas sa phosphorylation. En fait, nous avons démontré que l’export nucléaire de E1 est inhibé par la phosphorylation de sérines conservées de la région N-terminale de E1 par Cdk2. Puis, nous avons établi que l’export nucléaire de E1 n’est pas nécessaire à l’amplification du génome dans les kératinocytes différenciés mais qu’il est requis pour le maintien du génome dans les kératinocytes non différenciés. En particulier, nous avons découvert que l’accumulation nucléaire de E1 inhibe la prolifération cellulaire en induisant un arrêt du cycle cellulaire en phase S et que cet effet anti-prolifératif est contrecarrée par l’export de E1 au cytoplasme. Dans la troisième partie de cette étude, nous avons démontré que l’arrêt cellulaire induit par E1 dépend de sa liaison à l’ADN et à l’ATP, et qu’il est accompagné par l’activation de la voie de réponse aux dommages à l’ADN dépendante de ATM (Ataxia Telangiectasia Mutated). Ces deux événements semblent toutefois distincts puisque la formation d’un complexe E1-E2 réduit l’activation de la voie de réponse aux dommages par E1 sans toutefois prévenir l’arrêt de cycle cellulaire. Finalement, nous avons démontré que la réplication transitoire de l’ADN viral peut avoir lieu dans des cellules arrêtées en phase S, indépendamment de l’activation de la voie de réponse aux dommages à l’ADN et de la kinase ATM. Globalement, nos résultats démontrent que l’export nucléaire de E1 est régulé par sa phosphorylation et non par sa sumoylation. Ils démontrent également que l’export nucléaire de E1 est essentiel au maintien du génome dans les kératinocytes, possiblement parce qu’il prévient l’inhibition de la prolifération cellulaire et l’activation de la voie de réponse aux dommages à l’ADN en limitant l’accumulation de E1 au noyau.
Resumo:
Dans ce mémoire, nous examinons le fichage de la délinquance sexuelle dont les divers régimes juridiques reposent sur l’idée que ces contrevenants présentent un risque réel de récidive criminelle. Les données scientifiques sur la délinquance sexuelle relativisent ce risque et attestent qu’il est quasi absent dans un très grand nombre de cas. Il existe donc une dichotomie entre les prémisses du droit et les connaissances issues des sciences sociales et humaines sur cette question. Le fichage de cette délinquance au Canada donne lieu à des mécanismes administratifs provinciaux en plus d’un régime fédéral contenu au Code criminel. Nous émettons l’hypothèse que le fichage provincial emporte de véritables conséquences pénales sur les délinquants sexuels, affectent leurs droits en vertu de l’article 7 de la Charte et contrecarre des principes de justice fondamentale. Ensuite, nous examinons le régime fédéral intégré au Code criminel et nous argumentons que ce mécanisme juridique crée une mesure punitive de la nature d’une peine. Par conséquent, le fichage fédéral devrait être aménagé de façon à satisfaire aux garanties constitutionnelles propres à la peine et aux principes généraux de la détermination de la peine en vertu de la Partie XXIII du Code criminel. Nous concluons que les législateurs successifs ont créé des régimes juridiques régissant le fichage de la délinquance sexuelle en écartant les principes fondamentaux administratifs, criminels et constitutionnels qui devraient présider à l’élaboration des règles concernant ce stigmate de la criminalité. Les tribunaux, par leur interprétation, ont également déqualifié cette stigmatisation de la criminalité sexuelle à titre de peine. Le droit relatif au fichage de la délinquance sexuelle donne donc lieu à une érosion des principes fondamentaux de la justice criminelle et punitive.
Resumo:
L’objet de ce travail de recherche est de mettre en dialogue les œuvres de Hans-Georg Gadamer et de Paul Ricœur afin de mettre au jour ce qui caractérise en propre la conception herméneutique du langage et d’en souligner la pertinence. Notre thèse principale est que, pour ce faire, il est impératif de dépasser les lectures dichotomiques des deux œuvres par une interprétation plus dialectique, puisque seule une telle démarche paraît susceptible de saisir l’étendue, la richesse et l’importance de l’intelligence herméneutique du phénomène langagier. Ainsi, dans ce travail, nous défendrons l’idée que, par-delà leurs différences incontestables, précieuses en elles-mêmes car sans elles il n’est pas de dialogue, les herméneutiques de Gadamer et Ricœur se distinguent par une réflexion philosophique incessante sur notre appartenance fondamentale au langage, qui constitue le cœur de la conception herméneutique du langage. Nous proposerons une confrontation des philosophies de Gadamer et Ricœur s’effectuant principalement autour d’une dialectique entre appartenance et distanciation, dans laquelle des approches plus objectivantes du langage pourront s’articuler à une description de notre expérience vécue. Avant de décrire cette dialectique pour elle-même, il nous est apparu indiqué de tenir compte de l’héritage phénoménologique incontournable à partir duquel Gadamer et Ricœur ont développé leurs approches respectives du langage. Cette base nous permettra de faire ressortir l’existence d’un accord de fond entre les deux herméneutiques sur la reconnaissance de notre irréductible appartenance au langage. Cette thèse n’exclut pas la possibilité, voire la nécessité d’intégrer dialectiquement un moment de distanciation au sein de cette appartenance primordiale. Nous montrerons en effet que c’est en s’appuyant sur cette distanciation que, par un mouvement réflexif, la pensée herméneutique peut revenir sur notre expérience langagière pour la thématiser et l’expliciter. Cette réflexion sur le langage s’effectue à partir de trois principaux modèles : ceux du dialogue, du texte et de la traduction. Nous exposerons comment chacun de ces modèles contribue à une meilleure compréhension de la vie du langage et de notre rapport au sens. Ceci nous conduira à examiner les efforts de Gadamer et Ricœur visant à mettre en lumière la puissance créatrice qui anime le langage, telle qu’elle ressort de leurs nombreux travaux sur la métaphore, le dire poétique et le récit. Nous défendrons alors la thèse qu’une conception originale de l’imagination s’élabore à travers la réflexion herméneutique sur l’innovation sémantique et la métaphoricité essentielle du langage. Cette recherche se terminera par une analyse des conceptions gadamérienne et ricœurienne des rapports entre langage et expérience, ainsi que de la portée ontologique du langage. Il y aura ici lieu d’insister sur la thèse partagée par les deux herméneutes selon laquelle il importe de résister à toute hypostase ou absolutisation du langage et de constamment penser le langage comme offrant une ouverture sur l’être et la possibilité de dire ce qui est.