980 resultados para mesure de contrainte
Resumo:
L’exploitation sexuelle à des fins commerciales fait de plus en plus de victimes en Inde. Compte tenu de l’ampleur constatée du phénomène et de la gravité de ses multiples conséquences, notre recherche vise à mieux connaître et comprendre l’expérience vécue par les femmes se livrant à des activités sexuelles contre rémunération. Plus précisément, elle a comme objectifs de décrire le cheminement ayant conduit ces femmes à se livrer à de telles pratiques ainsi que leur réalité quotidienne et comment elles perçoivent leur situation pour ensuite être en mesure de formuler des propositions d’interventions préventives ou s’adressant aux femmes se livrant déjà à des activités sexuelles à des fins commerciales. Nous avons choisi de nous intéresser aux femmes vivant et se prostituant à la gare de Varanasi. Une approche qualitative a été privilégiée dans la réalisation de la recherche. Huit entrevues ont été réalisées avec des femmes et fillettes qui se prostituent à la gare, trois avec des intervenants sociaux y travaillant et l’observation in situ a permis d’enrichir le matériel recueilli. Ces prostituées sont souvent issues d’un milieu familial dysfonctionnel. C’est en situation de fuite ou d’abandon familial qu’elles s’installent à la gare. Il s’agit d’un endroit où les femmes sont en situation d’extrême vulnérabilité et où les conditions de vie sont misérables. Exposées aux dangers de la vie à la gare et accessibles aux proxénètes, la prostitution devient une option pour y survivre. Les besoins d’intervention auprès de ces femmes sont multiples et y répondre est complexe. Une approche favorisant la réduction des méfaits et la prévention paraît être les avenues à privilégier.
Resumo:
L'approximation adiabatique en mécanique quantique stipule que si un système quantique évolue assez lentement, alors il demeurera dans le même état propre. Récemment, une faille dans l'application de l'approximation adiabatique a été découverte. Les limites du théorème seront expliquées lors de sa dérivation. Ce mémoire à pour but d'optimiser la probabilité de se maintenir dans le même état propre connaissant le système initial, final et le temps d'évolution total. Cette contrainte sur le temps empêche le système d'être assez lent pour être adiabatique. Pour solutionner ce problème, une méthode variationnelle est utilisée. Cette méthode suppose connaître l'évolution optimale et y ajoute une petite variation. Par après, nous insérons cette variation dans l'équation de la probabilité d'être adiabatique et développons en série. Puisque la série est développée autour d'un optimum, le terme d'ordre un doit nécessairement être nul. Ceci devrait nous donner un critère sur l'évolution la plus adiabatique possible et permettre de la déterminer. Les systèmes quantiques dépendants du temps sont très complexes. Ainsi, nous commencerons par les systèmes ayant des énergies propres indépendantes du temps. Puis, les systèmes sans contrainte et avec des fonctions d'onde initiale et finale libres seront étudiés.
Resumo:
L’histoire de la médicalisation de la maternité en Chine reste encore mal connue et ce mémoire constitue une amorce pour tenter de défricher ce riche et vaste terrain. Il examine dans quel cadre et dans quelle mesure la prise en charge de la maternité des femmes chinoises a évolué au sein des postes médicaux consulaires français du sud de la Chine (Guangdong, Guangxi, Yunnan), de l’arrivée des premiers médecins en 1898, jusqu’à la veille de la Seconde Guerre mondiale en 1938. Il démontre comment a pu se traduire l’œuvre médicale française en matière de prise en charge de la grossesse, de l’accouchement et des soins à donner au nouveau-né dans les établissements de santé consulaires, et tente de voir jusqu’à quel point, pourquoi et dans quels domaines précisément l’offre de soins à l’occidentale proposée par les Français dans ces régions a pu atteindre les futures et nouvelles mères chinoises.
Resumo:
L’augmentation de la dépense énergétique (DE) par une augmentation de l'activité physique (AP) participe au maintien et à l’amélioration de la santé. La mesure à grande échelle de la DE totale (DET) en général et AP en particulier se heurte à des difficultés pratiques de recueil de données, de validité et aux coûts. Bien que dans la littérature de nombreux accéléromètres permettent d’estimer la DET, il y a encore des limites quant à la mesure de l’intensité de l’AP, élément qui influence l’état de la balance énergétique et le bénéfice pour la santé de l’AP. De plus, peu de comparaisons entre les différents accéléromètres sont disponibles. La présente étude avait pour but d’évaluer la capacité de deux accéléromètres (Actical et Sensewear Armband) pour estimer la DET en comparaison avec la technique de l’eau doublement marquée (EDM) ; d’évaluer la concordance entre les accéléromètres dans la mesure de la DE au repos (DER) en comparaison avec la technique de la calorimétrie indirecte (CI) et d’évaluer la DE liée à l’AP en comparaison avec la technique de la CI. Les résultats montrent qu’il y a une très bonne corrélation entre la CI et les accéléromètres dans la mesure de la DER(r > 0.80, p<0.001) et une bonne corrélation entre les accéléromètres et l’EDM dans la mesure de la DET(r>0.75, p<0.001). Pour la mesure de l’intensité de l’AP, l’ACT est plus précis (r=0.80, p<0.001)) que le SWA à la marche, le SWA est meilleur(r=0.80, p<0.001) au vélo. Cette étude permet d’affirmer que le SWA et l’ACT sont des alternatives valables pour mesurer la DE.
Resumo:
Par cette recherche, nous voulons évaluer de manière exhaustive les bénéfices qu’apporte l’ExAO (Expérimentation Assistée par Ordinateur) dans les laboratoires scolaires de sciences et technologie au Liban. Nous aimerions aussi qu’elle contribue d’une manière tangible aux recherches du laboratoire de Robotique Pédagogique de l’Université de Montréal, notamment dans le développement du µlaboratoire ExAO. Nous avons voulu tester les capacités de l’ExAO, son utilisation en situation de classe comme : 1. Substitut d’un laboratoire traditionnel dans l’utilisation de la méthode expérimentale; 2. Outil d’investigation scientifique; 3. Outil d’intégration des sciences expérimentales et des mathématiques; 4. Outil d’intégration des sciences expérimentales, des mathématiques et de la technologie dans un apprentissage technoscientifique; Pour ce faire, nous avons mobilisé 13 groupe-classes de niveaux complémentaire et secondaire, provenant de 10 écoles libanaises. Nous avons désigné leurs enseignants pour expérimenter eux-mêmes avec leurs étudiants afin d’évaluer, de manière plus réaliste les avantages d’implanter ce micro laboratoire informatisé à l’école. Les différentes mise à l’essai, évaluées à l’aide des résultats des activités d’apprentissage réalisées par les étudiants, de leurs réponses à un questionnaire et des commentaires des enseignants, nous montrent que : 1. La substitution d’un laboratoire traditionnel par un µlaboratoire ExAO ne semble pas poser de problème; dix minutes ont suffi aux étudiants pour se familiariser avec cet environnement, mentionnant que la rapidité avec laquelle les données étaient représentées sous forme graphique était plus productive. 2. Pour l’investigation d’un phénomène physique, la convivialité du didacticiel associée à la capacité d’amplifier le phénomène avant de le représenter graphiquement a permis aux étudiants de concevoir et de mettre en œuvre rapidement et de manière autonome, une expérimentation permettant de vérifier leur prédiction. 3. L’intégration des mathématiques dans une démarche expérimentale permet d’appréhender plus rapidement le phénomène. De plus, elle donne un sens aux représentations graphiques et algébriques, à l’avis des enseignants, permettant d’utiliser celle-ci comme outil cognitif pour interpréter le phénomène. 4. La démarche réalisée par les étudiants pour concevoir et construire un objet technologique, nous a montré que cette activité a été réalisée facilement par l’utilisation des capteurs universels et des amplificateurs à décalage de l’outil de modélisation graphique ainsi que la capacité du didacticiel à transformer toute variable mesurée par une autre variable (par exemple la variation de résistance en variation de température, …). Cette activité didactique nous montre que les étudiants n’ont eu aucune difficulté à intégrer dans une même activité d’apprentissage les mathématiques, les sciences expérimentales et la technologie, afin de concevoir et réaliser un objet technologique fonctionnel. µlaboratoire ExAO, en offrant de nouvelles possibilités didactiques, comme la capacité de concevoir, réaliser et valider un objet technologique, de disposer pour ce faire, des capacités nouvelles pour amplifier les mesures, modéliser les phénomènes physiques, créer de nouveaux capteurs, est un ajout important aux expériences actuellement réalisées en ExAO.
Resumo:
De nombreux travailleurs utilisent le captan et le folpet comme fongicides en agriculture, mais leur exposition n’est pas toujours mesurée de manière spécifique et précise. La surveillance biologique est un excellent outil à cet effet puisqu’elle permet de quantifier l’exposition réelle. Toutefois, la majorité des connaissances toxicologiques pour ces fongicides proviennent d’études sur les animaux, et les données chez l’humain sont limitées. Le but du présent projet est donc de développer des outils de surveillance biologique pour évaluer l’exposition de travailleurs au captan et au folpet. Dans cette perspective, le projet a été subdivisé en trois parties complémentaires, soit i) de développer des méthodes analytiques spécifiques pour quantifier les biomarqueurs d’intérêt du captan, à savoir le tétrahydrophtalimide (THPI), et du folpet, à savoir le phtalimide (PI) et l’acide phtalique, dans le plasma et l’urine; ii) de déterminer la toxicocinétique des deux fongicides en exposant des volontaires de façon aigüe à de faibles doses de captan ou de folpet par voie orale et cutanée dans des conditions semi-contrôlées et en quantifiant les biomarqueurs dans chacune des deux matrices, excepté l’acide phtalique qui a été mesuré seulement dans l’urine; iii) de valider les biomarqueurs d’exposition sélectionnés et d’évaluer l’exposition réelle des travailleurs et les voies prédominantes d’exposition au captan et au folpet en collectant des données biologiques chez des travailleurs en arboriculture et en viticulture lors d’activités de traitement et d’effeuillage pendant sept jours consécutifs. Selon ces travaux, le THPI et le PI sont deux biomarqueurs valides et spécifiques pour quantifier l’exposition au captan et au folpet, respectivement, chez l’humain. En effet, les méthodes développées pour ces deux métabolites sont robustes avec des limites de détection plus sensibles que celles rapportées dans la littérature, un taux de recouvrement de 90% pour le THPI et de 75% pour le PI, une très bonne linéarité (R2>0,99) et une bonne stabilité avec des variations intra- et inter-journalières faibles (RSD<15%). Elles ont permis de déterminer les profils cinétiques des deux métabolites chez les volontaires et chez les travailleurs. Ces derniers indiquent d’ailleurs une élimination rapide, avec une demi-vie d’élimination dans l’urine de 11,7 h et 18,7 h pour le THPI et de 27,3 h et 28,8 h pour le PI, respectivement après une absorption par voie orale et cutanée, ainsi qu’une faible absorption cutanée lorsque les valeurs sont comparées pour les deux voies d’exposition. Des profils parallèles sont aussi observés entre le PI et l’acide phtalique pour les volontaires et les agriculteurs, mais le folpet se retrouve davantage métabolisé sous forme d’acide phtalique que de PI. Quant à l’étude des agriculteurs, elle montre que la voie principale d’exposition de ces travailleurs est la voie cutanée. Il est aussi souligné qu’il est important 1) de favoriser les collectes d’urines complètes sur 24 h au urines ponctuelles, 2) de mesurer plusieurs métabolites, et 3) d’associer les données de surveillance biologique à la toxicocinétique. Ainsi, les connaissances acquises par cette étude peuvent s’appliquer à d’autres fongicides, voire d’autres substances.
Resumo:
Le cancer occupe le premier rang parmi les causes de décès au Québec. Les taux de mortalité diffèrent cependant à travers les régions du Québec. En considérant les territoires des Centres de santé et de services sociaux (CSSS), ce mémoire propose dans un premier temps d’étudier la distribution des taux de mortalité pour les principaux sièges de cancer, d’identifier les régions où une différence significative du taux avec le reste du Québec est perceptible et d’approfondir des éléments impliqués dans la mortalité, soit l’incidence et la létalité. D’autre part, dans le but d’expliquer les variations des taux de mortalité, des variables socio-économiques liées aux territoires retenus serviront de variables explicatives au modèle de régression utilisé. Les résultats ont permis de constater que c’est pour le cancer du poumon que les écarts significatifs sont les plus nombreux. Quant au cancer colorectal, un seul territoire présentait un écart significatif. Pour ce qui est du cancer de la prostate et du sein, aucun écart n’est perceptible dans les taux de mortalité. Concernant la partie explicative de la mortalité, dans le cas du cancer du poumon, les taux d’incidence sont fortement corrélés aux taux de mortalité. On ne peut cependant faire le même constat pour les cancers colorectal, du sein et de la prostate. De plus, les variables socio-économiques considérées pour les territoires de CSSS ne permettaient pas d’arriver à un modèle explicatif convaincant. Ces résultats montrent la nécessité d’avoir des données longitudinales permettant de suivre les individus dès le moment où le diagnostic de cancer est établi afin d’être en mesure de mieux mesurer les liens entre l’incidence, la survie, le niveau socio-économique et la mortalité.
Resumo:
Ce mémoire propose d’aborder la relation entre le chez-soi et la construction des identités géographiques. Plus précisément, il s’agit de se pencher sur l’importance que revêt cette dimension intime et familière de l’habitat dans la part des identités qui mobilise les lieux, territoires et paysages comme référents. S’interroger à cet égard s’avère d’autant plus pertinent aujourd’hui, dans un contexte de fragmentation socio-spatiale à l’échelle urbaine et de prolifération d’enclaves résidentielles qui témoignent d’un enfermement et d’une introversion de l’habitat. Nous abordons la question à travers le cas du projet AlphaVille São Paulo (Brésil), un large développement résidentiel composé de plusieurs communautés fermées. Les entretiens semi-directifs réalisés auprès de onze habitants de ce projet permettent de confirmer l’importance du chez-soi dans leur construction identitaire. En effet, le chez-soi en communauté fermée représente l’aboutissement d’un parcours géographique et permet au regard des habitants rencontrés une expérience de l’espace résidentiel qui s’approche de celle qu’ils ont connue au cours de l’enfance et qu’ils ont perdue à mesure que la ville s’est transformée en un milieu de plus en plus hostile. Ainsi, il leur permet dans une certaine mesure de revivre un idéal perdu. Néanmoins, habiter en communauté fermée contraint les territorialités : au sein de la métropole, le chez-soi fait figure de refuge. Il n’en demeure pas moins que les réponses des résidents révèlent une conscience que leur choix d’habitat constitue en quelque sorte une fuite de la réalité. Ainsi, ils entretiennent à l’égard de leur milieu de vie une relation qui oscille entre illusion et désillusion.
Resumo:
L’hypertrophie du ventricule gauche (HVG) est un processus adaptif et compensatoire qui se développe conséquemment à l’hypertension artérielle pour s’opposer à l’élévation chronique de la pression artérielle. L’HVG est caractérisée par une hypertrophie des cardiomyocytes suite à l’augmentation de la synthèse d’ADN, une prolifération des fibroblastes, une augmentation du dépôt de collagène et une altération de la matrice extracellulaire (MEC). Ces changements génèrent des troubles de relaxation et mènent au dysfonctionnement diastolique, ce qui diminue la performance cardiaque. La suractivité du système nerveux sympathique (SNS) joue un rôle essentiel dans le développement de l’hypertension artérielle et de l’HVG à cause de la libération excessive des catécholamines et de leurs effets sur la sécrétion des cytokines pro-inflammatoires et sur les différentes voies de signalisation hypertrophiques et prolifératives. Le traitement antihypertenseur avec de la moxonidine, un composé sympatholytique d’action centrale, permet une régression de l’HVG suite à une réduction soutenue de la synthèse d'ADN et d’une stimulation transitoire de la fragmentation de l'ADN qui se produit au début du traitement. En raison de l’interaction entre l’HVG, les cytokines inflammatoires, le SNS et leurs effets sur les protéines de signalisation hypertrophiques, l’objectif de cette étude est de détecter dans un modèle animal d’hypertension artérielle et d’HVG, les différentes voies de signalisation associées à la régression de l’HVG et à la performance cardiaque. Des rats spontanément hypertendus (SHR, 12 semaines) ont reçu de la moxonidine à 0, 100 et 400 µg/kg/h, pour une période de 1 et 4 semaines, via des mini-pompes osmotiques implantées d’une façon sous-cutanée. Après 4 semaines de traitement, la performance cardiaque a été mesurée par écho-doppler. Les rats ont ensuite été euthanasiés, le sang a été recueilli pour mesurer les concentrations des cytokines plasmatiques et les cœurs ont été prélevés pour la détermination histologique du dépôt de collagène et de l'expression des protéines de signalisation dans le ventricule gauche. Le traitement de 4 semaines n’a eu aucun effet sur les paramètres systoliques mais a permis d’améliorer les paramètres diastoliques ainsi que la performance cardiaque globale. Par rapport au véhicule, la moxonidine (400 µg/kg/h) a permis d’augmenter transitoirement la concentration plasmatique de l’IL-1β après une semaine et de réduire la masse ventriculaire gauche. De même, on a observé une diminution du dépôt de collagène et des concentrations plasmatiques des cytokines IL-6 et TNF-α, ainsi qu’une diminution de la phosphorylation de p38 et d’Akt dans le ventricule gauche après 1 et 4 semaines de traitement, et cela avec une réduction de la pression artérielle et de la fréquence cardiaque. Fait intéressant, les effets anti-hypertrophiques, anti-fibrotiques et anti-inflammatoires de la moxonidine ont pu être observés avec la dose sous-hypotensive (100 µg/kg/h). Ces résultats suggèrent des effets cardiovasculaires bénéfiques de la moxonidine associés à une amélioration de la performance cardiaque, une régulation de l'inflammation en diminuant les niveaux plasmatiques des cytokines pro-inflammatoires ainsi qu’en inhibant la MAPK p38 et Akt, et nous permettent de suggérer que, outre l'inhibition du SNS, moxonidine peut agir sur des sites périphériques.
Resumo:
Une multitude de recherches évaluatives ont démontré que les victimes de crime, qu’elles soient victimes d’un crime contre les biens ou contre la personne, apprécient l’approche réparatrice. Cependant, nous sommes toujours à la recherche des facteurs théoriques qui expliqueraient la satisfaction des victimes en ce qui concerne leur expérience avec les interventions réparatrices. La recherche décrite dans cette thèse concerne l’exploration des facteurs contribuant à la satisfaction des victimes de crime avec l’approche réparatrice ainsi que ses liens avec la théorie de justice procédurale. Selon la théorie de justice procédurale, la perception de justice n’est pas uniquement associée à l’appréciation du résultat d’une intervention, mais également à l’appréciation de la procédure, et que la procédure et le résultat peuvent être évalués de façon indépendante. Les procédures qui privilégient la confiance, la neutralité et le respect, ainsi que la participation et la voix des parties sont plus appréciées. Notre objectif de recherche était d’explorer l’analogie entre l’appréciation de la justice réparatrice et le concept de justice procédurale. En outre, nous avons voulu déterminer si la justice réparatrice surpasse, en termes de satisfaction, ceux prévus par la théorie de justice procédurale. Nous avons également examiné la différence dans l’appréciation de l’approche réparatrice selon le moment de l’application, soit avant ou après adjudication pénale. Ainsi, nous avons exploré le rôle d’une décision judiciaire dans l’évaluation de l’approche réparatrice. Pour répondre à nos objectifs de recherche, nous avons consulté des victimes de crime violent au sujet de leur expérience avec l’approche réparatrice. Nous avons mené des entrevues semi-directives avec des victimes de crime violent qui ont participé à une médiation auteur-victime, à une concertation réparatrice en groupe ou aux rencontres détenus-victimes au Canada (N=13) et en Belgique (N=21). Dans cet échantillon, 14 répondants ont participé à une intervention réparatrice avant adjudication judiciaire et 14 après adjudication. Nous avons observé que l’approche réparatrice semble être en analogie avec la théorie de justice procédurale. D’ailleurs, l’approche réparatrice dépasse les prémisses de la justice procédurale en étant flexible, en offrant de l’aide, en se concentrant sur le dialogue et en permettant d’aborder des raisons altruistes. Finalement, le moment de l’application, soit avant ou après adjudication, ne semble pas affecter l’appréciation des interventions réparatrices. Néanmoins, le rôle attribué à l’intervention réparatrice ainsi que l’effet sur l’évaluation du système judiciaire diffèrent selon le moment d’application. Les victimes suggèrent de continuer à développer l’approche réparatrice en tant que complément aux procédures judiciaires, plutôt qu’en tant que mesure alternative. Les témoignages des victimes servent la cause de l’offre réparatrice aux victimes de crime violent. L’offre réparatrice pourrait aussi être élargie aux différentes phases du système judiciaire. Cependant, la préférence pour l’approche réparatrice comme complément aux procédures judiciaires implique la nécessité d’investir également dans la capacité du système judiciaire de répondre aux besoins des victimes, tant sur le plan de la procédure que sur le plan du traitement par les autorités judiciaires.
Resumo:
Des études précédentes ont montré qu’une carence en vitamine E prédispose à la myopathie du poulet de chair. L’effet d’un ajout de vitamine E dans la diète commerciale sur la dégénérescence des fibres musculaires de la poitrine et de la cuisse a été étudié chez les poulets de chair. Des poulets mâles ROSS 308 (n = 1100) ont été assignés de façon aléatoire à deux traitements alimentaires (aliment commercial + 25 à 50 mg de vitamine E surajouté par kg vs aliment commercial + 0 mg de vitamine E supplémentaire). Les poulets ont été répartis sur 10 parquets (cinq répétitions par traitement). Le poids corporel et la consommation d’aliment ont été mesurés hebdomadairement. Aux jours j28, j35, j42 et j49, du sang a été prélevé pour mesurer le niveau de vitamine E et l’activité de la créatine kinase (CK). Les muscles Pectoralis superficialis et Adductor magnus ont été prélevés pour des analyses histologiques aux jours j28, j42 et j49; les fibres dégénérées ont été dénombrées sur chaque muscle prélevé. La concentration plasmatique de vitamine E était plus élevée dans le groupe supplémenté (P = 0.001). L’activité de la CK n’était pas différente dans les deux groupes (P = 0.20) mais très élevée, et n’était pas toujours en relation avec les dommages musculaires, à cause de grandes fluctuations de la CK entre les individus du même groupe. Le nombre de fibres endommagées était plus élevé dans le muscle Pectoralis superficialis (poitrine) que dans le muscle Adductor magnus (cuisse) dans les deux groupes; il y avait aussi moins de fibres dégénérées à j28 dans la poitrine des poulets qui ont reçus la diète supplémentée. Ces résultats suggèrent que l’ajout de vitamine E à la diète conventionnelle augmente le niveau de vitamine E dans le plasma et dans les tissus, diminue le nombre de fibres dégénérées dans la poitrine des jeunes poulets sans pour autant modifier la conversion alimentaire. La mesure de l’activité plasmatique de la CK ne saurait suffire à elle seule pour détecter précocement la myopathie nutritionnelle dans les élevages de poulets de chair.
Resumo:
L’objectif de ce mémoire est d’analyser une praxis, la mienne, au moyen des techniques de la praxéologie, en tentant ainsi de réaffirmer le bien-fondé de mon travail d’auteure au service de la foi. En effet, la rédaction de Saffia, femme de Smyrne, débutée après une quinzaine d’années de vie professionnelle active en tant qu’écrivaine, me laisse croire que ce roman historique et sa présentation sont des outils adaptés pour transmettre l’Évangile. Ma recherche débute par une présentation générale de l’œuvre de fiction Saffia, femme de Smyrne ainsi que des conférences qui en découlent. Je mettrai ensuite en mots l’observation du discours secondaire, composé des appréciations ou des impressions de lecteurs. Mon interprétation ou mon hypothèse surgiront de ma problématisation par la question praxéologique Pourquoi est-ce que je fais ce que je fais et seront formulées au moyen des cinq fonctions d’élaboration. La partie ayant trait à la transmission de l’Évangile sera évaluée par des lectures en théologie, qui mettent en exergue les études d’auteurs : Jean-Guy Nadeau, Pierre Vadeboncœur, et Norbert Greinacher tandis que celle référant aux sciences humaines sera étudiée au moyen des œuvres de spécialistes Gérard Delteil, Régis Debray, Félix Moser et Antoine Compagnon. Soutenue par ces différentes études, je serai en mesure de mieux définir ce que la fiction en général peut apporter à la transmission de l’Évangile en m’appuyant sur l’étude de la fiction en théologie faite par des auteurs comme Paul Ricœur et Joseph Moingt. Je conclurai par une réflexion sur le mode de transmission de Saffia, femme de Smyrne et, je l’espère, par une explication de la raison pour laquelle je continuerai à utiliser la fiction pour transmettre l’Évangile. Une courte nouvelle me permettra d’appliquer mon étude et ainsi d’ouvrir ma réflexion dans une praxis.
Resumo:
La détermination de la structure tertiaire du ribosome fut une étape importante dans la compréhension du mécanisme de la synthèse des protéines. Par contre, l’élucidation de la structure du ribosome comme tel ne permet pas une compréhension de sa fonction. Pour mieux comprendre la nature des relations entre la structure et la fonction du ribosome, sa structure doit être étudiée de manière systématique. Au cours des dernières années, nous avons entrepris une démarche systématique afin d’identifier et de caractériser de nouveaux motifs structuraux qui existent dans la structure du ribosome et d’autres molécules contenant de l’ARN. L’analyse de plusieurs exemples d’empaquetage de deux hélices d’ARN dans la structure du ribosome nous a permis d’identifier un nouveau motif structural, nommé « G-ribo ». Dans ce motif, l’interaction d’une guanosine dans une hélice avec le ribose d’un nucléotide d’une autre hélice donne naissance à un réseau d’interactions complexes entre les nucléotides voisins. Le motif G-ribo est retrouvé à 8 endroits dans la structure du ribosome. La structure du G-ribo possède certaines particularités qui lui permettent de favoriser la formation d’un certain type de pseudo-nœuds dans le ribosome. L’analyse systématique de la structure du ribosome et de la ARNase P a permis d’identifier un autre motif structural, nommé « DTJ » ou « Double-Twist Joint motif ». Ce motif est formé de trois courtes hélices qui s’empilent l’une sur l’autre. Dans la zone de contact entre chaque paire d’hélices, deux paires de bases consécutives sont surenroulées par rapport à deux paires de bases consécutives retrouvées dans l’ARN de forme A. Un nucléotide d’une paire de bases est toujours connecté directement à un nucléotide de la paire de bases surenroulée, tandis que les nucléotides opposés sont connectés par un ou plusieurs nucléotides non appariés. L’introduction d’un surenroulement entre deux paires de bases consécutives brise l’empilement entre les nucléotides et déstabilise l’hélice d’ARN. Dans le motif DTJ, les nucléotides non appariés qui lient les deux paires de bases surenroulées interagissent avec une des trois hélices qui forment le motif, offrant ainsi une stratégie élégante de stabilisation de l’arrangement. Pour déterminer les contraintes de séquences imposées sur la structure tertiaire d’un motif récurrent dans le ribosome, nous avons développé une nouvelle approche expérimentale. Nous avons introduit des librairies combinatoires de certains nucléotides retrouvés dans des motifs particuliers du ribosome. Suite à l’analyse des séquences alternatives sélectionnées in vivo pour différents représentants d’un motif, nous avons été en mesure d’identifier les contraintes responsables de l’intégrité d’un motif et celles responsables d’interactions avec les éléments qui forment le contexte structural du motif. Les résultats présentés dans cette thèse élargissent considérablement notre compréhension des principes de formation de la structure d’ARN et apportent une nouvelle façon d’identifier et de caractériser de nouveaux motifs structuraux d’ARN.
Resumo:
Parmi les critiques visant l'Organisation mondiale du commerce (OMC), il est souvent reproché à celle-ci d’accorder trop peu d’importance aux préoccupations non commerciales des consommateurs et des États, reflet de leurs valeurs sociétales ou culturelles, sous prétexte de lutter contre les entraves au commerce international. Pourtant, dans le domaine du commerce des marchandises, l’article XX du GATT prévoit certaines exceptions générales, permettant éventuellement aux États de justifier une mesure restrictive pour le commerce, notamment pour des raisons de protection de la moralité publique. Or, cette « exception de moralité publique », rarement invoquée à ce jour, est au cœur du différend commercial opposant actuellement le Canada à l’Union européenne, après l’embargo adopté en 2009 par celle-ci sur les produits issus de la chasse au phoque, considérée comme cruelle par de nombreux Européens. Dans ce mémoire, nous avons tenté d’envisager l’issue possible de ce litige. À cette fin, nous avons réalisé une étude préliminaire du concept de moralité publique en droit international public et présenté en détails le contexte, notamment politique, de ce différend; puis nous avons procédé à son analyse par étapes, selon la méthode retenue à ce jour par l’Organe de règlement des différends (ORD). À l’issue de nos réflexions, nous avons conclu que l’ORD devrait constater que la mesure européenne contestée vise à répondre à un réel souci de protection de la moralité publique en Europe; toutefois, il est probable, selon nous, que l’embargo européen ne soit pas considéré comme « nécessaire » à cette fin, au sens de l’article XX du GATT : en effet, l’ORD estimera sans doute que l’Union européenne aurait pu mettre en œuvre des solutions moins incompatibles avec ses obligations au titre du GATT. Nous pensons donc, hélas, que l’issue de ce litige ne satisfera pas ceux qui réclament une plus grande ouverture de l’OMC vis-à-vis de considérations non commerciales légitimes.
Resumo:
La mesure traditionnelle de la criminalité (taux pour 100 000 habitants) pose problème dans l'analyse des variations de la criminalité dans le temps ou l'espace. Le problème est dû au fait que le taux de criminalité est essentiellement déterminé par des infractions moins graves et très fréquentes. La présente étude a permis de tester l’utilité du nouvel outil développé par Statistique Canada qui procure un index de « gravité de la criminalité » dans lequel chaque crime est pondéré par son score de gravité (basé sur les décisions sentencielles moyennes au Canada de 2002 à 2007 pour chaque forme de crime). Appliquées aux statistiques officielles du Québec de 1977 à 2008, nos analyses montrent que l’indice de gravité s’avère une mesure utile pour dresser un portrait plus juste des tendances des crimes violents d’une année à l’autre. Plus exactement, l’indice de gravité montre que le taux de crimes violents est demeuré stable de 1977 à 1992 contrairement à l'image fournie par le taux traditionnel qui montre plutôt une montée fulgurante durant cette période. L’indice de gravité peut également être utile à l’égard des crimes violents pour comparer plus adéquatement les territoires entre eux afin d’établir ceux qui présentent une criminalité plus grave. Cependant, à l’égard de la criminalité globale et des crimes sans violence, l’indice de gravité n’est d’aucune utilité et présente la même lecture de la criminalité que la mesure traditionnelle. Cela s’explique par le fait que ce sont toujours les mêmes infractions (les vols, les méfaits et les introductions par effraction) qui contribuent majoritairement à chacune des deux mesures de la criminalité.