233 resultados para Volatilité intégré


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes de traduction statistique à base de segments traduisent les phrases un segment à la fois, en plusieurs étapes. À chaque étape, ces systèmes ne considèrent que très peu d’informations pour choisir la traduction d’un segment. Les scores du dictionnaire de segments bilingues sont calculés sans égard aux contextes dans lesquels ils sont utilisés et les modèles de langue ne considèrent que les quelques mots entourant le segment traduit.Dans cette thèse, nous proposons un nouveau modèle considérant la phrase en entier lors de la sélection de chaque mot cible. Notre modèle d’intégration du contexte se différentie des précédents par l’utilisation d’un ppc (perceptron à plusieurs couches). Une propriété intéressante des ppc est leur couche cachée, qui propose une représentation alternative à celle offerte par les mots pour encoder les phrases à traduire. Une évaluation superficielle de cette représentation alter- native nous a montré qu’elle est capable de regrouper certaines phrases sources similaires même si elles étaient formulées différemment. Nous avons d’abord comparé avantageusement les prédictions de nos ppc à celles d’ibm1, un modèle couramment utilisé en traduction. Nous avons ensuite intégré nos ppc à notre système de traduction statistique de l’anglais vers le français. Nos ppc ont amélioré les traductions de notre système de base et d’un deuxième système de référence auquel était intégré IBM1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’intégration du génome du virus papilloma humain (VPH) a été reconnu jusqu’`a récemment comme étant un événnement fréquent mais pourtant tardif dans la progression de la maladie du col de l’utérus. La perspective temporelle vient, pourtant, d’être mise au défi par la détection de formes intégrées de VPH dans les tissus normaux et dans les lésions prénéoplasiques. Notre objectif était de déterminer la charge virale de VPH-16 et son état physique dans une série de 220 échantillons provenant de cols uterins normaux et avec des lésions de bas-grade. La technique quantitative de PCR en temps réel, méthode Taqman, nous a permis de quantifier le nombre de copies des gènes E6, E2, et de la B-globine, permettant ainsi l’évaluation de la charge virale et le ratio de E6/E2 pour chaque spécimen. Le ratio E6/E2 de 1.2 ou plus était suggestif d’intégration. Par la suite, le site d’intégration du VPH dans le génome humain a été déterminé par la téchnique de RS-PCR. La charge virale moyenne était de 57.5±324.6 copies d'ADN par cellule et le ratio E6/E2 a évalué neuf échantillons avec des formes d’HPV intégrées. Ces intégrants ont été amplifiés par RS-PCR, suivi de séquençage, et l’homologie des amplicons a été déterminée par le programme BLAST de NCBI afin d’identifier les jonctions virales-humaines. On a réussi `a identifier les jonctions humaines-virales pour le contrôle positif, c'est-à-dire les cellules SiHa, pourtant nous n’avons pas detecté d’intégration par la technique de RS-PCR dans les échantillons de cellules cervicales exfoliées provenant de tissus normaux et de lésions de bas-grade. Le VPH-16 est rarement intégré dans les spécimens de jeunes patientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire analyse la réception de l’auteur autrichien Thomas Bernhard (1931-1989) au regard des scandales qui ont marqué sa carrière. Tantôt identifié comme l’imprécateur de l’Autriche, tantôt comme écrivain exceptionnel, il aura remis en question le rôle de son pays dans le national-socialisme et multiplié les attaques ad hominem. Il aura tenu un rôle ambigu dans l’espace public. Tout en insistant sur le caractère fictif de ses œuvres, il se mettait en scène de façon provocatrice dans le discours public ainsi que dans sa fiction. Ce mémoire s’intéresse au fonctionnement du scandale en tant qu’événement social complexe ayant lieu dans l’espace public. Les chercheurs s’entendent pour considérer le scandale comme un trouble ou une irritation résultant d’une transgression, apparente ou avérée. Il s’agit en outre d’un phénomène intégré dans l’ordre social et géré par les médias, caractérisé par l’actualisation des valeurs morales. Dans la présente étude, il est postulé que le capital symbolique (cf. Bourdieu) joue un rôle d’a priori et de catalyseur dans les scandales. Une accumulation initiale de capital symbolique assure une visibilité médiatique automatique. Le capital d’identité de Thomas Bernhard – soit la personnalisation du capital symbolique – est hybride et complexe, de sorte qu’il est difficilement appréciable. La difficile appréciation du capital de l’auteur se traduit par l’incertitude des journalistes et du public quant à son message : réactions dispro-portionnées, critique du particulier perçue comme mise en cause de l’universel. Toute dé-claration, toute œuvre de Bernhard est assujettie à ses prestations « scandaleuses » antérieu-res. Ce mémoire insiste sur le caractère autoréférentiel du scandale et s’intéresse aux actes de langage performatifs (cf. John L. Austin). Le corpus comporte des romans de Bernhard, leurs recensions, des articles de quotidiens, des lettres de lecteurs, des documents juridiques ainsi que la correspondance entre Bernhard et Siegfried Unseld.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette mémoire a pour objectif de mettre en évidence le délaissement dont a souffert et souffre encore dans l’actualité l’enseignement de la prononciation dans les cours d’espagnol comme langue étrangère (ELE), réaffirmer son importance et défendre la nécessité de son intégration dans les salles de classe. C’est un fait qu’avec l’actuelle approche communicative et « par devoirs », les étudiants acquièrent des connaissances supérieures en langue écrite et des résultats peu satisfaisants dans la prononciation. D’autre part, les enseignants ne comptent pas sur des méthodes d’intégration de la prononciation de ces approches, et la carence de matériels se fait plus qu’évidente. Les conceptions curriculaires actuelles n’ont pas intégré de forme naturelle l’enseignement de la prononciation dans ses exposés méthodologiques. La sélection et analyse de certains des manuels d’enseignement d’ELE, avec ce dont on travaille actuellement dans la province du Québec, confirme ces carences. Dans la dernière partie du travail on présente une sélection d’exercices que l’on considère utiles pour l’enseignement et le développement de la prononciation, incluant les éléments suprasegmentaires, d’une façon ludique, dans un contexte réel et communicatif et de manière intégrée. Une didactique de l’enseignement qui prête attention au système formel de la langue, la grammaire et le lexique, peut aussi contempler l’enseignement de la prononciation depuis la même perspective. L’important c’est qu’elle soit intégrée comme une phase supplémentaire du processus d’apprentissage, et cesse d’être une matière à repasser dans les curriculums.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Corrector sive Medicus est un pénitentiel rédigé par Burchard, évêque de Worms (1000-1025). Il s’agit d’un manuel destiné à guider les confesseurs lors de l’administration du sacrement de pénitence. Intégré dans le Decretum, l’œuvre majeure de Burchard, il compte parmis les pénitentiels les plus illustres. Il contient notamment un questionnaire très élaboré sur les péchés commis par les fidèles. Les 194 questions du Corrector sive Medicus constituent l’objet d’étude de ce mémoire. Entre le VIIe et le XIIe siècle, les pénitentiels forment une longue tradition littéraire où les textes se répètent constamment. Le questionnaire du Corrector sive Medicus se distingue du fait qu’il est rédigé en grande partie par Burchard lui-même. Les détails précis sur les survivances païennes et la religion populaire que l’évêque introduit dans son pénitentiel permettent, comme aucune autre source de la période, une analyse ethno-historique de la culture germanique. La première partie du mémoire est consacrée à la présentation du Corrector sive Medicus : j’y décris d’abord le contexte historique et biographique de l’œuvre, puis discute d’une herméneutique littéraire, pour enfin proposer une synthèse diachronique des traditions germaniques. La deuxième partie offre, pour la première fois en français, la traduction intégrale du questionnaire de Burchard, accompagnée de commentaires sur différents sujets ou problèmes soulevés par le texte, notamment ceux qui concernent la culture germanique. Finalement sont placés en annexe quelques documents qui témoignent, tout comme le Corrector sive Medicus, d’un syncrétisme religieux profondément enraciné dans les mœurs des Germains.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’immunité adaptive et la discrimination entre le soi et le non-soi chez les vertébrés à mâchoire reposent sur la présentation de peptides par les récepteurs d’histocompatibilité majeur de classe I. Les peptides antigéniques, présentés par les molécules du complexe d’histocompatibilité (CMH), sont scrutés par les lymphocytes T CD8 pour une réponse immunitaire appropriée. Le répertoire des peptides du CMH de classe I, aussi appelé immunopeptidome, est généré par la dégradation protéosomale des protéines endogènes, et a un rôle essentiel dans la régulation de l’immunité cellulaire. La composition de l’immunopeptidome dépend du type de cellule et peut présenter des caractéristiques liées à des maladies comme le cancer. Les peptides antigéniques peuvent être utilisés à des fins immunothérapeutiques notamment dans le traitement voire la prévention de certains cancers. La spectrométrie de masse est un outil de choix pour l’identification, le séquençage et la caractérisation de ces peptides. Cependant, la composition en acides aminés, la faible abondance et la diversité de ces peptides compliquent leur détection et leur séquençage. Nous avons développé un programme appelé StatPeaks qui permet de calculer un certains nombres de statistiques relatives à la fragmentation des peptides. À l’aide de ce programme, nous montrons sans équivoque que les peptides du CMH classe I, en mode de fragmentation par dissociation induite par collision (CID), fragmentent très différemment des peptides trypsiques communément utilisés en protéomique. Néanmoins, la fragmentation par décomposition induite par collision à plus haute énergie (HCD) proposée par le spectromètre LTQ-Orbitrap Velos améliore la fragmentation et fournit une haute résolution qui permet d’obtenir une meilleure confiance dans l’identification des peptides du CMH de classe I. Cet avantage permet d’effectuer le séquençage de novo pour identifier les variants polymorphes qui ne sont normalement pas identifiés par les recherches utilisant des bases de données. La comparaison des programmes de séquençage Lutefisk, pepNovo, pNovo, Vonode et Peaks met en évidence que le dernier permet d’identifier un plus grand nombre de peptides du CMH de classe I. Ce programme est intégré dans une chaîne de traitement de recherche d’antigènes mineurs d’histocompatibilité. Enfin, une base de données contenant les informations spectrales de plusieurs centaines de peptides du CMH de classe I accessible par Internet a été développée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : En République de Guinée, depuis 1984, l’ensemble des structures de soins ont intégré le programme de Soins de santé primaires et Médicaments Essentiels (PEV/SSP/ME). Pour la réalisation de ce programme, d’importants efforts et des sommes des millions de dollars ont été investis, mais les indicateurs de santé du pays sont toujours des plus alarmants du monde (EDS- 2005). Objectif : Evaluer la performance des structures de soins de santé primaires (SSP) d’un district sanitaire guinéen à partir des documents administratifs suivi d’une enquête sur la satisfaction des prestataires et des bénéficiaires et des parties prenantes du district. Méthodologie : Il s’agit d’une étude descriptive de cas touchant 10 des 18 structures de soins de santé primaires du district sanitaire de Labé. Elle porte sur une analyse quantitative de résultats de 10 contrôles semestriels (2004-2009) et sur une analyse qualitative composée d’entretiens menés auprès de 308 bénéficiaires et de quelques membres des Comités de gestion des structures pour apprécier le niveau de performance des structures ciblées. Résultats : Toutes les structures publiques du district sanitaire sous étude étaient intégrées1. Malgré cela, la tendance moyenne des consultations affiche une allure sinusoïdale (fluctuante). Bien que la disponibilité, l’accessibilité, l’utilisation et la couverture adéquate et effective des services de Consultation Primaire Curative (CPC) et de Planification Familiale (PF) n’ont pas connu d’amélioration durant la période de 2004 à 2009. La tendance moyenne de la Consultation prénatale (CPN) et celle de la Vaccination (VA) se sont améliorées au cours de la période d’étude. Les prestataires de services SSP déclarent être assez satisfaits de leur formation mais ne le sont pas pour leur condition de travail surtout ceux du milieu rural (faible rémunération, environnement difficile), qualité moindre de la supervision et ruptures fréquentes de stock en médicaments essentiels. Pour les bénéficiaires, leur satisfaction se limite au respect de leurs valeurs culturelles et de leur interaction avec les prestataires de soins. Cependant, ils déplorent le long temps d’attente, la mauvaise qualité de l’accueil, les coûts élevés des prestations et le manque d’équité qui sont des facteurs qualifiés comme des éléments de contreperformance des structures. Pour les autorités et des parties prenantes, la rupture des stocks en médicaments essentiels, le manque d’équipements et la faible motivation des prestataires sont les facteurs majeurs qui entravent la performance des structures sanitaires, surtout en milieu rural. Conclusion : Malgré l’intégration du programme des SSP dans les structures de SSP du district sanitaire de Labé, on note encore une insuffisance de leur utilisation, la faiblesse de la couverture, le manque de suivi et supervision des structures Une étude actualisée et plus étendue pourrait mieux cerner le sujet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous examinons le fichage de la délinquance sexuelle dont les divers régimes juridiques reposent sur l’idée que ces contrevenants présentent un risque réel de récidive criminelle. Les données scientifiques sur la délinquance sexuelle relativisent ce risque et attestent qu’il est quasi absent dans un très grand nombre de cas. Il existe donc une dichotomie entre les prémisses du droit et les connaissances issues des sciences sociales et humaines sur cette question. Le fichage de cette délinquance au Canada donne lieu à des mécanismes administratifs provinciaux en plus d’un régime fédéral contenu au Code criminel. Nous émettons l’hypothèse que le fichage provincial emporte de véritables conséquences pénales sur les délinquants sexuels, affectent leurs droits en vertu de l’article 7 de la Charte et contrecarre des principes de justice fondamentale. Ensuite, nous examinons le régime fédéral intégré au Code criminel et nous argumentons que ce mécanisme juridique crée une mesure punitive de la nature d’une peine. Par conséquent, le fichage fédéral devrait être aménagé de façon à satisfaire aux garanties constitutionnelles propres à la peine et aux principes généraux de la détermination de la peine en vertu de la Partie XXIII du Code criminel. Nous concluons que les législateurs successifs ont créé des régimes juridiques régissant le fichage de la délinquance sexuelle en écartant les principes fondamentaux administratifs, criminels et constitutionnels qui devraient présider à l’élaboration des règles concernant ce stigmate de la criminalité. Les tribunaux, par leur interprétation, ont également déqualifié cette stigmatisation de la criminalité sexuelle à titre de peine. Le droit relatif au fichage de la délinquance sexuelle donne donc lieu à une érosion des principes fondamentaux de la justice criminelle et punitive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUCTION : Le raisonnement clinique est au coeur de l’exercice professionnel. Cependant, nous manquons d'instruments pour identifier et objectiver les difficultés de raisonnement clinique, et il existe relativement peu de descriptions de méthodes de remédiation définies. Un important travail reste donc à faire, pour mieux comprendre comment les difficultés se manifestent dans le raisonnement clinique des étudiants en formation, mais également pour rendre ces concepts plus accessibles aux enseignants; ceci permettra alors d’améliorer la qualité de la démarche d’identification des difficultés, et d’envisager des remédiations ciblées et efficaces. OBJECTIFS : Cette recherche s’articule d’une part, autour de l’objectivation et la compréhension des pratiques actuelles des cliniciens enseignants en médecine, d’autre part, autour de la construction et l’implantation d’outils et de processus susceptibles de faciliter la démarche de diagnostic et de remédiation des difficultés de raisonnement clinique. MÉTHODOLOGIE : Une recherche de type qualitative, utilisant les méthodes de la recherche action participative s’est révélée pertinente pour atteindre nos objectifs. La recherche est composée de quatre étapes : 1. Une étude exploratoire. 2. La construction et de l’implantation d’un premier outil dans trois milieux cliniques en médecine familiale. 3. L’élaboration d’une taxonomie des difficultés de raisonnement clinique ainsi que la construction d’un nouvel outil. 4. Le développement d’une approche globale pour soutenir et former les cliniciens enseignants. RÉSULTATS : Les enseignants ont une perception rapide, mais qui demeure globale et intuitive, des potentielles difficultés de raisonnement clinique des résidents. Cette perception ne se traduit pas forcément en termes pédagogiques. Nous avons pu observer l’absence de processus pédagogiques organisés et structurés pour la gestion de ces difficultés. Ceci semble projeter les cliniciens enseignants dans une zone d’inconfort, en les confrontant à un manque de maîtrise et à l’incertitude au sujet de leurs actions pédagogiques. La catégorisation des difficultés de raisonnement clinique que nous avons construite permet d’identifier les difficultés telles qu’elles se manifestent dans le quotidien des supervisions cliniques. Cet outil a cependant besoin d’être intégré dans un processus plus global. CONCLUSION : Une approche globale qui comprenne le développement de processus implantés par le Département, l’implantation d’outils, la vulgarisation de la théorie, et la formation des enseignants est déterminante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thérapie génique, qui consiste à modifier le génome d'un individu, est la progression logique de l'application de la recherche fondamentale à la médecine. Au moment où l'on célèbre le décryptage du génome humain, surgissent les premières guérisons par la thérapie génique qui soulèvent l'espoir d'un traitement par la génétique pour des maladies jusqu'ici incurables. Paradoxalement, est survenu au même moment le décès d'un adolescent au cours d'un essai clinique de thérapie génique aux Etats-Unis démontrant les risques sérieux de la thérapie génique et notre manque de connaissances scientifiques. À la lumière de ces derniers épisodes, il est important de réévaluer l'encadrement normatif des essais cliniques de la thérapie génique au Canada. Nous devons nous demander si la thérapie génique, hautement expérimentale, diffère d'un point de vue juridique, des autres types de recherche biomédicale. Une analyse comparative de différents modèles normatifs encadrant la thérapie génique permet de faire ressortir les avantages et les inconvénients de chacun. Le modèle québécois a intégré simplement la thérapie génique aux régimes normatifs préexistants (celui de l'expérimentation et celui des drogues). Le modèle français se distingue par l'insertion d'un régime d'exception dans le Code de la santé publique et le Code civil pour encadrer de façon spécifique la thérapie génique. Le Royaume-Uni offre un modèle intéressant d'auto-régulation alors que les États-Unis ont des normes spécifiques malheureusement restreintes aux recherches financées par les fonds publics. Il subsiste plusieurs lacunes dans l'encadrement canadien et québécois. Afin de l'améliorer, le Canada et le Québec devraient notamment se pencher sur la création d'une autorité nationale spécialisée et de normes spécifiques à la thérapie génique, l'implantation d'une évaluation structurée des risques de dissémination d'OGMs et l'établissement d'un suivi à long terme des participants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La collaboration constitue une stratégie efficace pour aider les organisations et les individus à évoluer dans des environnements dynamiques et complexes, et génère de nombreux avantages cognitifs, affectifs et pécuniaires. De plus en plus, les équipes de travail sont impliquées dans des collaborations complexes, lesquelles requièrent de transiger à travers les frontières nationales, organisationnelles et disciplinaires. Bien que les collaborations complexes soient de plus en plus courantes en milieux organisationnels et étudiées par les scientifiques, peu d’études empiriques ont été réalisées sur le sujet et la documentation inhérente est disséminée dans divers silos parallèles de connaissances, donnant lieu à des modèles conceptuels divergents et incomplets. L’importance croissante de ces formes de collaboration crée l’impératif scientifique et pratique d’en acquérir une meilleure compréhension ainsi que d’identifier et d’évaluer les conditions et les facteurs qui favorisent leur succès et leur efficacité. Cette thèse vise à combler les lacunes susmentionnées et permettre un avancement des connaissances sur le sujet par l’entremise de deux articles répondant à divers objectifs de recherche. Le premier article avance une définition claire des collaborations complexes, en vue de réduire la confusion entourant ce construit. Il présente également la première revue de documentation sur les facteurs favorisant le succès des collaborations complexes, unifiant les résultats issus de divers contextes et disciplines scientifiques. Cette démarche a permis d’identifier 14 variables clés provenant de 26 études empiriques. À partir de ces données, un modèle conceptuel fondé sur des assises théoriques solides et reconnues en psychologie du travail et des organisations est proposé, offrant ainsi un canevas systémique et dynamique du phénomène ainsi qu’une orientation détaillée des pistes de recherches pertinentes. Le deuxième article part des résultats obtenus dans le premier article afin d’évaluer empiriquement les relations entre certains facteurs clés ayant un impact sur des extrants importants de collaborations complexes. L’étude multiphasique est réalisée auprès de 16 équipes de projets (N=93) interdisciplinaires et interorganisationnelles prenant part à des sessions de travail intensives visant la production de concepts novateurs en design intégré lié au développement durable. Les analyses corrélationnelles montrent des liens positifs entre l’ouverture à la diversité, les processus collaboratifs, la viabilité, la performance d’équipe et la performance de projet, ainsi que des liens négatifs entre les conflits et ces mêmes extrants. De plus, les analyses de médiation multiple révèlent qu’une plus grande ouverture à la diversité influence positivement la viabilité, la performance d’équipe et la performance de projet en favorisant les processus collaboratifs efficaces et en réduisant les conflits. Les implications théoriques et pratiques découlant de ces résultats sont discutées.