195 resultados para Volatilité intégré


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Corrector sive Medicus est un pénitentiel rédigé par Burchard, évêque de Worms (1000-1025). Il s’agit d’un manuel destiné à guider les confesseurs lors de l’administration du sacrement de pénitence. Intégré dans le Decretum, l’œuvre majeure de Burchard, il compte parmis les pénitentiels les plus illustres. Il contient notamment un questionnaire très élaboré sur les péchés commis par les fidèles. Les 194 questions du Corrector sive Medicus constituent l’objet d’étude de ce mémoire. Entre le VIIe et le XIIe siècle, les pénitentiels forment une longue tradition littéraire où les textes se répètent constamment. Le questionnaire du Corrector sive Medicus se distingue du fait qu’il est rédigé en grande partie par Burchard lui-même. Les détails précis sur les survivances païennes et la religion populaire que l’évêque introduit dans son pénitentiel permettent, comme aucune autre source de la période, une analyse ethno-historique de la culture germanique. La première partie du mémoire est consacrée à la présentation du Corrector sive Medicus : j’y décris d’abord le contexte historique et biographique de l’œuvre, puis discute d’une herméneutique littéraire, pour enfin proposer une synthèse diachronique des traditions germaniques. La deuxième partie offre, pour la première fois en français, la traduction intégrale du questionnaire de Burchard, accompagnée de commentaires sur différents sujets ou problèmes soulevés par le texte, notamment ceux qui concernent la culture germanique. Finalement sont placés en annexe quelques documents qui témoignent, tout comme le Corrector sive Medicus, d’un syncrétisme religieux profondément enraciné dans les mœurs des Germains.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’immunité adaptive et la discrimination entre le soi et le non-soi chez les vertébrés à mâchoire reposent sur la présentation de peptides par les récepteurs d’histocompatibilité majeur de classe I. Les peptides antigéniques, présentés par les molécules du complexe d’histocompatibilité (CMH), sont scrutés par les lymphocytes T CD8 pour une réponse immunitaire appropriée. Le répertoire des peptides du CMH de classe I, aussi appelé immunopeptidome, est généré par la dégradation protéosomale des protéines endogènes, et a un rôle essentiel dans la régulation de l’immunité cellulaire. La composition de l’immunopeptidome dépend du type de cellule et peut présenter des caractéristiques liées à des maladies comme le cancer. Les peptides antigéniques peuvent être utilisés à des fins immunothérapeutiques notamment dans le traitement voire la prévention de certains cancers. La spectrométrie de masse est un outil de choix pour l’identification, le séquençage et la caractérisation de ces peptides. Cependant, la composition en acides aminés, la faible abondance et la diversité de ces peptides compliquent leur détection et leur séquençage. Nous avons développé un programme appelé StatPeaks qui permet de calculer un certains nombres de statistiques relatives à la fragmentation des peptides. À l’aide de ce programme, nous montrons sans équivoque que les peptides du CMH classe I, en mode de fragmentation par dissociation induite par collision (CID), fragmentent très différemment des peptides trypsiques communément utilisés en protéomique. Néanmoins, la fragmentation par décomposition induite par collision à plus haute énergie (HCD) proposée par le spectromètre LTQ-Orbitrap Velos améliore la fragmentation et fournit une haute résolution qui permet d’obtenir une meilleure confiance dans l’identification des peptides du CMH de classe I. Cet avantage permet d’effectuer le séquençage de novo pour identifier les variants polymorphes qui ne sont normalement pas identifiés par les recherches utilisant des bases de données. La comparaison des programmes de séquençage Lutefisk, pepNovo, pNovo, Vonode et Peaks met en évidence que le dernier permet d’identifier un plus grand nombre de peptides du CMH de classe I. Ce programme est intégré dans une chaîne de traitement de recherche d’antigènes mineurs d’histocompatibilité. Enfin, une base de données contenant les informations spectrales de plusieurs centaines de peptides du CMH de classe I accessible par Internet a été développée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : En République de Guinée, depuis 1984, l’ensemble des structures de soins ont intégré le programme de Soins de santé primaires et Médicaments Essentiels (PEV/SSP/ME). Pour la réalisation de ce programme, d’importants efforts et des sommes des millions de dollars ont été investis, mais les indicateurs de santé du pays sont toujours des plus alarmants du monde (EDS- 2005). Objectif : Evaluer la performance des structures de soins de santé primaires (SSP) d’un district sanitaire guinéen à partir des documents administratifs suivi d’une enquête sur la satisfaction des prestataires et des bénéficiaires et des parties prenantes du district. Méthodologie : Il s’agit d’une étude descriptive de cas touchant 10 des 18 structures de soins de santé primaires du district sanitaire de Labé. Elle porte sur une analyse quantitative de résultats de 10 contrôles semestriels (2004-2009) et sur une analyse qualitative composée d’entretiens menés auprès de 308 bénéficiaires et de quelques membres des Comités de gestion des structures pour apprécier le niveau de performance des structures ciblées. Résultats : Toutes les structures publiques du district sanitaire sous étude étaient intégrées1. Malgré cela, la tendance moyenne des consultations affiche une allure sinusoïdale (fluctuante). Bien que la disponibilité, l’accessibilité, l’utilisation et la couverture adéquate et effective des services de Consultation Primaire Curative (CPC) et de Planification Familiale (PF) n’ont pas connu d’amélioration durant la période de 2004 à 2009. La tendance moyenne de la Consultation prénatale (CPN) et celle de la Vaccination (VA) se sont améliorées au cours de la période d’étude. Les prestataires de services SSP déclarent être assez satisfaits de leur formation mais ne le sont pas pour leur condition de travail surtout ceux du milieu rural (faible rémunération, environnement difficile), qualité moindre de la supervision et ruptures fréquentes de stock en médicaments essentiels. Pour les bénéficiaires, leur satisfaction se limite au respect de leurs valeurs culturelles et de leur interaction avec les prestataires de soins. Cependant, ils déplorent le long temps d’attente, la mauvaise qualité de l’accueil, les coûts élevés des prestations et le manque d’équité qui sont des facteurs qualifiés comme des éléments de contreperformance des structures. Pour les autorités et des parties prenantes, la rupture des stocks en médicaments essentiels, le manque d’équipements et la faible motivation des prestataires sont les facteurs majeurs qui entravent la performance des structures sanitaires, surtout en milieu rural. Conclusion : Malgré l’intégration du programme des SSP dans les structures de SSP du district sanitaire de Labé, on note encore une insuffisance de leur utilisation, la faiblesse de la couverture, le manque de suivi et supervision des structures Une étude actualisée et plus étendue pourrait mieux cerner le sujet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous examinons le fichage de la délinquance sexuelle dont les divers régimes juridiques reposent sur l’idée que ces contrevenants présentent un risque réel de récidive criminelle. Les données scientifiques sur la délinquance sexuelle relativisent ce risque et attestent qu’il est quasi absent dans un très grand nombre de cas. Il existe donc une dichotomie entre les prémisses du droit et les connaissances issues des sciences sociales et humaines sur cette question. Le fichage de cette délinquance au Canada donne lieu à des mécanismes administratifs provinciaux en plus d’un régime fédéral contenu au Code criminel. Nous émettons l’hypothèse que le fichage provincial emporte de véritables conséquences pénales sur les délinquants sexuels, affectent leurs droits en vertu de l’article 7 de la Charte et contrecarre des principes de justice fondamentale. Ensuite, nous examinons le régime fédéral intégré au Code criminel et nous argumentons que ce mécanisme juridique crée une mesure punitive de la nature d’une peine. Par conséquent, le fichage fédéral devrait être aménagé de façon à satisfaire aux garanties constitutionnelles propres à la peine et aux principes généraux de la détermination de la peine en vertu de la Partie XXIII du Code criminel. Nous concluons que les législateurs successifs ont créé des régimes juridiques régissant le fichage de la délinquance sexuelle en écartant les principes fondamentaux administratifs, criminels et constitutionnels qui devraient présider à l’élaboration des règles concernant ce stigmate de la criminalité. Les tribunaux, par leur interprétation, ont également déqualifié cette stigmatisation de la criminalité sexuelle à titre de peine. Le droit relatif au fichage de la délinquance sexuelle donne donc lieu à une érosion des principes fondamentaux de la justice criminelle et punitive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUCTION : Le raisonnement clinique est au coeur de l’exercice professionnel. Cependant, nous manquons d'instruments pour identifier et objectiver les difficultés de raisonnement clinique, et il existe relativement peu de descriptions de méthodes de remédiation définies. Un important travail reste donc à faire, pour mieux comprendre comment les difficultés se manifestent dans le raisonnement clinique des étudiants en formation, mais également pour rendre ces concepts plus accessibles aux enseignants; ceci permettra alors d’améliorer la qualité de la démarche d’identification des difficultés, et d’envisager des remédiations ciblées et efficaces. OBJECTIFS : Cette recherche s’articule d’une part, autour de l’objectivation et la compréhension des pratiques actuelles des cliniciens enseignants en médecine, d’autre part, autour de la construction et l’implantation d’outils et de processus susceptibles de faciliter la démarche de diagnostic et de remédiation des difficultés de raisonnement clinique. MÉTHODOLOGIE : Une recherche de type qualitative, utilisant les méthodes de la recherche action participative s’est révélée pertinente pour atteindre nos objectifs. La recherche est composée de quatre étapes : 1. Une étude exploratoire. 2. La construction et de l’implantation d’un premier outil dans trois milieux cliniques en médecine familiale. 3. L’élaboration d’une taxonomie des difficultés de raisonnement clinique ainsi que la construction d’un nouvel outil. 4. Le développement d’une approche globale pour soutenir et former les cliniciens enseignants. RÉSULTATS : Les enseignants ont une perception rapide, mais qui demeure globale et intuitive, des potentielles difficultés de raisonnement clinique des résidents. Cette perception ne se traduit pas forcément en termes pédagogiques. Nous avons pu observer l’absence de processus pédagogiques organisés et structurés pour la gestion de ces difficultés. Ceci semble projeter les cliniciens enseignants dans une zone d’inconfort, en les confrontant à un manque de maîtrise et à l’incertitude au sujet de leurs actions pédagogiques. La catégorisation des difficultés de raisonnement clinique que nous avons construite permet d’identifier les difficultés telles qu’elles se manifestent dans le quotidien des supervisions cliniques. Cet outil a cependant besoin d’être intégré dans un processus plus global. CONCLUSION : Une approche globale qui comprenne le développement de processus implantés par le Département, l’implantation d’outils, la vulgarisation de la théorie, et la formation des enseignants est déterminante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thérapie génique, qui consiste à modifier le génome d'un individu, est la progression logique de l'application de la recherche fondamentale à la médecine. Au moment où l'on célèbre le décryptage du génome humain, surgissent les premières guérisons par la thérapie génique qui soulèvent l'espoir d'un traitement par la génétique pour des maladies jusqu'ici incurables. Paradoxalement, est survenu au même moment le décès d'un adolescent au cours d'un essai clinique de thérapie génique aux Etats-Unis démontrant les risques sérieux de la thérapie génique et notre manque de connaissances scientifiques. À la lumière de ces derniers épisodes, il est important de réévaluer l'encadrement normatif des essais cliniques de la thérapie génique au Canada. Nous devons nous demander si la thérapie génique, hautement expérimentale, diffère d'un point de vue juridique, des autres types de recherche biomédicale. Une analyse comparative de différents modèles normatifs encadrant la thérapie génique permet de faire ressortir les avantages et les inconvénients de chacun. Le modèle québécois a intégré simplement la thérapie génique aux régimes normatifs préexistants (celui de l'expérimentation et celui des drogues). Le modèle français se distingue par l'insertion d'un régime d'exception dans le Code de la santé publique et le Code civil pour encadrer de façon spécifique la thérapie génique. Le Royaume-Uni offre un modèle intéressant d'auto-régulation alors que les États-Unis ont des normes spécifiques malheureusement restreintes aux recherches financées par les fonds publics. Il subsiste plusieurs lacunes dans l'encadrement canadien et québécois. Afin de l'améliorer, le Canada et le Québec devraient notamment se pencher sur la création d'une autorité nationale spécialisée et de normes spécifiques à la thérapie génique, l'implantation d'une évaluation structurée des risques de dissémination d'OGMs et l'établissement d'un suivi à long terme des participants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La collaboration constitue une stratégie efficace pour aider les organisations et les individus à évoluer dans des environnements dynamiques et complexes, et génère de nombreux avantages cognitifs, affectifs et pécuniaires. De plus en plus, les équipes de travail sont impliquées dans des collaborations complexes, lesquelles requièrent de transiger à travers les frontières nationales, organisationnelles et disciplinaires. Bien que les collaborations complexes soient de plus en plus courantes en milieux organisationnels et étudiées par les scientifiques, peu d’études empiriques ont été réalisées sur le sujet et la documentation inhérente est disséminée dans divers silos parallèles de connaissances, donnant lieu à des modèles conceptuels divergents et incomplets. L’importance croissante de ces formes de collaboration crée l’impératif scientifique et pratique d’en acquérir une meilleure compréhension ainsi que d’identifier et d’évaluer les conditions et les facteurs qui favorisent leur succès et leur efficacité. Cette thèse vise à combler les lacunes susmentionnées et permettre un avancement des connaissances sur le sujet par l’entremise de deux articles répondant à divers objectifs de recherche. Le premier article avance une définition claire des collaborations complexes, en vue de réduire la confusion entourant ce construit. Il présente également la première revue de documentation sur les facteurs favorisant le succès des collaborations complexes, unifiant les résultats issus de divers contextes et disciplines scientifiques. Cette démarche a permis d’identifier 14 variables clés provenant de 26 études empiriques. À partir de ces données, un modèle conceptuel fondé sur des assises théoriques solides et reconnues en psychologie du travail et des organisations est proposé, offrant ainsi un canevas systémique et dynamique du phénomène ainsi qu’une orientation détaillée des pistes de recherches pertinentes. Le deuxième article part des résultats obtenus dans le premier article afin d’évaluer empiriquement les relations entre certains facteurs clés ayant un impact sur des extrants importants de collaborations complexes. L’étude multiphasique est réalisée auprès de 16 équipes de projets (N=93) interdisciplinaires et interorganisationnelles prenant part à des sessions de travail intensives visant la production de concepts novateurs en design intégré lié au développement durable. Les analyses corrélationnelles montrent des liens positifs entre l’ouverture à la diversité, les processus collaboratifs, la viabilité, la performance d’équipe et la performance de projet, ainsi que des liens négatifs entre les conflits et ces mêmes extrants. De plus, les analyses de médiation multiple révèlent qu’une plus grande ouverture à la diversité influence positivement la viabilité, la performance d’équipe et la performance de projet en favorisant les processus collaboratifs efficaces et en réduisant les conflits. Les implications théoriques et pratiques découlant de ces résultats sont discutées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec une mondialisation omniprésente, les études sur l’aspect interculturel des organisations deviennent de plus en plus d’actualité et fascinent les chercheurs comme les praticiens. Notre étude suit donc cette voie et porte sur la construction du sens de l’expérience interculturelle au sein d’une entreprise multinationale. Nous avons cherché à comprendre, d’un point de vue interprétatif, comment les acteurs construisent le sens des caractères multinationaux et interculturels de l’entreprise, à travers leurs expériences au sein d’une multinationale québécoise. La recherche existante discute les aspects culturels et communicatifs tels que le contexte, la langue et le flux de message, identifiés par E.T. Hall (Hall, 1976, 1990) comme centraux dans la problématique générale de la communication interculturelle. Nous avons cependant abordé ces mêmes aspects depuis la perspective de la théorie du sensemaking (Weick, 1995) en nous centrant sur les points de vue des acteurs et de leurs expériences. Sur la base d’entrevues en profondeur, la recherche montre que, bien qu’il soit fortement valorisé par tous les interviewés, l’aspect interculturel n’a pas été profondément intégré dans les pratiques communicatives de tous les jours, comme nous aurions pu le croire. Néanmoins, cet aspect exerce une influence réelle et considérable pour certains employés, comme les gestionnaires des ressources humaines et des relations publiques, due essentiellement à la nature même de leurs fonctions. Les résultats suggèrent également que l’aspect interculturel est vécu de manière fort différente selon l’identité qui est attachée à l’organisation. Cette dernière est en effet parfois considérée comme (1) une organisation « locale », c’est-à-dire en référence à son origine québécoise, comme (2) une organisation multinationale, en référence aux interactions entre les parties de l’organisation dispersées dans le monde entier, et enfin (3) comme une firme étrangère du point de vue des acteurs des pays hôtes. Dans les trois cas les enjeux interculturels pour les acteurs varient considérablement tout comme, en conséquence, le sens qui est accordé à cet aspect de l’organisation. Mots-clés : Expérience interculturelle, organisation multinationale, théorie du sensemaking, communication interculturelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Les pressions sont fortes envers les professionnels de la santé pour qu’ils appliquent une pratique factuelle. Toutefois, un écart important demeure entre les résultats des recherches et la réalité clinique. Par son aspect interactif, le Web 2.0 peut contribuer à l’application des données probantes en facilitant l’accès et l’échange de connaissances. Objectif : Ce projet de recherche s’inscrit dans une étude visant à élaborer une plateforme informatisée pour les professionnels travaillant avec la clientèle ayant subi un accident vasculaire cérébral (AVC). L’objectif de la présente étude est de décrire la perception des professionnels de la santé face à l’introduction du Web 2.0 dans leur pratique. Méthode : Un devis de recherche qualitatif avec une approche phénoménologique a été utilisé. Des entrevues individuelles semi-structurées ont été menées auprès de 24 professionnels et gestionnaires. Résultats : Les personnes interviewées étaient toutes des femmes avec un âge moyen de 45 ans (± 18). Le transfert des connaissances est l’utilité du Web 2.0 qui émerge des participants comme étant la plus importante. Les répondants ont également exprimé avoir besoin d'une plateforme conviviale. Les résultats soulignent également un paradoxe lié au temps. En effet, les répondants estiment que le Web 2.0 pourrait leur permettre de sauver du temps, cependant ils affirment qu'ils n'auront pas le temps de l'utiliser. Conclusion : Bien que le Web 2.0 demeure un outil de transfert de connaissances peu intégré dans la pratique, les professionnels travaillant avec la clientèle AVC perçoivent généralement positivement son introduction dans leur pratique.