629 resultados para Risque lié à la volatilité


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire a pour objectif de comprendre l’expérience de travail des agents œuvrant en réinsertion sociale auprès de condamnés provinciaux en collectivité au Québec. Plus précisément, cette recherche souhaite saisir le rôle exercé par ces agents, dans un contexte où ils exercent un double mandat de sécurité publique et de réinsertion sociale. L’étude tente aussi de mettre en lumière leurs pratiques de travail, inscrites dans une logique de gestion efficace des risques. Enfin, ce mémoire vise à comprendre la place qu’occupe la réinsertion sociale dans le cadre de leur travail. Pour ce faire, l’approche qualitative a permis de mener quinze (15) entretiens auprès d’agents de probation et d’intervenants issus du secteur communautaire responsables de la surveillance de justiciables provinciaux en collectivité. Deux (2) thèmes principaux émergent de ces entrevues. D’une part, Le travail est décrit par les participants en regard du double rôle exercé, des responsabilités légales et cliniques qui leur incombent, et de l’intervention centrée sur le risque et la réinsertion sociale auprès des contrevenants. D’autre part, Le contexte de travail réfère au partenariat établi entre les intervenants, au recours aux outils actuariels, ainsi qu’aux instances modulant leurs pratiques de travail : les médias, la Commission québécoise des libérations conditionnelles et les Services correctionnels du Québec. Il ressort de nos analyses que la sécurité publique par la gestion efficace des risques se manifeste par une forme de rationalisation des pratiques de travail et par l’intégration d’un rôle de contrôle. Il appert cependant que ces deux (2) aspects sont motivés avant tout par le désir de venir en aide à la population contrevenante. Il résulte finalement de l’étude que la réinsertion sociale ne constitue qu’un objectif de l’intervention parmi d’autres. Les participants doivent jongler avec ces diverses finalités afin de s’ajuster à l’acteur principal de leur travail : le contrevenant.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il existe un grand intérêt pour le développement et les applications des nanotubes de carbone (NTC) car ils ont un énorme potentiel dans diverses applications industrielles. Cependant, leur dimension nanométrique et leur composition chimique peuvent constituer un risque sur la santé humaine. Les mécanismes responsables de la toxicité des NTC restent encore à définir. L’objectif de ce projet était de déterminer la toxicité potentielle de deux types de nanotubes de carbone simple-paroi (NTCSP): RN 000 et RN 003 chez une lignée cellulaire de pneumocytes de type II, les cellules A549. Méthodologie: Les essais MTS et PrestoBlue®, le test d’exclusion au bleu de trypan, la coloration HT-IP et l’Apoptotic Blebs ont été utilisés pour déterminer la toxicité potentielle de ces NTCSP. Résultats: Suite à une exposition de courte durée (24h), l’essai MTS a montré une diminution de la viabilité cellulaire significative de 20% pour [NTCSP] à 50 et 100 µg/ml et 74% pour [NTCSP] à 1000 µg/mL. Le PrestoBlue® a indiqué une mortalité cellulaire d’environ 45% et de 85% pour des concentration de 500 et 1000 µg/ml de NTCSP. Cependant, les données de l’essai d’exclusion du bleu de trypan ont montré que les NTCSP n’altèrent pas la viabilité cellulaire. L’absence d’une altération de la viabilité cellulaire a été confirmée avec la coloration HT-IP et l’Apoptotic Blebs. Cependant, l’interaction des NTCSP avec les cellules A549 a induit un changement de la morphologie cellulaire ; une diminution de la taille ainsi une augmentation de la structure interne des cellules A549. À une exposition à longue durée (72h), les données ont confirmé les résultats d’exposition à 24h. En effet, il n’y a de pas de mortalité cellulaire, mais une diminution de la prolifération cellulaire. En conclusion, notre étude indique que le RN 000 et le RN 003 interagissent avec les cellules A549 sans altérer leur viabilité, mais en induisant une dysfonction mitochondriale qui pourrait avoir plusieurs conséquences sur la fonction cellulaire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cet article s’intéresse à la rupture du lien entre l’amour et le chant qui informait la poésie lyrique, en soulignant comment cette disjonction contribue simultanément à la reconfiguration de l’érotique des romanciers et à l’invention de la forme romanesque. Dès lors que la voix de l’amant-poète le cède à la voix narrative, la nouvelle forme « en roman » engage avec la musique un autre dialogue où l’amour change de forme et de sens. Les plus anciens textes traduits « en roman » ne sont pas seulement des témoins de ces transformations; ils expriment la tension qui existe entre les deux modes d’expression de l’amour qui se partagent alors la littérature vernaculaire : le chant et le récit. En devenant la voix désincarnée du conteur, voire du conte lui-même, le romancier prend le risque de la mimesis : c’est-à-dire celui de donner un corps aux voix du désir, de les soumettre aux rythmes du temps, et donc à la mort.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ruth Dassonneville et Pierre Baudewyns révèlent que, derrière les pourcentages des résultats électoraux, se cachent bien des mouvements et transferts d’électeurs. Ils se penchent sur la « volatilité nette », c’est-à-dire sur la somme des avancées et reculs des différents partis. Ils regardent également au niveau des individus (les électeurs) et observent que les électeurs et électrices votent différemment en 2014. Sur la base de ces analyses des transferts de voix, les auteurs démontrent également que, du côté wallon, on a assisté à un certain éparpillement des votes, surtout entre les partis de gauche. En Flandre, par contre, les électeurs et électrices de centre-droit ont fortement convergé vers la N-VA. Les auteurs établissent aussi un portrait précis de qui sont les électeurs stables (« stayers ») et les électeurs mobiles (« movers »).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Les antipsychotiques (APs) sont fréquemment prescrits pour les troubles comportementaux associés à la démence. Or, ces produits ont fait l'objet de trois mises en garde (2002, 2004, 2005) en raison d'une augmentation du risque d'événement cérébrovasculaire et de décès. L’objectif de ce mémoire est d’évaluer l'utilisation d’APs dans la population de personnes âgées démentes vivant à domicile, et de déterminer l’effet des mises en garde sur les profils observés. Une cohorte rétrospective de 10,969 personnes âgées démentes ayant débuté un traitement par AP entre le 1er janvier 2000 et le 31 décembre 2009 fut identifiée à partir des banques de données de la Régie de l'assurance maladie du Québec (RAMQ). Des séries chronologiques segmentées ont permis de quantifier l’effet des mises en garde sur l'utilisation d’APs. L'effet de la mise en garde de 2005 sur les caractéristiques des patients traités ainsi que sur les profils d'utilisation (dose et durée) a été évalué, respectivement par des modèles de régression logistique et de régression linéaire multivariés. Le taux délivrance d'APs atypiques a augmenté au cours du temps jusqu'à la mise en garde de 2005 pour ensuite diminuer de 8.96% (IC 95% : -11.91% – -6.02%). L'analyse par produit a révélé la même tendance pour la rispéridone, le seul AP approuvé au Canada pour les personnes âgées démentes. En revanche, le taux de délivrance de quétiapine, qui est hors-indication, a continué d'augmenter. Le taux d'initiation de traitement par APs a cependant diminué au cours du temps pour tous les produits. Les mises en garde ne semblent pas être associées avec un changement dans les caractéristiques des patients traités, ni avec les doses et durées d’utilisation. Le manque d'efficacité des mises en garde est probablement en partie lié à l'absence d'alternatives thérapeutiques pour le traitement des troubles psychologiques et comportementaux chez les patients atteints de démence.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La présente recherche vise à cerner les liens entre l’isolement et les traits psychopathiques avec le risque de récidive chez les délinquants sexuels. La littérature scientifique montre que le manque d’intimité, le sentiment de solitude et la psychopathie sont des caractéristiques très présentes chez les délinquants sexuels. Le manque d’intimité et la solitude émotionnelle peuvent être dus à une peur du rejet en lien avec un attachement fragile. D’un autre côté, l’isolement social peut être lié à des déficits relationnels causés par la présence de traits psychopathiques. De plus, le manque d’intimité, la solitude émotionnelle et les traits psychopathiques engendrent de l’hostilité et ont chacun un impact sur la récidive. La présente étude a alors pour objectif de voir les liens entre le manque d’intimité, le sentiment de solitude, les traits psychopathiques et l’hostilité avec le risque de récidive sexuelle et violente tel qu’évalué par la Statique-99. Les résultats font ressortir qu’il n’y a pas de relation entre l’isolement et les traits psychopathiques mais que l’isolement et les traits psychopathiques sont liés à l’hostilité. Les agresseurs sexuels d’adultes sont plus psychopathiques que les agresseurs sexuels d’enfants qui éprouvent plus de solitude émotionnelle. Les traits psychopathiques sont liés à la dimension antisociale et la solitude émotionnelle à la dimension sexuelle de la Statique-99. La solitude émotionnelle et les traits psychopathiques ont une relation distincte avec le risque de récidive chez les agresseurs sexuels.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Rapport de recherche

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Rapport de stage (maîtrise en finance mathématique et computationnelle)

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Rapport de stage (maîtrise en finance mathématique et computationnelle)