1000 resultados para Stratégies de gestion du risque
Resumo:
Cette recherche a pour objectif de mesurer la valeur marginale estimée par les investisseurs canadiens à la suite de l’ajout de 1 dollar d’encaisse, pour la période trimestrielle s’étalant de 2001 à 2013. Autrement dit, nous tentons d’évaluer si l’investisseur déprécie, estime à sa juste valeur nominale ou apprécie la valeur de 1 dollar de trésorerie, et ce à travers son impact sur la valeur marchande de l’équité. Parallèlement, nous tentons d’analyser l’influence des variables liées à la rentabilité, le financement, la croissance et le risque sur la valeur que place l’investisseur à l’ajout de 1 dollar d’encaisse. L’effet sectoriel sera notamment exploré sur l’ensemble de ces périodes. Des études passées ont démontré qu’il existe une asymétrie entre la valeur nominale de 1 dollar d’encaisse et celle estimée par les investisseurs. Plus précisément que l’ajout de 1 dollar de liquidité est évalué à prime. Somme toute, ces analyses affinent leurs résultats en tenant compte de l’influence des autres variables telles que mentionnées plus haut, afin de déterminer celles qui entraînent une appréciation de l’encaisse de celles qui conduisent à sa dépréciation. Nous avons conclu qu’en moyenne la valeur marginale de 1 dollar de liquidité est évaluée à 2,13$ par les investisseurs. Nous avons également pu prouver que les anticipations des investisseurs et le risque total influencent significativement cette estimation. Pour tenter de mesurer la valeur que place l’investisseur à l’ajout de 1 dollar d’encaisse, nous avons utilisé la méthodologie de Pinkowitz et Williamson (2002). Ce faisant, nous avons dans un premier temps mesuré l’impact net de l’encaisse sur la valeur marchande de l’équité en élimant du modèle les variables tenant compte des variations trimestrielles t-2 et t+2. L’hypothèse à vérifier en ce qui concerne l’impact net de l’encaisse est qu’il existe une asymétrie significative entre la valeur de 1 dollar et celle estimée par l’investisseur qui n’est pas uniquement provoquée par l’influence des variations passées et futures de l’encaisse. Les résultats obtenus nous ont permis de prouver que la valeur de 1 dollar d’encaisse est appréciée par l’investisseur, et ce malgré la suppression ou la présence des variables tenant compte des variations. Dans la même ligné, nous avons pu démontrer que, conjointement à l’encaisse au temps t, seules les variations liées aux anticipations des investisseurs impactaient significativement la valeur marchande de l’équité. En ce qui concerne le risque dont l’analyse s’est effectuée en dissociant le risque systématique du risque systémique. L’hypothèse à vérifier est qu’une augmentation du risque systématique entraîne une augmentation de la valeur de l’encaisse estimée par l’investisseur. Les résultats obtenus viennent appuyer cette affirmation. Quant au risque systémique, l’hypothèse à vérifier tente à affirmer qu’en période de crise l’encaisse est sous-estimée par l’investisseur et son impact sur la VME non significatif. Nos résultats nous conduisent à démontrer que pour la crise financière de 2006, cette hypothèse est justifiée, mais nous ne permettent pas de la vérifier pour chaque crise. Finalement, nous tenions à vérifier que dépendamment du secteur étudié, l’encaisse pouvait être plus appréciée par les investisseurs. Or, nos résultats ont montré qu’en présence de la liquidité aucun secteur ne se distingue significativement de ses pairs.
Resumo:
La biodiversité et les écosystèmes font parties d’un ensemble qui confère des biens et services essentiels à la survie et au bien-être des populations. L’action humaine et ses interactions avec l’environnement génèrent des pressions qui le poussent vers sa dégradation. Afin d’éviter la perte irrémédiable d’éléments de cet environnement, des aires protégées viennent réduire de manière importante l’impact de ces pressions sur le territoire qu’elles couvrent. Le réseau d’aires protégées du Québec conserve actuellement 9,32 % du territoire, et cherche à atteindre 12 % d’ici 2020. Basé sur le Cadre écologique de référence du Québec, il vise à représenter l’ensemble de la biodiversité de la province et à réduire les pressions exercées sur ses écosystèmes. À ce jour, la majorité des aires protégées sont développées dans le nord du Québec et en terres publiques. Or, le Sud est principalement composé de territoires privés, et recèle de la plus grande biodiversité de la province. Afin de corriger cette problématique, les outils de planification du réseau doivent être repensés pour rendre compte de l’urgence de protéger les territoires du Sud et recréer une connectivité dans le paysage fragmenté, tout en conservant les principes de représentativité et d’efficacité qui font leur force. Pour y parvenir, la mission et les paramètres de suivi du réseau doivent être également revus. Les acteurs locaux, dont les municipalités régionales de comtés et les municipalités, doivent être mis à profit pour considérer les enjeux propres aux terres privées du sud de la province. Ces derniers possèdent déjà plusieurs outils légaux et administratifs pour participer activement à la protection du territoire, qui sont cependant souvent mal connus ou mal compris. Un effort doit être fait pour agencer ces actions avec celles du gouvernement provincial de manière à agir dans une logique d’ensemble. De même, tous les intervenants gagneraient à disposer de meilleurs outils concernant la diffusion des données sur la connaissance du territoire, notamment d’une plateforme centralisée, de protocoles d’acquisition de données standardisés et d’une saine gestion du cycle de vie de ces données. L’application de la géomatique dans la planification et le suivi du réseau d’aires protégées, de même que dans l’aménagement général du territoire pour la conservation et pour la diffusion des données, présente des avantages qui devraient être intégrés plus largement au Québec, notamment par les acteurs locaux du sud de la province.
Resumo:
L’entreprise Rio Tinto effectue la gestion du système hydrique de la rivière Nechako, situé en Colombie-Britannique (Canada), à partir de règles de gestion optimisées à l’aide d’un algorithme de programmation dynamique stochastique (PDS) et de scénarios d’apports historiques. Les récents développements en recherche opérationnelle tendent à démontrer que la mise à jour des règles de gestion en mode prévisionnel permet d’améliorer la performance des règles de gestion lorsque des prévisions d’ensemble sont utilisées pour mieux cerner les incertitudes associées aux apports à venir. La modélisation hydrologique permet de suivre l’évolution d’un ensemble de processus hydrologiques qui varient dans le temps et dans l’espace (réserve de neige, humidité du sol, etc.). L’utilisation de modèles hydrologiques, en plus d’offrir la possibilité de construire des prévisions d’ensemble qui tiennent compte de l’ensemble des processus simulés, permet de suivre l’évolution de variables d’état qui peuvent être utilisées à même l’algorithme d’optimisation pour construire les probabilités de transition utiles à l’évaluation de la valeur des décisions futures. À partir d’un banc d’essais numériques dans lequel le comportement du bassin versant de la rivière Nechako est simulé à l’aide du modèle hydrologique CEQUEAU, les résultats du présent projet démontrent que la mise à jour des règles avec l’algorithme de PDS en mode prévisionnel permet une amélioration de la gestion du réservoir Nechako lorsque comparée aux règles optimisées avec l’algorithme en mode historique. Le mode prévisionnel utilisant une variable hydrologique combinant un modèle autorégressif d’ordre 5 (AR5) et la valeur maximale de l’équivalent en eau de la neige (ÉENM) a permis de réduire les déversements non-productifs et les inondations tout en maintenant des productions similaires à celles obtenues à l’aide de règles optimisées en mode historique utilisant l’ÉENM comme variable hydrologique. De plus, les résultats du projet démontrent que l’utilisation de prévisions hydrologiques d’ensemble en mode historique pour construire une variable hydrologique permettant d’émettre une prévision du volume d’apport médian pour les huit mois à venir (PVAM) ne permettait pas d’obtenir des résultats de gestion supérieurs à ceux obtenus avec la variable d’ÉENM.
Resumo:
Contexte: La douleur chronique non cancéreuse (DCNC) génère des retombées économiques et sociétales importantes. L’identification des patients à risque élevé d’être de grands utilisateurs de soins de santé pourrait être d’une grande utilité; en améliorant leur prise en charge, il serait éventuellement possible de réduire leurs coûts de soins de santé. Objectif: Identifier les facteurs prédictifs bio-psycho-sociaux des grands utilisateurs de soins de santé chez les patients souffrant de DCNC et suivis en soins de première ligne. Méthodologie: Des patients souffrant d’une DCNC modérée à sévère depuis au moins six mois et bénéficiant une ordonnance valide d’un analgésique par un médecin de famille ont été recrutés dans des pharmacies communautaires du territoire du Réseau universitaire intégré de santé (RUIS), de l’Université de Montréal entre Mai 2009 et Janvier 2010. Ce dernier est composé des six régions suivantes : Mauricie et centre du Québec, Laval, Montréal, Laurentides, Lanaudière et Montérégie. Les caractéristiques bio-psycho-sociales des participants ont été documentées à l’aide d’un questionnaire écrit et d’une entrevue téléphonique au moment du recrutement. Les coûts directs de santé ont été estimés à partir des soins et des services de santé reçus au cours de l’année précédant et suivant le recrutement et identifiés à partir de la base de données de la Régie d’Assurance maladie du Québec, RAMQ (assureur publique de la province du Québec). Ces coûts incluaient ceux des hospitalisations reliées à la douleur, des visites à l’urgence, des soins ambulatoires et de la médication prescrite pour le traitement de la douleur et la gestion des effets secondaires des analgésiques. Les grands utilisateurs des soins de santé ont été définis comme étant ceux faisant partie du quartile le plus élevé de coûts directs annuels en soins de santé dans l’année suivant le recrutement. Des modèles de régression logistique multivariés et le critère d’information d’Akaike ont permis d’identifier les facteurs prédictifs des coûts directs élevés en soins de santé. Résultats: Le coût direct annuel médian en soins de santé chez les grands utilisateurs de soins de santé (63 patients) était de 7 627 CAD et de 1 554 CAD pour les utilisateurs réguliers (188 patients). Le modèle prédictif final du risque d’être un grand utilisateur de soins de santé incluait la douleur localisée au niveau des membres inférieurs (OR = 3,03; 95% CI: 1,20 - 7,65), la réduction de la capacité fonctionnelle liée à la douleur (OR = 1,24; 95% CI: 1,03 - 1,48) et les coûts directs en soins de santé dans l’année précédente (OR = 17,67; 95% CI: 7,90 - 39,48). Les variables «sexe», «comorbidité», «dépression» et «attitude envers la guérison médicale» étaient également retenues dans le modèle prédictif final. Conclusion: Les patients souffrant d’une DCNC au niveau des membres inférieurs et présentant une détérioration de la capacité fonctionnelle liée à la douleur comptent parmi ceux les plus susceptibles d’être de grands utilisateurs de soins et de services. Le coût direct en soins de santé dans l’année précédente était également un facteur prédictif important. Améliorer la prise en charge chez cette catégorie de patients pourrait influencer favorablement leur état de santé et par conséquent les coûts assumés par le système de santé.
Resumo:
Cette thèse se propose de comparer exhaustivement trois systèmes de divination par voie de tirage au sort qui ont été contemporains dans l’antiquité tardive. À l’aide d’une analyse rigoureuse des thèmes évoqués, des stratégies rhétoriques employées, du vocabulaire présent et des probabilités d’obtention des réponses offertes, plusieurs points communs ressortent. Les énoncés positifs et négatifs se veulent, dans tous les cas, équilibrés et ils optent souvent pour des variantes temporelles afin de tempérer les prédictions. Lorsqu’ils ne s’appliquent pas à des questions spécifiques, ils misent sur l’imaginaire des consultations littéraires qui allie proverbes et éléments épiques, sans toutefois déroger des thèmes communs liés aux préoccupations quotidiennes des consultants. La rhapsodomancie s’inscrit dans cette mouvance et prouve à quel point l’épopée est une source propice à l’élaboration de systèmes oraculaires, sans jamais que le contexte narratif et littéraire des vers sélectionnés n’entre en jeu.
Resumo:
Plusieurs facteurs de risque de développement de troubles intériorisés, tels que les troubles d’anxiété et de l’humeur, ont été identifiés dans la littérature. Les deux plus importants facteurs de risques regroupent l’adversité vécue durant l’enfance (par exemple la maltraitance) et le risque parental (c’est-à-dire la présence d’un trouble intériorisé chez l’un ou les deux parents). Ces facteurs de risque ont été liés à des changements neuroanatomiques similaires à ceux observés en lien avec les troubles intériorisés. Ainsi, en présence de ces facteurs de risque, des anomalies anatomiques pourraient laisser présager l’apparition prochaine d’une symptomatologie de troubles intériorisés chez des individus encore asymptomatiques. Chez les quelques populations de jeunes investiguées, les participants présentaient des comorbidités et/ou étaient sous médication, ce qui rend difficile l’interprétation des atteintes cérébrales observées. Ce travail de thèse s’est intéressé aux liens entre ces deux facteurs de risque et les substrats neuroanatomiques associés à chacun d’eux, chez des adolescents asymptomatiques et n’étant sous aucune médication. Une première étude a examiné le lien entre le niveau de pratiques parentales coercitives et le niveau de symptômes d’anxiété, mesurés de manière longitudinale depuis la naissance, et les différences neuroanatomiques observées à l’adolescence (voir Chapitre 2). Une deuxième étude a examiné le lien entre le risque parental de développer des troubles d’anxiété et les différences neuroanatomiques observées à l’adolescence (voir Chapitre 3). Une troisième étude s’est intéressée au lien entre le risque parental de développer un trouble de dépression ou un trouble bipolaire et les différences neuroanatomiques observées à l’adolescence (voir Chapitre 4). Les résultats démontrent des différences de volume et/ou d’épaisseur corticale dans plusieurs structures clés impliquées dans le traitement et la régulation des émotions. C’est le cas du cortex préfrontal, de l’amygdale, de l’hippocampe et du striatum. Ces résultats suggèrent que certaines des différences neuroanatomiques observées dans les troubles intériorisés peuvent être présentes avant que le trouble ne se manifeste, et représenter des marqueurs neuronaux du risque de développer le trouble. Les implications théoriques et les limites de ces trois études sont finalement discutées dans le Chapitre 5.
Resumo:
Tese (doutorado)—Universidade de Brasília, Centro de Desenvolvimento Sustentável, 2015.
Resumo:
Les crimes sexuels génèrent beaucoup d’inquiétudes chez la société, particulièrement quand vient le temps de libérer certains délinquants sexuels à risque élevé de récidive. Les évaluations du risque sont ainsi pertinentes puisque la majorité des délinquants sexuels sont libérés suivant une peine d’emprisonnement déterminée (Wilson, Picheca and Prinzo, 2005). Certaines méthodes sont donc mises en place servant à gérer les délinquants sexuels en communauté. Un cadre légal impose certaines conditions de remise en liberté et vise à réduire le risque de récidive (Hanson and Morton-Bourgon, 2005). Toutefois, une fois leur sentence complétée, certains délinquants posent toujours un risque pour la société. Pour répondre à ce problème, des partenariats ont été développés au Québec entre les services correctionnels et policiers. Ils imposent une surveillance accrue des personnes à risque élevé de récidive (PRER). Les décisions qui sont prises peuvent être lourdes de conséquences. Il est donc important d’évaluer si les méthodes de ciblage sont efficaces, soit orientées vers les individus à haut risque de récidive. Les données utilisées dans le cadre de ce mémoire proviennent de deux sources. Premièrement, un échantillon comparatif issu d’une compilation de données comprenant l’ensemble des délinquants sexuels condamnés depuis 20 ans a été utilisé (n = 235). Puis, un registre développé depuis 10 ans regroupant l’ensemble des individus soumis au programme a été analysé (n = 235). Les participants ont été évalués en fonction des variables disponibles de la Statique-99R. L’utilité de l’outil pour la police a été mise en perspective. Le programme ne semble pas n’impliquer que des délinquants sexuels à haut risque de récidive. Les taux de récidive sont relativement bas et similaires dans les deux échantillons. Les services de police ont des données pertinentes qui permettent d’étudier la qualité du ciblage fait dans le cadre du programme. Des évaluations plus fiables pourraient améliorer l’allocation des ressources et les stratégies de ciblage.
Resumo:
Les crimes sexuels génèrent beaucoup d’inquiétudes chez la société, particulièrement quand vient le temps de libérer certains délinquants sexuels à risque élevé de récidive. Les évaluations du risque sont ainsi pertinentes puisque la majorité des délinquants sexuels sont libérés suivant une peine d’emprisonnement déterminée (Wilson, Picheca and Prinzo, 2005). Certaines méthodes sont donc mises en place servant à gérer les délinquants sexuels en communauté. Un cadre légal impose certaines conditions de remise en liberté et vise à réduire le risque de récidive (Hanson and Morton-Bourgon, 2005). Toutefois, une fois leur sentence complétée, certains délinquants posent toujours un risque pour la société. Pour répondre à ce problème, des partenariats ont été développés au Québec entre les services correctionnels et policiers. Ils imposent une surveillance accrue des personnes à risque élevé de récidive (PRER). Les décisions qui sont prises peuvent être lourdes de conséquences. Il est donc important d’évaluer si les méthodes de ciblage sont efficaces, soit orientées vers les individus à haut risque de récidive. Les données utilisées dans le cadre de ce mémoire proviennent de deux sources. Premièrement, un échantillon comparatif issu d’une compilation de données comprenant l’ensemble des délinquants sexuels condamnés depuis 20 ans a été utilisé (n = 235). Puis, un registre développé depuis 10 ans regroupant l’ensemble des individus soumis au programme a été analysé (n = 235). Les participants ont été évalués en fonction des variables disponibles de la Statique-99R. L’utilité de l’outil pour la police a été mise en perspective. Le programme ne semble pas n’impliquer que des délinquants sexuels à haut risque de récidive. Les taux de récidive sont relativement bas et similaires dans les deux échantillons. Les services de police ont des données pertinentes qui permettent d’étudier la qualité du ciblage fait dans le cadre du programme. Des évaluations plus fiables pourraient améliorer l’allocation des ressources et les stratégies de ciblage.
Resumo:
Dans ce mémoire, je cherche à étudier l’effet du statut marital sur la répartition du temps des Canadiens. En effet, une analyse graphique faite à partir de l’Enquête sur la dynamique du travail et du revenu montre que les conjointes de fait se comportent différemment des femmes mariées. Un modèle théorique sur le couple a été élaboré et une simulation a été faite afin d’expliquer ce qui est observé empiriquement. Une femme en union de fait continuera à consacrer beaucoup de temps au marché du travail, obligeant ainsi son conjoint à consacrer du temps au bien domestique. La théorie de la spécialisation des tâches élaborée par Becker [1991] ne s’applique pas au cas des conjoints de fait. Deux bases de données ont été utilisées pour des régressions. Dans un premier temps, les données de panel de l’Enquête sur la dynamique du travail et du revenu ont été utilisées afin de mesurer l’impact du statut marital sur le nombre d’heures travaillées à un emploi rémunéré. Les données de panel permettent de faire des régressions avec des effets fixes. Dans un deuxième temps, les données du cycle 24 et 25 de l’Enquête sociale générale ont été utilisées pour mesurer l’impact du statut marital sur le temps de travail rémunéré et domestique. Une analyse complémentaire a été faite pour étudier l’impact de la probabilité de séparation sur le temps consacré au travail et au bien domestique. Les résultats obtenus à partir des données de panel de l’EDTR montrent que, pour les femmes sans enfant, toutes choses étant égales par ailleurs, les femmes mariées québécoises travaillent 166,12 heures de moins par années que les célibataires, tandis que que les femmes mariées ontariennes travaillent 125,35 heures de moins par année. Dans les deux provinces, les femmes en union de fait travaillent autant que les célibataires. Le statut marital ne semble pas avoir d’impact sur les heures travaillées des hommes. Les résultats obtenus à partir des données de l’ESG montrent que les femmes en couples consacrent davantage de temps au bien domestique que les femmes célibataires. Toutes choses étant égales par ailleurs, pour les femmes sans enfant, les conjointes de fait québécoises consacrent 3,52 minutes par jour de plus aux travaux domestiques que les célibataires, tandis que les conjointes de fait ontariennes y travaillent 6,97 minutes de plus par jour. Les femmes mariées québécoises consacrent 4,61 minutes de plus quotidiennement au bien domestique que les célibataires, tandis que les femmes mariées ontariennes travaillent 5,48 minutes de plus par jour.
Resumo:
Le laboratoire DOMUS développe des applications sensibles au contexte dans une perspective d’intelligence ambiante. L’architecture utilisée présentement pour gérer le contexte a atteint ses limites en termes de capacité d’évoluer, d’intégration de nouvelles sources de données et de nouveaux capteurs et actionneurs, de capacité de partage entre les applications et de capacité de raisonnement. Ce projet de recherche a pour objectif de développer un nouveau modèle, un gestionnaire de contexte et de proposer une architecture pour les applications d’assistance installées dans un habitat intelligent. Le modèle doit répondre aux exigences suivantes : commun, abstrait, évolutif, décentralisé, performant et une accessibilité uniforme. Le gestionnaire du contexte doit permettre de gérer les événements et offrir des capacités de raisonnement sur les données et le contexte. La nouvelle architecture doit simplifier le développement d’applications d’assistance et la gestion du contexte. Les applications doivent pouvoir se mettre à jour si le modèle de données évolue dans le temps sans nécessiter de modification dans le code source. Le nouveau modèle de données repose sur une ontologie définie avec le langage OWL 2 DL. L’architecture pour les applications d’assistance utilise le cadre d’applications Apache Jena pour la gestion des requêtes SPARQL et un dépôt RDF pour le stockage des données. Une bibliothèque Java a été développée pour gérer la correspondance entre le modèle de données et le modèle Java. Le serveur d’événements est basé sur le projet OpenIoT et utilise un dépôt RDF. Il fournit une API pour la gestion des capteurs / événements et des actionneurs / actions. Les choix d’implémentation et l’utilisation d’une ontologie comme modèle de données et des technologies du Web sémantique (OWL, SPARQL et dépôt RDF) pour les applications d’assistance dans un habitat intelligent ont été validés par des tests intensifs et l’adaptation d’applications déjà existantes au laboratoire. L’utilisation d’une ontologie a pour avantage une intégration des déductions et du raisonnement directement dans le modèle de données et non au niveau du code des applications.
Resumo:
Cette recherche a permis d'identifier les interventions les plus susceptibles d'aider l'élève "à risque" nouvellement inscrit en Soins infirmiers au Cégep de Lévis-Lauzon à poursuivre et à terminer son programme. Suite à des recherches ayant permis d'identifier des outils pertinents pour le dépistage des élèves "à risque" ainsi qu'une forme d'intervention adaptée à cette clientèle, soit le tutorat, nous avons élaboré un programme d'interventions individualisées. Ce programme offre, en premier lieu, une description détaillée des tâches des intervenants qui auront à accompagner l'élève "à risque" dans sa démarche. Ce programme propose ensuite plusieurs activités pédagogiques qui tiennent compte des besoins des élèves "à risque" et des contraintes inhérentes à la gestion du programme. Par ailleurs, un tableau de bord permet de repérer rapidement les activités jugées pertinentes par les intervenants. Enfin, cette recherche propose un modèle de régulation de la gestion du programme d'interventions individualisées.
Resumo:
Les jeunes ayant des problèmes de conduites (PC) sont à risque d'avoir des conséquences développementales majeures tout au long de leur vie. Ces conséquences entraînent d'importants coûts autant pour eux que pour la société. Parmi celles-ci, il y a la sexualité précoce, qui doit faire l'objet d'études auprès des jeunes présentant des PC puisqu’elle augmente le risque de contracter une maladie transmise sexuellement, de vivre une grossesse non désirée chez les filles ou de la parentalité précoce chez ces jeunes en général. Selon la théorie développementale de Moffitt (1993), les jeunes, dont les conduites antisociales débutent avant 10 ans et qui persistent jusqu'à l'âge adulte, sont les plus à risque de sexualité précoce. Chez ces jeunes, il serait possible de prédire la sexualité précoce en se basant sur trois domaines de facteurs de risque : les conditions sociofamiliales adverses et les pratiques parentales inadéquates, le comportement de l'enfant et son tempérament, ainsi que le développement neurocognitif (Moffitt et Caspi, 2001). Dans la documentation scientifique, certains auteurs ont montré que des facteurs de risque de ces domaines étaient associés à la sexualité précoce. Néanmoins, plusieurs facteurs (p.ex. : la précocité des PC ou les facteurs du développement neurocognitif) demeurent à explorer. Le présent mémoire a pour objectif d'examiner le poids relatif de différents facteurs associés au risque de sexualité précoce chez les jeunes présentant des PC ou à risque d'en présenter. De plus, afin de vérifier si les mêmes facteurs sont associés à la sexualité précoce pour les filles et les garçons, les interactions entre les facteurs associés à la sexualité précoce et le sexe ont été explorées. Provenant d'une étude longitudinale d'envergure, l'échantillon est composé de 143 jeunes qui présentaient ou non des PC au début du projet. Les résultats suggèrent que cinq variables sont associées à une augmentation du risque de sexualité précoce, soit 1- la perception de comportements de rejets indifférenciés du parent envers son enfant, 2- l'affiliation du jeune à des pairs déviants, 3- la précocité des symptômes de PC,4- le fait d’être une fille ou 5- le fait d’être un garçon et de présenter des PC précoces. De leur côté, les habiletés verbales (fluidité) diminuent le risque de sexualité précoce chez les jeunes présentant des PC ou à risque d'en présenter. Ces différents constats militent en faveur d'adapter certains programmes de prévention des conduites antisociales persistantes en y ajoutant des modules sur la sexualité. Chez les jeunes qui présentent l'ensemble de ces facteurs de risque, il serait important d'éduquer les jeunes sur la sexualité afin d'éviter que ces jeunes aient d'autres activités sexuelles à risque. Par ailleurs, il serait souhaitable d’étudier d’autres variables susceptibles d’être associées à la sexualité précoce (par ex. : l'intelligence ou la réussite en lecture). De plus, ce domaine de recherche nécessite d'autres travaux afin d'évaluer si les facteurs associés à la sexualité précoce sont également liés à d'autres activités sexuelles à risque comme l'utilisation inconstante de contraception.
Resumo:
Dans un contexte de pression toujours plus grande sur les ressources naturelles, une gestion rationnelle des ressources hydriques s'impose. La principale difficulté de leur gestion provient du caractère aléatoire des apports en eau dans le système. Le sujet de cette recherche consiste à développer des méthodes d'optimisation stochastique capable de bien représenter les processus aléatoires. Le cas de Kemano, située en Colombie-Britannique (Canada), illustre les travaux de recherche. L'importante accumulation de neige sur les bassins versants engendre une hydrologie complexe, rendant la gestion du système délicate. La programmation dynamique stochastique est la méthode la plus utilisée pour déterminer la politique de gestion des réservoirs. Mais, son étude fait ressortir que cette méthode ne peut gérer que des modèles simplifiés des processus stochastiques, ne rendant pas compte des complexes corrélations spatio-temporelles des apports hydriques. Ainsi, la politique obtenue peut être de mauvaise qualité. Cette méthode est comparée avec la recherche directe de politique qui n'utilise pas de modèles pour représenter les processus stochastiques, mais évalue la politique sur des scénarios d'apports. Ainsi la recherche directe de politique se révèle globalement plus performante en prenant bien en considération la complexité des apports, mais est limitée par la forme prédéterminée de la politique. De plus, l'optimisation des paramètres en utilisant un algorithme évolutionnaire s'avère lente. La conception d'un algorithme de descente par gradient, combinée à une architecture "acteur-critique" appropriée, permet de réduire notablement le temps d'optimisation. Combinée à une fonction plus complexe employée pour la paramétrisation de la politique de gestion, la méthode permet d'obtenir une politique de qualité significativement supérieure à celle obtenue avec la programmation dynamique stochastique. Les travaux effectués dans le cadre de cette thèse ouvrent la voie à une application opérationnelle de la méthode de recherche directe de politique. L'évaluation en simulation devrait être appréciée des opérateurs en permettant une bonne représentation du système et des apports.
Resumo:
Un consensus peut être observé dans la littérature au sujet de l’augmentation du risque financier due à la mauvaise performance environnementale ainsi que la diminution du risque due à la bonne performance environnementale. Autant les chercheurs que les investisseurs s’entendent pour dire que la réputation de l’entreprise a un impact sur ses activités et sa performance. Les marchés financiers ajustent donc leur appréciation du risque des entreprises selon leur performance environnementale telle que mesurée par les cotes MSCI-KLD. Toutefois, est-ce que ces cotes sont véritablement liées au risque environnemental vécu par les entreprises? C’est la question de recherche abordée par ce mémoire. Plus spécifiquement, cette étude tente de déterminer si le niveau de performance environnementale d’une entreprise, telle que mesurée par la cote MSCI-KLD, a un impact sur sa probabilité d’expérimenter un événement environnemental, et donc sur sa réputation et son risque.