985 resultados para Reboisement--Productivité--Colombie-Britannique--Modèles économétriques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les troubles de sommeil et les cauchemars occupent une position centrale dans le tableau clinique des victimes de traumatismes. Cette thèse, composée d’un article théorique et d’un article empirique, vise à clarifier le lien entre la fréquence et le contenu des cauchemars et l’exposition à un traumatisme. Plus spécifiquement, l’article théorique propose une synthèse des études sur la fréquence et le contenu de différents types de rêves que l’on retrouve dans la période post-traumatique. La fréquence des rêves, des mauvais rêves et des cauchemars est examinée en fonction des caractéristiques du traumatisme et des variables relatives à l’individu. Enfin, le contenu des rêves des victimes de différents types de traumatismes est décrit et exploré, afin de clarifier l’impact onirique d’un traumatisme. Quant à l’article empirique, il s’intéresse spécifiquement à la maltraitance qui fait partie des événements traumatiques les plus répandus au cours de l’enfance. L’étude réalisée examine la relation entre une histoire de maltraitance dans l'enfance, la fréquence des rêves troublants (c.-à-d. cauchemars et mauvais rêves), la détresse associée à ces rêves et la psychopathologie. Les participants de l’étude (n=352 femmes) ont répondu à des questionnaires évaluant le rappel de rêves, la fréquence des rêves troublants, la détresse associée aux cauchemars, le niveau de dépression et d’anxiété ainsi qu’un passé de maltraitance. Quatre groupes ont été formés selon le type et la sévérité des expériences d'abus ou de négligence vécues dans l’enfance. Les femmes qui ont subi les mauvais traitements les plus sévères rapportent davantage de rêves troublants et des scores plus élevés de psychopathologie. Les analyses démontrent que la détresse associée aux rêves troublants et le niveau de psychopathologie sont des médiateurs du lien entre les traumatismes subis et la fréquence des rêves troublants. Les implications des deux articles issus de cette thèse sont discutées à la lumière des différents modèles théoriques accordant une fonction de régulation affective au processus onirique. Le rôle central des rêves dans l’adaptation des individus à la suite d’un traumatisme est mis en évidence ainsi que l’importance clinique et empirique d’évaluer la détresse associée aux rêves troublants indépendamment de la fréquence de ces rêves.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans les dernières décennies, le présumé déclin de la compétence scripturale des élèves québécois a soulevé les passions. Force est d’admettre que leurs compétences sont lacunaires : tant les rapports du ministère de l’Éducation (Jalbert, 2006; Ouellet, 1984) que les études scientifiques ou gouvernementales (Bureau, 1985; Groupe DIEPE, 1995; Roberge, 1984) révèlent leur incapacité à s’approprier l’écriture. Les TIC pourraient bien faire partie de la solution : on sait pertinemment qu’elles favorisent la réussite scolaire dans certains contextes (Barayktar, 2001; Christmann & Badgett, 2003; Waxman, Lin, & Michko, 2003). Toutefois, modifient-elles le processus scriptural au point d’en faciliter l’apprentissage? Cette question constitue le cœur de l’actuel projet de recherche. Les modèles du processus d’écriture comme celui de Hayes et Flower (Flower & Hayes, 1981; Hayes, 1995; Hayes & Flower, 1980) rappellent que les TIC font partie du contexte de production; à ce titre, elles influencent autant la qualité des textes que les processus cognitifs et la motivation. Elles libèrent notamment des ressources cognitives, puisqu’elles prennent en charge certaines opérations, comme la calligraphie (Daiute, 1983). Partant, le scripteur peut se concentrer davantage sur des tâches plus complexes. Des méta-analyses (Bangert-Drowns, 1993; Goldberg, Russell, & Cook, 2003) attestent que le traitement de texte exerce un effet minime, mais statistiquement significatif sur la qualité de l’écriture. Toutefois, il est associé à des révisions en surface (Faigley & Witte, 1981; Figueredo & Varnhagen, 2006). Rares sont les projets de recherche qui explorent simultanément l’impact du traitement de texte sur plusieurs dimensions du processus scriptural; plus rares encore sont les travaux qui se sont intéressés à ce sujet depuis les années 1990. Pour pallier ce manque, cette thèse de doctorat vise à 1) mesurer l’effet des TIC sur la qualité de l’écriture; 2) décrire l’impact des TIC sur les processus cognitifs de révision et de traduction; 3) mesurer l’impact des TIC sur la motivation à écrire. Pour y arriver, nous recourons à une méthodologie mixte. D’une part, un devis de recherche quasi expérimental nous permet de comparer les scripteurs technologiques aux scripteurs traditionnels; d’autre part, une approche qualitative nous laisse accéder aux pensées et aux perceptions des utilisateurs de l’ordinateur. Les trois articles qui constituent le cœur de cette thèse rapportent les résultats relatifs à chacun des objectifs spécifiques de recherche. Dans le premier texte, nous avons mesuré les effets du traitement de texte sur la compétence scripturale. L’analyse statistique des données colligées nous a permis de dégager une amélioration des performances, strictement en orthographe d’usage. En comparaison, les élèves du groupe témoin se sont améliorés davantage en cohérence textuelle et ont mieux performé en orthographe grammaticale. Le deuxième article propose de faire la lumière sur ces résultats. Nous y étudions donc l’impact des TIC sur le processus cognitif de révision. Ce volet, basé sur une approche qualitative, recourt largement à l’observation vidéographiée. Nous y mettons d’abord en évidence le grand nombre d’erreurs commises lors des séances d’écriture technologiques; nous faisons également ressortir la sous-utilisation du vérificateur linguistique, qui pose peu de diagnostics appropriés ou qui est souvent ignoré des scripteurs. Toutefois, malgré cette sous-utilisation du traitement de texte, des entrevues de groupe font état de perceptions positives à l’égard des TIC; on leur prête des vertus certaines et elles sont jugées motivantes. Ce phénomène constitue le cœur du dernier article, au cours duquel nous tâchons de mesurer l’impact du mode d’écriture sur la motivation à écrire. Nous menons ce volet dans une perspective quantitative. La motivation des participants a été mesurée avec une échelle de motivation. L’analyse statistique des données montre que les élèves technologiques sont motivés intrinsèquement par les technologies, tandis que leurs pairs du groupe témoin sont amotivés. Lors du chapitre conclusif, nous mettons ces résultats en relation, tentant d’expliquer globalement l’impact des TIC dans le processus scriptural. Au terme de notre thèse, nous formulons des recommandations destinées aux praticiens et aux décideurs engagés dans le système éducatif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La sclérose latérale amyotrophique (SLA) est une maladie neurodégénérative due à une dégénérescence des motoneurones. Plus de 40 mutations du gène TARDBP ont été identifiées chez des patients SLA. Les défauts biochimiques de ces mutations étant encore inconnus, les modèles animaux sont présentement la seule mesure possible d’un phénotype. Pour étudier les conséquences physiopathologiques d’une de ces mutations, nous avons développé deux lignées transgéniques de poisson zébré, exprimant le gène humain TARDBP soit de type sauvage, soit avec la mutation G348C liée à la SLA, sous le contrôle d’un promoteur de choc thermique. Ces lignées ont été étudiées sur trois générations, après avoir établi un protocole de choc thermique induisant une expression ubiquitaire du transgène. Les embryons transgéniques de la génération F2 de la lignée exprimant la mutation développent un phénotype moteur suite à un choc thermique de 38.5°C pendant 30 minutes lorsque les embryons sont à 18 heures post-fertilisation. 60% des embryons ont une réponse anormale au toucher. De plus, une réduction de 28% de la longueur de pré-branchement des axones des motoneurones est observée. Ces résultats indiquent que notre lignée exprimant la protéine mutante TDP-43 est un modèle génétique de la SLA prometteur, qui ouvre des perspectives pour la compréhension de la physiopathologie de la maladie et la découverte de molécules thérapeutiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mesure de l’activité physique des personnes âgées dans des études populationnelles est un défi. Peu des outils de mesure trouvés dans la littérature sont jugés suffisamment valides ou fiables pour être utilisés dans une étude internationale et longitudinale sur les déterminants de perte de mobilité de personnes âgées. Une étude pilote a été conduite en 2009 pour déterminer la meilleure forme d’évaluation. Les objectifs de ce mémoire sont l’étude des validité, fiabilité et capacité prédictive des données d’un accéléromètre (gold standard), de deux questionnaires choisis (PAQ, IPAQ 7d-recall). Le but est de combiner des éléments des questionnaires dans un seul pour une étude longitudinale projetée au Canada, au Brésil et en Colombie. Le PAQ évalue la fréquence et la durée d’activités de loisirs, l’IPAQ 7d-recall évalue la durée et l’intensité perçue des activités et le temps assis. La collecte de données s’est faite auprès de participants de Saint-Bruno (n=64) et de Santa Cruz (n=60), de 65 à 74 ans. Le PAQ, l’IPAQ-7d-recall et un test de performance (SPPB) ont été complétés puis des accéléromètres remis. À Saint-Bruno, la validité de critère pour l’IPAQ et le PAQ, et la validité de construit pour l’IPAQ sont bonnes. Le refus de l’accéléromètre à Santa Cruz a empêché les analyses de validité. Le PAQ présente une bonne fiabilité mais ajoute peu d’amélioration au pouvoir de prédiction de la dépense énergétique de l’IPAQ. La recherche populationnelle, voulant estimer la dépense énergétique par l’activité physique des personnes âgées, devrait utiliser des instruments mesurant l’intensité perçue (IPAQ) plutôt que les fréquence et durée d’activités concrètes (PAQ).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème de tarification qui nous intéresse ici consiste à maximiser le revenu généré par les usagers d'un réseau de transport. Pour se rendre à leurs destinations, les usagers font un choix de route et utilisent des arcs sur lesquels nous imposons des tarifs. Chaque route est caractérisée (aux yeux de l'usager) par sa "désutilité", une mesure de longueur généralisée tenant compte à la fois des tarifs et des autres coûts associés à son utilisation. Ce problème a surtout été abordé sous une modélisation déterministe de la demande selon laquelle seules des routes de désutilité minimale se voient attribuer une mesure positive de flot. Le modèle déterministe se prête bien à une résolution globale, mais pèche par manque de réalisme. Nous considérons ici une extension probabiliste de ce modèle, selon laquelle les usagers d'un réseau sont alloués aux routes d'après un modèle de choix discret logit. Bien que le problème de tarification qui en résulte est non linéaire et non convexe, il conserve néanmoins une forte composante combinatoire que nous exploitons à des fins algorithmiques. Notre contribution se répartit en trois articles. Dans le premier, nous abordons le problème d'un point de vue théorique pour le cas avec une paire origine-destination. Nous développons une analyse de premier ordre qui exploite les propriétés analytiques de l'affectation logit et démontrons la validité de règles de simplification de la topologie du réseau qui permettent de réduire la dimension du problème sans en modifier la solution. Nous établissons ensuite l'unimodalité du problème pour une vaste gamme de topologies et nous généralisons certains de nos résultats au problème de la tarification d'une ligne de produits. Dans le deuxième article, nous abordons le problème d'un point de vue numérique pour le cas avec plusieurs paires origine-destination. Nous développons des algorithmes qui exploitent l'information locale et la parenté des formulations probabilistes et déterministes. Un des résultats de notre analyse est l'obtention de bornes sur l'erreur commise par les modèles combinatoires dans l'approximation du revenu logit. Nos essais numériques montrent qu'une approximation combinatoire rudimentaire permet souvent d'identifier des solutions quasi-optimales. Dans le troisième article, nous considérons l'extension du problème à une demande hétérogène. L'affectation de la demande y est donnée par un modèle de choix discret logit mixte où la sensibilité au prix d'un usager est aléatoire. Sous cette modélisation, l'expression du revenu n'est pas analytique et ne peut être évaluée de façon exacte. Cependant, nous démontrons que l'utilisation d'approximations non linéaires et combinatoires permet d'identifier des solutions quasi-optimales. Finalement, nous en profitons pour illustrer la richesse du modèle, par le biais d'une interprétation économique, et examinons plus particulièrement la contribution au revenu des différents groupes d'usagers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’approche neuronale a occupé l’intérêt d’un grand nombre de chercheurs pour l’analyse et la prévision des séries temporelles dans divers domaines. Dans ce papier, nous étudions la capacité des réseaux de neurones artificiels (RNA) de type « perceptrons multicouches » pour prévoir le taux d’inflation en Tunisie. Nous essayons de trouver une meilleure technique de prévision de l’inflation en comparant les résultats obtenus par les RNA par rapport à ceux fournis par les modèles autorégressifs linéaires (AR) et par le modèle de prévision « naïve ». La comparaison est effectuée sur la base du critère de la racine carrée de l’erreur quadratique moyenne (root-mean-square error : RMSE) et sur le taux d’amélioration de ce dernier (évalué par rapport à la marche aléatoire). Les résultats trouvés ont montré la supériorité des RNA qui permettent de mieux retracer l’évolution de la série et offrent une meilleure performance en termes de pouvoir prédictif du taux d’inflation en Tunisie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but du présent travail est d’apporter la preuve paléontologique mettant en évidence que le clade Raninoida était bien établi dans le Néotropique durant la période Crétacée, où il était représenté par les plus anciennes familles ou par quelques–uns des plus anciens membres des plus anciennes familles. Je décris des taxa raninoïdiens ou similaires, incluant Archaeochimaeridae n. fam. et Archaeochimaera macrophthalma n. gen. n. sp., du Cénomanien supérieur (~95 Ma.) de Colombie (Chapitre 3), Planocarcinus n. gen., Planocarcinus olssoni (Rathbun, 1937) n. comb. et Notopocorystes kerri n. sp., de l’Aptien supérieur (~115 Ma.) de Colombie (Luque et al., accepté) (Chapitre 2). Ces taxa nouveaux, plus la présence de Cenomanocarcinus vanstraeleni Stenzel, 1945, dans l’Albien supérieur de Colombie (Vega et al., 2010), et d’Araripecarcinus ferreirai Martins–Neto, 1987, dans l’Albien du Brésil (Luque et al., en cours) (Chapitre 4), représentent certains des plus anciens signalements de quatre des sept familles raninoïdiennes, au moins, connues à ce jour. La nouvelle famile Archaeochimaeridae se présente comme le groupe frère du clade Raninidae + clade Symethidae. Cependant, la combinaison unique de caractères primitifs, dérivés et homoplasiques est inégalable chez les Raninoida, et, en fait, chez les autres sections de crabes podotrèmes. Alors que les taxa raninoïdiens du Crétacé sont bien connus aux latitudes élevées, les signalements en Amérique du Sud tropicale sont rares et épars, avec pour résultat de considérables distorsions pour traiter des importantes questions biogéographiques et phylogénétiques. Sur la base de données taxonomiques, paléobiogéographiques et cladistiques, une ré–appréciation des toute premières distributions spatio–temporelle des “crabes grenouilles” est proposée, avec pour objet de contribuer à une plus large compréhension de la diversité, phylogénie et évolution des premiers brachyoures au cours des âges.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’exposition prolongée par inhalation à des poussières de taille respirable contenant de la silice cristalline est reconnue pour causer des maladies respiratoires dont le cancer du poumon et la silicose. De nombreuses études ont relevé la surexposition des travailleurs de la construction à la silice cristalline, puisque ce composé est présent dans de nombreux matériaux utilisés sur les chantiers. L’évaluation de l’exposition à la silice cristalline dans cette industrie constitue un défi en raison de la multitude de conditions de travail et de la nature éphémère des chantiers. Afin de mieux cerner cette problématique, une banque de données d’exposition professionnelle compilée à partir de la littérature a été réalisée par une équipe de l’Université de Montréal et de l’IRSST, et constitue le point de départ de ce travail. Les données présentes dans la banque ont été divisées en fonction de la stratégie d’échantillonnage, résultant en deux analyses complémentaires ayant pour objectif d’estimer les niveaux d’exposition sur le quart de travail en fonction du titre d’emploi, et selon la nature de la tâche exécutée. La méthode de Monte Carlo a été utilisée pour recréer les échantillons provenant de données rapportées sous forme de paramètres de synthèse. Des modèles Tobit comprenant les variables de titre d’emploi, tâche exécutée, durée, année et stratégie d’échantillonnage, type de projet, secteur d’activité, environnement et moyens de maîtrise ont été développés et interprétés par inférence multimodèle. L’analyse basée sur le quart de travail a été réalisée à partir de 1346 données d’exposition couvrant 11 catégories de titre d’emploi. Le modèle contenant toutes les variables a expliqué 22% de la variabilité des mesures et la durée, l’année et la stratégie d’échantillonnage étaient d’importants prédicteurs de l’exposition. Les chantiers de génie civil et les projets de nouvelle construction étaient associés à des expositions plus faibles, alors que l’utilisation de moyens de maîtrise diminuait les concentrations de 18% à l’extérieur et de 24% à l’intérieur. Les moyennes géométriques les plus élevées prédites pour l’année 1999 sur 8 heures étaient retrouvées chez les foreurs (0.214 mg/m3), les travailleurs souterrains (0.191 mg/m3), les couvreurs (0.146 mg/m3) et les cimentiers-applicateurs (0.125 mg/m3). 1566 mesures réparties en 27 catégories de tâches étaient contenues dans la seconde analyse. Le modèle contenant toutes les variables a expliqué 59% des niveaux d’exposition, et l’ensemble des variables contextuelles étaient fortement prédictives. Les moyennes géométriques prédites pour l’année 1998 et selon la durée médiane par tâche dans la banque de données étaient plus élevées lors du bouchardage du béton (1.446 mg/m3), du cassage de pièces de maçonnerie avec autres outils (0.354 mg/m3), du décapage au jet de sable (0.349 mg/m3) et du meulage de joints de brique (0.200 mg/m3). Une diminution importante des concentrations a été observée avec les systèmes d’arrosage (-80%) et d’aspiration des poussières (-64%) intégrés aux outils. L’analyse en fonction des titres d’emploi a montré une surexposition généralisée à la valeur guide de l’ACGIH et à la norme québécoise, indiquant un risque à long terme de maladies professionnelles chez ces travailleurs. Les résultats obtenus pour l’évaluation en fonction de la tâche exécutée montrent que cette stratégie permet une meilleure caractérisation des facteurs associés à l’exposition et ainsi de mieux cibler les priorités d’intervention pour contrôler les niveaux d’exposition à la silice cristalline sur les chantiers de construction durant un quart de travail.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’évaluation économique en santé consiste en l’analyse comparative d’alternatives de services en regard à la fois de leurs coûts et de leurs conséquences. Elle est un outil d’aide à la décision. La grande majorité des décisions concernant l’allocation des ressources sont prises en clinique; particulièrement au niveau des soins primaires. Puisque chaque décision est associée à un coût d’opportunité, la non-prise en compte des considérations économiques dans les pratiques des médecins de famille peut avoir un impact important sur l’efficience du système de santé. Il existe peu de connaissances quant à l’influence des évaluations économiques sur la pratique clinique. L’objet de la thèse est de comprendre le rôle de l’évaluation économique dans la pratique des médecins de famille. Ses contributions font l’objet de quatre articles originaux (philosophique, théorique, méthodologique et empirique). L’article philosophique suggère l’importance des questions de complexité et de réflexivité en évaluation économique. La complexité est la perspective philosophique, (approche générale épistémologique) qui sous-tend la thèse. Cette vision du monde met l’attention sur l’explication et la compréhension et sur les relations et les interactions (causalité interactive). Cet accent sur le contexte et le processus de production des données souligne l’importance de la réflexivité dans le processus de recherche. L’article théorique développe une conception nouvelle et différente du problème de recherche. L’originalité de la thèse réside également dans son approche qui s’appuie sur la perspective de la théorie sociologique de Pierre Bourdieu; une approche théorique cohérente avec la complexité. Opposé aux modèles individualistes de l’action rationnelle, Bourdieu préconise une approche sociologique qui s’inscrit dans la recherche d’une compréhension plus complète et plus complexe des phénomènes sociaux en mettant en lumière les influences souvent implicites qui viennent chaque jour exercer des pressions sur les individus et leurs pratiques. L’article méthodologique présente le protocole d’une étude qualitative de cas multiples avec niveaux d’analyse imbriqués : les médecins de famille (niveau micro-individuel) et le champ de la médecine familiale (niveau macro-structurel). Huit études de cas furent réalisées avec le médecin de famille comme unité principale d’analyse. Pour le niveau micro, la collecte des informations fut réalisée à l’aide d’entrevues de type histoire de vie, de documents et d’observation. Pour le niveau macro, la collecte des informations fut réalisée à l’aide de documents, et d’entrevues de type semi-structuré auprès de huit informateurs clés, de neuf organisations médicales. L’induction analytique fut utilisée. L’article empirique présente l’ensemble des résultats empiriques de la thèse. Les résultats montrent une intégration croissante de concepts en économie dans le discours officiel des organisations de médecine familiale. Cependant, au niveau de la pratique, l'économisation de ce discours ne semble pas être une représentation fidèle de la réalité puisque la très grande majorité des participants n'incarnent pas ce discours. Les contributions incluent une compréhension approfondie des processus sociaux qui influencent les schèmes de perception, de pensée, d’appréciation et d’action des médecins de famille quant au rôle de l’évaluation économique dans la pratique clinique et la volonté des médecins de famille à contribuer à une allocation efficiente, équitable et légitime des ressources.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans un village du Haut Atlas marocain, une fête abandonnée depuis plus de quinze ans a été renouvelée en 2010, attirant des journalistes, des anthropologues et des associatifs. L’étude du renouvellement de la tradition lors de cette fête, au niveau du discours, du contenu des performances et des interactions sociales, nous permet de réinterroger les modèles théoriques de la fabrication de tradition. Un processus sous-jacent apparaît comme la base de ce renouvellement, la singularisation, une forme particulière de résistance à la culture de l’État-nation ou à toute autre culture hégémonique. La singularisation est présente dans chaque élément de la fête. Elle définit un certain rapport au passé par lequel celui-ci est un miroir inversé du présent, mis en scène comme objet de perte. Elle définit également le choix culturel entre deux traditions musicales présentes dans la région. Ces mécanismes reposent sur une nouvelle logique spatiale qui résulte des récents changements économiques et politiques au Maroc. Dans cette nouvelle organisation spatiale où le pouvoir se situe en dehors du local, les femmes sont marginalisées et les figures intermédiaires deviennent le centre du renouvellement de la tradition. L’étude de la singularisation permet de mettre en lumière des processus de fabrication de l’identité, de dégager les conditions de survie culturelle d’un groupe, de caractériser le rapport entre un événement culturel et le changement social, et de préciser les modèles théoriques sur la tradition.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Suite aux notifications de cas de comportements suicidaires associés aux antidépresseurs (ADs) chez les jeunes, une mise en garde réglementaire a été émise en mai 2004 au Canada, et deux guides de pratique clinique ont été publiés dans la littérature en novembre 2007. L'objectif de ce mémoire fut d'évaluer l’association entre ces interventions de communication et le suivi médical de la population pédiatrique traitée par ADs au Québec. Une étude de cohorte rétrospective (1998-2008) a été menée chez 4 576 enfants (10-14 ans) et 12 419 adolescents (15-19 ans) membres du régime public d’assurance médicaments du Québec, ayant débuté un traitement par AD. Le suivi médical dans les trois premiers mois de traitement a été mesuré par l’occurrence et la fréquence de visites médicales retrouvées dans les banques de données de la RAMQ. Les facteurs associés à un suivi conforme aux recommandations ont été évalués à partir de modèles de régression logistique multivariés. Seuls 20% des enfants ou adolescents ont eu au moins une visite de suivi à chaque mois, en conformité avec les recommandations. La probabilité de recevoir un suivi médical conforme était plus élevée lorsque le prescripteur initial était un psychiatre. L’occurrence et la fréquence des visites n’ont pas changé après la publication de la mise en garde ou des recommandations. De ce mémoire on conclut que d'autres interventions visant à optimiser le suivi médical devraient être envisagées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les changements climatiques mesurés dans le Nord-ouest canadien au cours du XXIe siècle entraînent une dégradation du pergélisol. Certaines des principales conséquences physiques sont la fonte de la glace interstitielle lors du dégel du pergélisol, l’affaissement du sol et la réorganisation des réseaux de drainage. L’effet est particulièrement marqué pour les routes bâties sur le pergélisol, où des dépressions et des fentes se créent de façon récurrente, rendant la conduite dangereuse. Des observations et mesures de terrain effectuées à Beaver Creek (Yukon) entre 2008 et 2011 ont démontré qu’un autre processus très peu étudié et quantifié dégradait le pergélisol de façon rapide, soit la chaleur transmise au pergélisol par l’écoulement souterrain. Suite aux mesures de terrain effectuées (relevé topographique, étude géotechnique du sol, détermination de la hauteur de la nappe phréatique et des chenaux d’écoulement préférentiels, température de l’eau et du sol, profondeur du pergélisol et de la couche active), des modèles de transfert de chaleur par conduction et par advection ont été produits. Les résultats démontrent que l’écoulement souterrain dans la couche active et les zones de talik contribue à la détérioration du pergélisol via différents processus de transfert de chaleur conducto-convectifs. L’écoulement souterrain devrait être pris en considération dans tous les modèles et scénarios de dégradation du pergélisol. Avec une bonne caractérisation de l’environnement, le modèle de transfert de chaleur élaboré au cours de la présente recherche est applicable dans d’autres zones de pergélisol discontinu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire est rédigé dans le cadre d’une recherche multidisciplinaire visant à développer de meilleurs outils d’intervention et politiques en santé mentale au travail. L’objectif principal de cette étude était de cibler les déterminants de l’épuisement professionnel et des troubles musculosquelettiques et leur cooccurrence chez une population policière. Un échantillon de 410 policiers du Service de Police de Montréal (SPVM) a été sondé à l’aide d’un questionnaire basé sur des outils standardisés en santé mentale au travail. Les conditions organisationnelles, variables indépendantes de cette étude, ont été identifiées à partir de modèles théoriques validés. L’analyse segmentée de chacun des grands concepts (latitude décisionnelle, soutien social au travail, demandes, justice distributive et sur engagement) révèle que l’effet des conditions organisationnelles ne se manifeste pas également sur chacune des trois dimensions de l’épuisement professionnel (l’épuisement émotionnel, le cynisme et l’efficacité professionnelle). De plus, on observe que les trois formes de récompenses de justice distributive tirées du modèle « Déséquilibre-Efforts-Récompenses » (Siegrist, 1996) ne sont pas distribuées également selon les dimensions de l’épuisement professionnel. Selon nos données, la justice distributive d’estime de soi et le sur engagement s’avèrent significatifs dans tous les cas en regard des dimensions de l’épuisement professionnel et de son indice global. Finalement, nos résultats révèlent que la justice distributive d’estime de soi a un lien significatif sur la cooccurrence de l’épuisement professionnel et des troubles musculosquelettiques. Par contre, on note que des outils de recherche plus spécifiques permettraient une analyse approfondie de l’effet des conditions organisationnelles sur les troubles musculosquelettiques et sur l’effet de cooccurrence entre les deux problèmes à l’étude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis examines the microeconomic consequences of the arrival of open source in the software market. Specifically, it analyzes three features of open source software by using specific models of industrial organization. Open source software is free, and may be modified or duplicated by anyone. The first paper studies the entry of an open source software in a closed source software market. Using a model of horizontal differentiation, the analysis considers a closed source firm's investment in the quality of its software. The introduction of open source on the market reduces the firm's investment in quality and increases the price of its software. Moreover, the entry of open source software may reduce consumer welfare. Post-entry by an open source software, the reduction in market share lowers the firm's incentive to invest in quality. The second paper features vertical differentiation to study a monopolist selling supporting product to its software. The study begins by contrasting the supply of support by an open source provider and a closed source vendor. The model shows that in both cases the levels of support offered are the same. In addition, consumer welfare is higher and profit lower under an open source software. Then, the paper considers the competition in the provision of support. Here, the supply of high level support is greater than under a monopolist. Finally, the monopolist adopts a dual licensing strategy to extract more surplus from developers interested in modifying open source software and redistributing the resulting product. This technique, when the developers place high value on the source code, generates more profit if the monopolist chooses to publish as open source rather than closed source. The last paper studies how a closed source firm is affected by the introduction of an open source benefiting from contributions by users. A vertical differentiation model is used, and reveals that, when contribution of users is present, the closed source vendor may lower its price to a level where it forces the open source out of the market. The firm's lower price not only increases demand for its software, but also induces consumers into switching from open to closed source software therefore reducing the contribution of users.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le prix efficient est latent, il est contaminé par les frictions microstructurelles ou bruit. On explore la mesure et la prévision de la volatilité fondamentale en utilisant les données à haute fréquence. Dans le premier papier, en maintenant le cadre standard du modèle additif du bruit et le prix efficient, on montre qu’en utilisant le volume de transaction, les volumes d’achat et de vente, l’indicateur de la direction de transaction et la différence entre prix d’achat et prix de vente pour absorber le bruit, on améliore la précision des estimateurs de volatilité. Si le bruit n’est que partiellement absorbé, le bruit résiduel est plus proche d’un bruit blanc que le bruit original, ce qui diminue la misspécification des caractéristiques du bruit. Dans le deuxième papier, on part d’un fait empirique qu’on modélise par une forme linéaire de la variance du bruit microstructure en la volatilité fondamentale. Grâce à la représentation de la classe générale des modèles de volatilité stochastique, on explore la performance de prévision de différentes mesures de volatilité sous les hypothèses de notre modèle. Dans le troisième papier, on dérive de nouvelles mesures réalizées en utilisant les prix et les volumes d’achat et de vente. Comme alternative au modèle additif standard pour les prix contaminés avec le bruit microstructure, on fait des hypothèses sur la distribution du prix sans frictions qui est supposé borné par les prix de vente et d’achat.