1000 resultados para évaluation d’options par modèle d’équilibre
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Évaluation du prix et de la variance de produits dérivés de taux d'intérêt dans un modèle de Vasiček
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Campylobacter jejuni est l’agent causal de la campylobactériose, infection bactérienne importante en santé publique. Un des vecteurs de transmission de C. jejuni pour l’humain est le poulet via la chaîne alimentaire. Les mécanismes impliqués dans colonisation caecale commensale des oiseaux par C. jejuni sont toujours peu caractérisés, bien qu’une meilleure compréhension de ces mécanismes puisse apporter des solutions pour le contrôle du pathogène à la ferme. Cette étude avait pour buts de caractériser les propriétés phénotypiques et les facteurs génétiques impliqués dans la colonisation du poulet par C. jejuni et d’identifier de nouveaux mécanismes impliqués dans cette association. Des souches, issues d’élevages conventionnels échantillonnés en 2003 et en 2008 ainsi que d’élevages biologiques, ont été caractérisées afin d’obtenir leur profil de résistance aux antibiotiques, leur autoagglutination et leur chimiotactisme. Les souches des élevages conventionnels ont de plus été caractérisées pour leur capacité à adhérer et envahir une culture primaire de cellules caecales de poulet. Une puce à ADN a été développée pour détecter la présence de 254 gènes et variants associés à la colonisation des poulets ainsi qu’à la résistance aux antibiotiques chez les souches issues d’élevages conventionnels. Les propriétés phénotypiques et la présence de certains gènes chez les souches ont par la suite été comparées. Finalement, des souches ayant des caractéristiques différentes ont été utilisées dans un modèle de colonisation du poulet pour évaluer l’efficacité d’un nouvel additif alimentaire à base d’acides organiques et d’huiles essentielles sur le contrôle de C. jejuni. Les propriétés phénotypiques des souches étaient très variées et n’étaient pas corrélées entre elles, à l’exception de l’adhésion et de l’invasion. L’analyse génétique a révélé que le contenu en gènes des souches était variable, notamment au niveau des gènes de l’enveloppe bactérienne, au flagelle, aux récepteurs du chimiotactisme et à la résistance à l’arsenic. Les souches de 2003 et de 2008 étaient semblables lorsque leur contenu en gènes ainsi que leurs propriétés phénotypiques étaient comparés. Des gènes possiblement associés à un fort ou un faible potentiel de colonisation ont été identifiés. L’additif alimentaire a diminué la contamination des carcasses bien qu’une augmentation de la colonisation intestinale ait été observée pour certaines souches. La moitié des lots de poulets d’origine biologique étaient positifs pour C. jejuni. Les souches issues de ce type d’élevage étaient peu résistantes aux antibiotiques et possédaient des phénotypes variés. Cette étude a permis de mieux définir les caractéristiques importantes de C. jejuni qui sont associées à la colonisation intestinale du poulet. Elle a établi pour la première fois au Canada la présence du pathogène dans les élevages de poulets biologiques. Cette étude fait partie des quelques études qui décrivent la présence des gènes de colonisation et de résistance aux antibiotiques dans une collection de souches issues uniquement du poulet. Elle a également remis en doute l’importance de certains gènes dans la colonisation. La caractérisation exhaustive des souches a également permis d’identifier de nouveaux gènes possiblement associés à la colonisation de poulet par C. jejuni. Finalement, elle a indiqué que l’utilisation d’un mélange d’huiles essentielles et d’acide organique encapsulés pouvait être efficace pour réduire la contamination des carcasses de poulet par C. jejuni et que son effet était souche-dépendant.
Resumo:
Un modèle pharmacocinétique à base physiologique (PBPK) d’exposition par inhalation à l’éthanol a antérieurement été développé en se basant sur des données provenant d’une étude chez des volontaires exposés par inhalation à plus de 5000 ppm. Cependant, une incertitude persiste sur la capacité du modèle PBPK à prédire les niveaux d’éthanolémie pour des expositions à de faibles concentrations. Ces niveaux sont fréquemment rencontrés par une large partie de la population et des travailleurs suite à l’utilisation de produits tels que les vernis et les solutions hydroalcooliques (SHA). Il est ainsi nécessaire de vérifier la validité du modèle existant et de déterminer l’exposition interne à l’éthanol dans de telles conditions. Les objectifs du mémoire sont donc 1) de documenter les niveaux d’éthanolémie résultant de l’exposition par inhalation à de faibles concentrations d’éthanol (i.e., ≤ 1000 ppm) et de valider/raffiner le modèle PBPK existant pour ces concentrations ; et 2) de déterminer les concentrations d’éthanol atmosphérique provenant d’utilisation de SHA et de vernis et de prédire les niveaux d’éthanolémie découlant de leur utilisation. Les données toxicocinétiques récoltées chez des volontaires nous suggèrent qu’il est insuffisant de limiter au foie la clairance métabolique de l’éthanol lors d’exposition à de faibles niveaux d’éthanol, contrairement aux expositions à de plus forts niveaux. De plus, il a clairement été démontré qu’un effort physique léger (50 W) influençait à la hausse (2-3 fois) l’éthanolémie des volontaires exposés à 750 ppm. L’ajout au modèle PBPK d’une clairance métabolique de haute affinité et de faible capacité associée aux tissus richement perfusés a permis de simuler plus adéquatement la cinétique de l’éthanolémie pour des expositions à des concentrations inférieures à 1000 ppm. Des mesures de concentrations d’éthanol dans l’air inhalé générées lors d’utilisation de SHA et de vernis ont permis de simuler des expositions lors de l’utilisation de ces produits. Pour l’utilisation de 1,5 g et 3 g de SHA dans un local peu ventilé, des concentrations sanguines maximales (Cmax) de 0.383 et 0.366 mg.L-1 ont été respectivement simulées. Dans un local bien ventilé, les Cmax simulées étaient de 0.264 et 0.414 mg.L-1. Selon les simulations, une application de vernis résulterait en une Cmax respectivement de 0.719 mg.L-1 et de 0.729 mg.L-1, chez les hommes et femmes. Les Cmax sanguines d’éthanol estimées suites aux différentes simulations sont inférieures à la concentration toxique pour les humains (100 mg.L-1). Ainsi, de telles expositions ne semblent pas être un danger pour la santé. Les résultats de cette étude ont permis de mieux décrire et comprendre les processus d’élimination de l’éthanol à faibles doses et permettront de raffiner l’évaluation du risque associé à l’inhalation chronique de faibles niveaux d’éthanol pour la population, particulièrement chez les travailleurs.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Le syndrome de Leigh version canadienne-française (LSFC) est une maladie autosomale récessive causée par une mutation du gène LRPPRC, encodant une protéine du même nom. LRPPRC est impliquée dans la traduction des gènes mitochondriaux qui encodent certains complexes de la chaine respiratoire. Les répercussions biochimiques incluent un déficit tissu spécifique de la cytochrome c oxydase (COX), principalement dans le foie et le cerveau, et la survenue de crises d’acidose fatales chez 80 % des enfants atteints avant l’âge de 3-4 ans. L’identification d’options thérapeutiques demeure encore un défi de taille et ceci est en partie relié au manque de connaissances des fonctions biologiques de LRPPRC et des mécanismes impliqués dans la pathogenèse du LSFC, au niveau des dysfonctions mitochondriales résultantes. Afin d’étudier ces mécanismes, le consortium de l’acidose lactique, dont fait partie notre laboratoire, a récemment développé un modèle murin portant une ablation de LRPPRC spécifique au foie (souris H-Lrpprc-/-). L’objectif principal est de déterminer si ce modèle reproduit le phénotype pathologique observé dans les cultures de fibroblastes humains issus de biopsies de peau de patients LSFC. Dans le cadre des travaux de ce mémoire, nous avons amorcé la caractérisation de ce nouveau modèle, en examinant le phénotype général, l’histopathologie hépatique et les fonctions mitochondriales, et en nous focalisant principalement sur les fonctions respiratoires et la capacité à oxyder divers types de substrats. Nous avons observé un retard de croissance, une hépatomégalie ainsi que plusieurs anomalies histologiques du foie chez la souris HLrpprc-/-. De plus, l’ablation de LRPPRC induit un déficit du complexe IV, mais aussi de l’ATP synthase, et affecte l’oxydation des acides gras à longues chaines. À la lumière de ces résultats, nous croyons que le modèle murin H-Lrpprc-/- contribuera à l’avancement des connaissances générales sur LRPPRC, nous permettant de mieux comprendre l’influence de la protéine sur les fonctions mitochondriales.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.
Resumo:
Les gestionnaires des ventes peuvent se servir de modèles de décision pour répartir de façon optimale les ressources marketing entre les produits et territoires. Ces modèles sont des équations mathématiques qui représentent la façon dont les ventes réagissent aux efforts marketing et peuvent être calibrés à partir de données objectives ou subjectives. Little (1971) affirme que les données subjectives sont plus efficaces parce qu'elles contiennent toute l'expérience des gestionnaires. À partir des recommandations de Little, Lodish (1971) a développé le modèle CALLPLAN afin d'aider les gestionnaires à répartir le temps de visites des représentants entre les clients ou les produits, de façon à maximiser les profits de l'entreprise. Pour calibrer ce modèle, les utilisateurs doivent utiliser les cinq données suivantes : les ventes prévues si aucune visite n'est effectuée, les ventes prévues avec une réduction de 50% des visites actuellement effectuées, les ventes actuelles, les ventes prévues si le nombre de visites est augmenté de 50% et les ventes prévues en effectuant un nombre infiniment grand de visites. Nous avons constaté que les modèles de répartition se basent tous sur les mêmes données pour estimer les paramètres des fonctions de réponse des ventes et que la valeur de ces données n'a jamais été évaluée empiriquement. Cette étude visait donc à évaluer la valeur des données subjectives utilisées dans la procédure d'estimation des paramètres du modèle CALLPLAN. À l'aide de simulations de jugements sur ordinateur, nous avons vérifié si la procédure d'estimation, telle que proposée par Lodish, peut être améliorée. Nous avons trouvé en essayant différentes combinaisons de cinq points, qu'effectivement la combinaison de Lodish n'est pas la meilleure pour estimer adéquatement les paramètres du modèle CALLPLAN. Quand la fonction de réponse des ventes est à priori en forme de S, les points utilisés devraient être les suivants ; les ventes prévues si aucune visite n'est effectuée (min), les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué (max), les ventes prévues avec le nombre de visites qui correspond au point d'inflexion (P.l.) de la fonction de réponse et les ventes prévues avec le nombre de visites qui correspond à la mi-distance du point d'inflexion et du niveau de ressource min. Quand la fonction de réponse est à priori concave, la combinaison de points utilisée devrait être ; les ventes prévues si aucune visite n'est effectuée, les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué, les ventes prévues en réduisant au quart le nombre de visites actuellement effectué et les ventes prévues en diminuant de 50% le nombre de visite actuellement utilisé. Nous avons également observé que les jugements concernant les ventes minimales et les ventes maximales influencent grandement les estimés. Nous avons donc trouvé un moyen d'atténuer leur impact en calculant des estimés moyens générés par les jugements individuels d'un groupe déjugés.
Resumo:
Tout le monde convient aisément que la société actuelle exige d'un diplômé du collégial qu'il sache lire: les besoins de sa vie personnelle et sociale tout comme ses études ultérieures et sa vie professionnelle l'exigent. De plus, on reconnaît volontiers que développer ses habiletés en lecture permet à l'individu d'augmenter son autonomie dans l'apprentissage. Malheureusement, des indices nous incitent à croire que beaucoup de cégépiens rencontrent des difficultés importantes en lecture et que ces difficultés menacent leurs succès scolaires. Nous interrogeant sur les moyens appropriés à développer le goût et l'habileté à lire, nous examinons les pratiques pédagogiques et les recherches en français au collégial. Nous n'y trouvons malheureusement ni les outils théoriques ni les instruments d'évaluation qui nous permettraient d'établir les caractéristiques réelles des cégépiens en lecture et d'orienter leur formation en tenant compte des besoins identifiés. Cependant, un examen des théories cognitivistes en lecture, des théories en linguistique, des théories de la motivation et de l'engagement cognitif, des travaux de didacticiens nous permet de découvrir de nombreux modèles théoriques et de nombreuses applications pédagogiques intéressantes de ces propositions théoriques. Pourtant, aucun des théoriciens ou chercheurs consultés ne propose un modèle centré sur le lecteur et immédiatement applicable à l'interprétation des caractéristiques du lecteur cégépien. C'est pourquoi, nous mettons de l'avant nos propres propositions pour définir un cadre théorique de la lecture et un modèle du lecteur qui s'appuient sur les théories linguistiques et cognitivistes étudiées. Le cadre théorique propose une définition de la lecture, identifie les trois facteurs fondamentaux de l'activité de lire, et expose un ensemble de principes regroupant les éléments essentiels pour caractériser la lecture. Ce cadre théorique donne une place centrale au lecteur dans un ensemble d'interactions mettant en cause également le texte et le contexte. Le modèle de lecteur se conforme au cadre théorique et présente les quatre composantes retenues pour représenter le lecteur : ses compétences langagières et cognitives, ses processus métacognitifs et ses traits affectifs. Pour chacune de ces composantes, le modèle propose des listes de descripteurs précis qui devraient permettre de planifier une évaluation diagnostique adéquate. Le modèle est complété par une réflexion sur les variables à retenir dans l'évaluation du lecteur cégépien et par quelques descriptions de certains types de lecteur chez qui le cégépien trouve probablement ses propres traits: le lecteur de plus grande maturité, le lecteur moins habile, le lecteur expert. Ce cadre et ce modèle théoriques ont subi deux épreuves de validation: l'une concerne sa validité interne d'un point de vue théorique et fut effectuée auprès de spécialistes en lecture, en linguistique, en psychologie cognitive. L'autre concerne sa validité interne vue sous un angle écologique et fut effectuée auprès de pro fesseurs experts de l'enseignement collégial. À la suite de ces opérations, nous avons apporté quelques corrections à nos propositions théoriques qui nous semblent en augmenter et la validité interne et la validité écologique. Néanmoins, d'autres changements importants pourront être intégrés, lors de travaux ultérieurs, pour augmenter la cohérence interne du modèle et son adéquation aux objectifs d'évaluation. À plus long terme, nos propositions théoriques permettront de concevoir un dispositif d'évaluation diagnostique. Les données obtenues grâce à ce dispositif pourront alors être analysées pour établir des profils de lecteurs cégépiens et pour développer un plan de formation qui réponde aux besoins mis en évidence par ces profils.
Resumo:
L'évaluation constitue le sujet de l'heure en éducation. Qui plus est, il s'agit davantage de l'évaluation des enseignants que de l'évaluation globale des systèmes éducatifs. Pour le dire en un mot, tout se passe comme si un très grand nombre d'intervenants croyait que si les enseignants étaient évalués, vraiment, tous les problèmes trouveraient leurs réponses. Il y a là une forme de conception "magique" de l'évaluation. Ludwig et Raddeau (cité par Costa,1987, p. 146) vont même plus loin en affirmant que "le genre humain est en quête de trois objectifs illusoires: la Fontaine de jeunesse, le Saint-Graal et le système d'évaluation parfait." Arthur Costa (Costa, 1987, p. 169) met en évidence, sur la base des diverses recherches faites en éducation , que "l'un des grands mythes de notre profession (éducation) a été que les pratiques d'évaluation de l'enseignement ont amélioré l'enseignement aux élèves. La plupart des politiques d'évaluation des districts ont cet énoncé comme préambule. Mais nous n'avons pas d'évidence que tel est le cas (Glickman cité par Costa, 1986). Pourtant l'évaluation constitue une nécessité, nous aurons l'occasion de le démontrer, aussi bien au plan de la gestion qu'à celui d'une intervention professionnelle de qualité. [...]
Resumo:
Notre choix d'étude s'est arrêté sur une méthode évaluative afin de nous familiariser avec ce processus et en faire un usage courant à tous les programmes dans lesquels nous sommes impliqués de par nos fonctions. Cette étude vise à évaluer si les objectifs du programme aux âgés du Centre de Services Sociaux du Centre du Québec, élaborés par la direction des services professionnels, ont été atteints, quels impacts ils ont eu sur la communauté âgée du territoire de la succursale de Drummondville, et voir ensuite les améliorations à y apporter. Il s'agit de faire une analyse de type évaluatif afin de connaître l'effet du programme aux âgés sur la population concernée. Après l'étude sommaire de quelques modèles d'évaluation, celui de Perry L. Levinson nous semble le plus apte à répondre aux objectifs de l'étude et aux moyens dont nous disposons. À l'aide de ce modèle, nous pourrons vérifier à combien de personnes âgées des Services ont été rendus, si la stratégie d'action a été efficace, si les ressources humaines ont été bien utilisées et en nombre suffisant, s'il y a eu des résultats imprévus et lesquels. L'étude porte sur deux ans d'opération, soit du 1er novembre 1977 au 31 octobre 1979. Après avoir établi les objectifs du programme aux âgés, nous fournirons des données sur la description du territoire et sur la population âgée, nous expliquerons les deux organigrammes de fonctionnement, soit celui avant 1977 et celui après 1977, qui ont eu des répercussions sur l'opérationalisation dudit programme. Nous traiterons des intrants injectés et de la population âgée qui a été atteinte. Le lecteur pourra retrouver une synthèse de l'évaluation du programme faite par l'ensemble des professionnels qui ont travaillé à sa réalisation ainsi qu'une analyse de variables intermédiaires.