35 resultados para Modèle de Poisson avec chocs communs
Resumo:
De tout temps, les sociétés ont médité et continuent de méditer sur le rôle que la femme doit remplir dans la société des hommes. L'Année Internationale de la Femme en 1975 est peut-être l'expression la plus éloquente de cette longue méditation de la société. Trop longtemps, la vie de la femme s'est déroulée sans qu'elle ait son mot à dire sur sa fonction propre dans la société. Une image collective de la femme s'est développée et le modèle est devenu, avec le temps et par habitude, un absolu immuable. Le rôle qu'on lui attribuait était de plaire et, plus noblement, de guider et d'éclairer discrètement l'homme, seul dirigeant de la société. De là à sacraliser la femme, il n'y avait qu'un pas. Il fut vite franchi. On se mit alors à parler du rôle sacré, voire providentiel de la femme. On lui détermina une mission: gardienne, protectrice, éducatrice de la famille et, par ricochet, de la société et de la nation. Mais la femme n'accepta pas indéfiniment ce rôle qui la confinait à vivre isolée dans cette société des hommes et qui lui interdisait de sortir de sa sphère spécifique. Dès le milieu du XlXe siècle, des femmes n'hésitèrent pas à remettre en question l'ordre établi par la société concernant leur rôle socio-politique. En France, en Angleterre, aux États-Unis et au Canada, pour ne citer que les pays immédiatement associés au développement du Québec, la femme voulut devenir une citoyenne libre de choisir ses champs d'activité selon ses capacités et ses goûts. Mais pour y arriver, il lui fallait l'égalité politique. Cette égalité politique que revendiquait la "féministe" du XIXe siècle s'inscrivait dans un cadre plus vaste de revendications sociales: meilleures conditions de travail pour elle-même, amélioration de l'hygiène publique, protection de l'enfance, droit à l'éducation. Partout la femme exigeait de participer au débat, à l'élaboration des lois qui la touchaient de près dans sa vie de tous les jours. Partout où la vague suffragiste passait, elle divisait le pays créant ainsi une situation qui débouchait parfois sur la violence. [...]
Resumo:
Abstract : The goal of this study was to determine whether providing videos for students to watch before class would be more effective than assigning readings. The study took place within a flipped classroom: a methodology designed to engage students in the initial construction of knowledge before class, freeing up classroom time for active learning pedagogies. Preparing for class by watching videos should require less of the students’ time than doing readings, and they should respond better to videos than to readings because these more closely mimic this generation’s interactions with information and media. Consequently, flipped classroom students provided with videos should perceive a lower workload, which could translate into more positive learning outcomes. From an instructor’s perspective, however, developing and organizing videos is extremely time consuming. Thus, a teacher giving consideration to flipping their class would likely want to know whether videos would lead to positive outcomes for their students before actually committing to developing these. However, no research to date was identified which has examined the question of whether flipped class videos would be more effective than readings. The hypotheses for the study were that videos would result in measurable learning gains for the students, and would lead to lower time demands and perceived workloads, as well as more positive attitudes. These were tested using a quasi-experimental design involving a convenience sample of two small college General Biology 1 courses taught by the same teacher. One group had videos to watch before class for the first 1/3 of the course (treatment; Class A), during which the other was assigned readings (control; Class B). Following this, both groups were provided with videos. Student scores were compared on pre-instruction and in-class quizzes, activities, four unit tests, and a final exam. Further, students completed a 44 item survey as well as a demographic questionnaire. Results suggest greater learning gains for students provided with videos. Certainly, students from Class B improved significantly when provided with videos, especially as compared to Class A, whose improvement over the same time span was marginal. However, conclusions based on these results are somewhat tentative, as Class A performed rather poorly on all summative assessments, and this could have driven the patterns observed, at least partially. From the surveys, Class B students reported that they spent more time preparing for class, were less likely to do the necessary preparations, and generally perceived their effort and workload levels to be higher. These factors were significant enough that they contributed to four students from Class B (10% of the class) dropping the course over the semester. In addition, students from both groups also reported more positive attitudes towards videos than readings, although they did not necessarily feel that videos were (or would be) a more effective study and learning tool. The results of this study suggest that any effort on the part of an instructor to prepare or organize videos as pre-class instructional tools would likely be well spent. However, even outside of the context of a flipped classroom, this study provides an indication that assigned readings can place heavy workload requirements on students, which should give cause for any instructor employing mandatory readings to reassess their approach. Finally, since both groups were statistically equivalent across all measured demographic variables, it appears that some of the observed disparities in assessment scores may have been driven by differences in group dynamics. Consequently, the suggestion is made that an instrument to measure classroom climate should be incorporated into any research design comparing two or more interacting groups of students, as group dynamics have the potential to play a key role in any outcomes.||Résumé : L'objectif de cette étude était de déterminer si fournir des vidéos aux étudiants avant une classe serait plus efficace comme méthode d’apprentissage individuel que de leur donner une liste de lectures à compléter. L'étude a eu lieu dans une classe renversée – une stratégie plus reconnu sous le nom de «classroom flipping» – ce qui ce trouve à être une méthodologie qui vise à obliger les élèves d’accomplir le transfert de connaissances initial avant la classe, en vue de libérer du temps de classe pour des activités pédagogiques plus approfondie. En théorie, pour les élèves, se préparer pour une classe renversé en regardant des vidéos devrait exiger moins de temps que d’être obligé à apprendre le matériel en lisant. En plus, présenter le matériel d’un cours avec des vidéos imite de plus près les genres d’interactions qu’on les étudiants de cette génération avec de l'information et les médias, ce qui devrait faciliter leur tâche. Par conséquent, les élèves d’une classe renversée fournies avec des vidéos devraient percevoir une charge de travail moins élevée, et ceci pourrait se traduire en bilans d'apprentissage plus positifs. Cependant, du point de vue du professeur, avoir à développer et organiser des vidéos se présente comme un gros défi, surtout en vue du temps et de l’effort qui sont requis. Ainsi, un enseignant qui songe à renversée sa classe voudrait probablement savoir si le fait d’offrir des vidéos mène à des résultats positifs avant de réellement s'engager dans le développement de ces derniers. Par contre, lors de l’écriture de ce texte, aucune étude n’a été identifié qui répond à cette question, et aucune publication compare la performance des étudiants lorsqu’ils ont des vidéos à regarder avec lorsqu’ils sont obligés de faire de la lecture pour se préparer. Alors, les hypothèses de l'étude étaient que des étudiants ayant accès à des vidéos démontreraient des gains d’apprentissages évidents, qu’ils apercevraient des requêtes de temps moins encombrantes et une charge de travail plus faible, et, en vue de ces derniers, que les étudiants auraient des attitudes plus positives envers le cours et le matériel. Les hypothèses ont été testés à l'aide d'un modèle quasi-expérimental, avec comme échantillon deux classes collégiales de Biologie générale 1, tout les deux enseignés par le même professeur. Un de ces groupes avaient accès à des vidéos pour se préparer pour chaque classe lors du premier tiers du cours, alors que l’autre groupe étaient obligé de faire de la lecture. Après le premier tiers du cours, ce qui fut 10 des 30 classes du semestre, les deux groupes ont été fournis avec des vidéos pour le restant du cours. Des notes ont été ramassées et comparées sur des mini-examens préparatoires avant et durant les classes, sur des activités complétées en classe, sur quatre examens en classe, et un examen final. En outre, les étudiants ont rempli un questionnaire composé de 44 items, ainsi qu’un autre questionnaire démographique. Les résultats de l’étude suggèrent qu’une décision d’offrir des vidéos aux élèves peut mener à des gains d'apprentissage plus élevés comparativement à l’option lecture. En particulier, les élèves du groupe initial de lecture se sont considérablement améliorées lorsqu'ils ont été fournis avec des vidéos, surtout par rapport au groupe initial de vidéos, dont l’amélioration durant la même période était marginale. Cependant, ces conclusions sont un peu incertaines, parce que la performance du groupe initial de vidéos était globalement médiocre, ce qui aurait pu mener aux résultats observés. Par contre, les résultats obtenus des questionnaires étaient moins incertains, et indiquent que les élèves qui se sont vues attribués des lectures passaient plus de temps pour préparer leurs classes, étaient plus aptes à ne pas faire les préparatifs nécessaires, et ont aperçus leurs niveaux d'efforts et leurs charges de travails comme étant plus élevés. Ces facteurs étaient suffisamment importants qu'ils ont contribué au fait que quatre étudiants du groupe de lecture, soit 10% de la classe, ont abandonnés le cours durant le premier tiers du semestre. Finalement, les élèves ont démontrés des attitudes plus positives envers les vidéos, bien qu'ils ne trouvaient pas nécessairement que ceux-ci étaient plus efficaces que les lectures lorsqu’ils voulaient étudier pour les examens. Basé sur ces résultats, il est possible de conclure que tout effort de la part d'un instructeur pour préparer ou organiser des vidéos pédagogiques serait probablement un bon investissement. En plus, et même en dehors du contexte d'une classe renversée, cette étude offre une indication qu’une stratégie pédagogique qui oblige les étudiants à faire beaucoup de lecture peut imposer des exigences et une charge de travail très élevée pour les étudiants, ce qui devrait donner cause à tout instructeur qui attribue des lectures à réévaluer leur approche. Enfin, puisque les deux groupes étaient équivalents d’un point de vue statistique sur toutes les mesures démographiques, il semble que certaines disparités entre les deux groupes dans les notes d'évaluation et d’examens peuvent possiblement avoir été entraînées par des différentes dynamiques dans chaque group. Par conséquent, il est suggéré que des mesures de relations entre étudiants et de dynamiques de groupes devraient être incorporé dans n’importe qu’elle recherche comparant deux ou plusieurs groupes d’étudiants, et surtout quand ces étudiants sont en interaction, parce-que en toute apparence les dynamiques de groupes ont le potentiel de jouer un rôle clé dans les résultats obtenus.
Resumo:
Au Canada, les avalanches constituent le géorisque le plus dangereux en période hivernale. On enregistre annuellement d’importants coûts économiques et sociaux associés aux impacts de ce phénomène naturel. Par exemple, la fermeture de routes en cas de risque d’avalanche est estimée à 5 millions de dollars (Jamieson et Stethem, 2002). La prévision des avalanches est, de nos jours, la meilleure méthode afin d’éviter ces coûts. Au Canada, cela s’effectue de façon ponctuelle à l’aide de méthodes manuelles tel que le test de compression (CAA, 2014). Les modèles de simulation du couvert neigeux permettent d’étendre les prévisions à l’ensemble d’une région et ainsi, atteindre certains lieux difficilement accessibles pour l’homme. On tente actuellement d’adapter le modèle SNOWPACK aux conditions canadiennes et plusieurs études ont eu pour but d’améliorer les simulations produites par celui-ci. Cette étude vise donc également l’amélioration des simulations par l’intégration des paramètres de végétation. L’objectif de l’étude est de paramétrer, pour la première fois, le module de végétation de SNOWPACK avec les données récoltées dans la réserve faunique des Chic-Chocs. Nous pourrons ainsi évaluer l’impact de la végétation sur la modélisation du couvert nival. Nous avons donc, lors de sorties de terrain, recueillis les données de neige et de végétation au niveau de quatre sites d’étude. Nous avons par la suite réalisé les simulations avec SNOWPACK et comparer les résultats des simulations avec et sans végétation aux données de terrain. L’étude nous révèle que le modèle diminue la quantité de neige au sol ainsi que la densité du manteau neigeux en présence de végétation. De plus nous avons pu constater que l’inclusion du module de végétation permet d’obtenir des données qui se rapprochent davantage de ce qui a été observé sur le terrain.
Resumo:
Apprendre avec le support d'aides-apprenants se veut un programme préventif du décrochage scolaire visant l'ensemble des jeunes fréquentant les écoles de niveau primaire. Il vise essentiellement, à travers le processus d'apprentissage de l'élève, une modification ou un changement dans l'intervention et les interactions des différents acteurs scolaires, qu'ils soient directeur-trice, enseignants-es, parents et élèves afin d'améliorer la qualité du vécu pédagogique de ces jeunes. La motivation scolaire, l'estime de soi, la responsabilisation dans les apprentissages et la coopération sont les thèmes au centre de la conception de ce projet qui a été expérimenté et évalué auprès de deux groupes d'élèves (N = 54) d'une école primaire de la Commission Scolaire Catholique de Sherbrooke. L'évaluation a permis de recueillir des données de nature quantitative ainsi que de nature qualitative, permettant de justifier, l'efficience et l'efficacité d'un tel projet dans la recherche d'une meilleure qualité de vie au plan pédagogique. Les résultats obtenus démontrent la pertinence de poursuivre et d'assurer la continuité d'une telle démarche pédagogique afin que puissent en bénéficier à court, moyen et long terme les premiers utilisateurs des services éducatifs, à savoir les élèves. Un guide : Apprendre avec le support d'aides-apprenants, construit à partir de l'expérimentation du projet Apprendre à apprendre, permet aux différents partenaires-éducateurs l'élaboration de nouvelles stratégies pédagogiques amenant à la réalisation de l'école milieu de vie.
Resumo:
La présente thèse décrit des travaux de recherches effectués sur des systèmes tutoriels intelligents (STI) et plus précisément sur les tuteurs par traçage de modèle (MTT). Les travaux de recherche présentés ici s’intéressent à la conception de MTT pour des domaines dans lesquels les étudiants peuvent résoudre la tâche qui leur est assignée de plusieurs façons. Ces domaines comportent parfois des algorithmes avec retour sur trace lorsque l’étudiant ne sait pas forcément quelles sont les alternatives qui feront progresser correctement l’état de la tâche.Cette thèse présente dans un premier temps un système de représentation de connaissances pour les algorithmes avec retour sur trace qui rend les connaissances de cet algorithme exploitables par des agents logiciels. Elle présente dans un second temps un ensemble de processus qui exploitent ces connaissances dans le cadre de MTT pour assurer automatiquement le suivi de l’étudiant et ainsi que la production d’interventions pédagogiques. En premier, ces interventions consistent à fournir à l'étudiant de l’aide pour la prochaine étape qui explique quelles sont les possibilités dont dispose l'étudiant et comment déterminer laquelle est la meilleure. En deuxième, elles fournissent à l'étudiant des rétroactions stratégiques qui lui confirment que son action est valide tout en l’informant de l’existence d’une meilleure alternative le cas échéant. Enfin, elles fournissent à l'étudiant des rétroactions négatives qui lui apprennent dans quelles situations les actions invalides qu’il vient d’effectuer s’appliquent.Une expérimentation a été réalisée avec des étudiants de biologie de l’Université de Sherbrooke pour évaluer les effets de ces interventions sur les choix des étudiants au cours de la résolution de la tâche. Les résultats de cette expérience montrent que les étudiants bénéficiant de ces interventions effectuent plus souvent des choix optimaux, et démontrent ainsi une plus grande maîtrise du domaine.
Resumo:
L’objectif de ce mémoire est de décrire et comparer les facteurs de risque individuels, parentaux et familiaux qui sont associés à la cooccurrence simultanée du trouble déficitaire de l’attention avec hyperactivité (TDAH) et des troubles de comportement sévère tels le trouble oppositionnel avec provocation (TOP) et le trouble des conduites (TC). Plus particulièrement, l’étude s’appuie sur les informations issues du modèle de cooccurrence de Neale et Kendler (1995), voulant que le fait de partager des facteurs de risque génétiques et environnementaux communs puisse entraîner une cooccurrence de troubles. Les enfants (N = 345, 41% de filles), âgés entre 6 et 10 ans, ont été recrutés parmi des jeunes recevant des services spécialisées dans huit commissions scolaires de trois régions du Québec. Ces enfants ont été séparés dans différents groupes de comparaison selon la présence/absence du TDAH, du TOP et du TC. Les analyses de régressions logistiques multinomiales réalisées suggèrent que les enfants du groupe TDAH+TOP lorsque comparés à ceux du groupe TDAH seul vivraient dans des familles au sein desquelles il y aurait plus de coercition parentale et auraient vécu plus de changements familiaux que les enfants du groupe TOP seul. Aussi, plus de traits d’insensibilité seraient présents chez les enfants du groupe TDAH+TOP+TC lorsque comparés au groupe TDAH seul. De plus, les enfants du groupe TDAH+TOP+TC présenteraient plus d’anxiété que les enfants du groupe TOP+TC. Dans l’ensemble, il appert que la cooccurrence du TDAH et des troubles du comportement est associée à plus de facteurs de risque chez les enfants.
Resumo:
Au Québec, les écoles sont situées dans une région où l’aléa sismique est considéré modéré à élevé. La majorité de ces écoles ont été construites avant les années 70 et comportent de la maçonnerie non armée (MNA) qui est un matériau à ductilité faible. Au cours des séismes passés notamment celui du Saguenay en 1988, il semble que les structures comportant de la MNA constituent le type de structure le plus dangereux vis-à-vis du séisme. La performance sismique de ces écoles est alors mise en question d’autant plus que la plupart ont été construites avant l’introduction des normes parasismiques. Ce projet de recherche traite de la vulnérabilité sismique des écoles comportant de la MNA et s’inscrit à la suite d’un projet d’élaboration d’une procédure de classification des écoles dans l’Est du Canada. Il découle d’une initiative du Réseau Canadien pour la Recherche Parasismique (RCRP) qui vise des procédures d’analyse de ces bâtiments en vue d’un programme de réhabilitation d’écoles, lancé par le Ministère de l’Éducation, des Loisirs et du Sport (MELS). Une procédure à trois niveaux pour l’évaluation de la vulnérabilité sismique des bâtiments dans l’Est du Canada a été élaborée par différents chercheurs de l’Université de Sherbrooke, de l’École de Technologie Supérieure et de l’Université McGill [Nollet et al., 2012]. Partant des conclusions de cette étude et d’une revue de littérature, les efforts de la recherche développeront un niveau d’évaluation sismique complète des écoles types au Québec comportant de la MNA comme murs de remplissage. Les objectifs seront donc de proposer un modèle adéquat du comportement sismique de la MNA issue de la littérature, étudier l’influence de la non linéarité de la MNA sur la réponse dynamique de ces écoles ainsi que l’influence de l’irrégularité en plan sur la réponse dynamique de ces écoles. La démarche comprend le développement des modèles Opensees [Mazzoni et al., 2004] et la modélisation des écoles génériques sur le logiciel OpenSees (l’un des défi majeur du projet), la validation des modèles à partir de valeurs empirique et expérimentale et enfin les analyses modales et temporelles.
Resumo:
Le caribou de Peary est l’unité désignable du caribou la plus septentrionale ; sa population a chuté d’environ 70% au cours des trois dernières générations. Le Comité sur la situation des espèces en péril au Canada (COSEPAC) identifie les conditions difficiles d’accès à la nourriture à travers le couvert nival comme le facteur le plus influant contribuant à ce déclin. Cette étude se concentre sur l’établissement d’un outil spatial de caractérisation des conditions nivales pour l’accès à la nourriture du caribou de Peary dans le Nord canadien, utilisant des simulations du couvert nival générées avec le logiciel suisse SNOWPACK à partir des données du Modèle Régional Climatique Canadien. Le cycle de vie du caribou de Peary a été divisé en trois périodes critiques : la période de mise bas et de migration printanière (avril – juin), celle d’abondance de nourriture et de rut (juillet – octobre) et celle de migration automnale et de survie des jeunes caribous (novembre – mars). Les conditions nivales sont analysées et les simulations du couvert nival comparées aux comptes insulaires de caribous de Peary pour identifier un paramètre nival qui agirait comme prédicateur des conditions d’accès à la nourriture et expliquerait les fluctuations des comptes de caribous. Cette analyse conclue que ces comptes sont affectés par des densités de neige au-dessus de 300 kg/m³. Un outil logiciel cartographiant à une échelle régionale (dans l’archipel arctique canadien) les conditions d’accès à la nourriture possiblement favorables et non favorables basées sur la neige est proposé. Des exemples spécifiques de sorties sont données pour montrer l’utilité de l’outil, en cartographiant les pixels selon l’épaisseur cumulée de neige au-dessus de densités de 300 kg/m³, où des épaisseurs cumulées au-dessus de 7000 cm par hiver sont considérées comme non favorables pour le caribou de Peary.
Resumo:
L'imagerie par tomographie optique diffuse requiert de modéliser la propagation de la lumière dans un tissu biologique pour une configuration optique et géométrique donnée. On appelle cela le problème direct. Une nouvelle approche basée sur la méthode des différences finies pour modéliser numériquement via l'équation de la diffusion (ED) la propagation de la lumière dans le domaine temporel dans un milieu inhomogène 3D avec frontières irrégulières est développée pour le cas de l'imagerie intrinsèque, c'est-à-dire l'imagerie des paramètres optiques d'absorption et de diffusion d'un tissu. Les éléments finis, lourds en calculs, car utilisant des maillages non structurés, sont généralement préférés, car les différences finies ne permettent pas de prendre en compte simplement des frontières irrégulières. L'utilisation de la méthode de blocking-off ainsi que d'un filtre de Sobel en 3D peuvent en principe permettre de surmonter ces difficultés et d'obtenir des équations rapides à résoudre numériquement avec les différences finies. Un algorithme est développé dans le présent ouvrage pour implanter cette approche et l'appliquer dans divers cas puis de la valider en comparant les résultats obtenus à ceux de simulations Monte-Carlo qui servent de référence. L'objectif ultime du projet est de pouvoir imager en trois dimensions un petit animal, c'est pourquoi le modèle de propagation est au coeur de l'algorithme de reconstruction d'images. L'obtention d'images requière la résolution d'un problème inverse de grandes dimensions et l'algorithme est basé sur une fonction objective que l'on minimise de façon itérative à l'aide d'une méthode basée sur le gradient. La fonction objective mesure l'écart entre les mesures expérimentales faites sur le sujet et les prédictions de celles-ci obtenues du modèle de propagation. Une des difficultés dans ce type d'algorithme est l'obtention du gradient. Ceci est fait à l'aide de variables auxiliaire (ou adjointes). Le but est de développer et de combiner des méthodes qui permettent à l'algorithme de converger le plus rapidement possible pour obtenir les propriétés optiques les plus fidèles possible à la réalité capable d'exploiter la dépendance temporelle des mesures résolues en temps, qui fournissent plus d'informations tout autre type de mesure en TOD. Des résultats illustrant la reconstruction d'un milieu complexe comme une souris sont présentés pour démontrer le potentiel de notre approche.
Resumo:
Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.
Resumo:
L’encéphalopathie néonatale (EN) affecte plus de 0.8% des nouveau-nés à terme et est la deuxième cause d’handicap neurologique durant l’enfance. Le traitement des enfants atteints d’EN consiste en une prise en charge symptomatique et en l’hypothermie (HT). Néanmoins, plus de 50% des patients traités par HT gardent des séquelles neurologiques majeures. Les données provenant du Canadian Cerebral Palsy Registry montrent que l’HT prévient seulement 4% des cas de paralysie cérébrale (PC). Le fait que l’HT ait des effets neuroprotecteurs chez certains nouveau-nés, mais pas chez tous les nouveau-nés atteints d’EN n’est pas encore totalement élucidé. Il a été rapporté que les nouveau-nés exposés à l’inflammation (sepsis néonatal, infections placentaires) et à l’hypoxie-ischémie (HI) semblent avoir moins d’effets bénéfiques de l’HT que ceux qui ont été seulement exposés à l’HI. Des études précliniques ont établi que l’HT avait des effets neuroprotecteurs dans les cas d’encéphalopathies hypoxique-ischémiques chez les nouveau-nés à terme ou peu prématurés (plus de 35 semaines d’âge gestationnel). Cependant, peu d’études ont investigué les effets de l’HT lorsque l’EN résulte de la combinaison d’HI et d’infection/inflammation, alors qu’il s’agit du scénario pathophysiologique le plus fréquemment rencontré chez les nouveau-nés humains atteints d’EN. Ceci nous a amené à tester les effets neuroprotecteurs de l’HT dans un modèle animal (rat) d’EN induite par l’inflammation et l’HI. Des ratons Lewis au jour postnatal 12 sont injectés avec du lipopolysaccharide (LPS) d’E.coli afin de recréer l’inflammation, puis sont soumis à l’ischémie (ligature de la carotide commune droite) et à l’hypoxie (8% O[indice inférieur 2], 1h30). Les ratons sont ensuite traités ou non par l’HT (32 ± 0.5°C, 4 h). L‘étendue des lésions cérébrales ainsi que les cascades inflammatoires et oxydatives ont été étudiées. Nos résultats montrent que l’HT prévient l’étendue des lésions dans la composante de pénombre ischémique (néocortex et hippocampe). Cet effet neuroprotecteur est indépendant d’un effet anti-inflammatoire cérébral de l’HT portant sur le système de l’interleukine-1. Nos données indiquent que l’HT module l’expression des enzymes responsables de l’élimination des réactifs de l’oxygène (ROS). En conclusion, nos résultats montrent que l'HT a des effets neuroprotecteurs dans un modèle d’EN induite par l’exposition combinée au LPS et à l’HI. Ce projet devrait ouvrir des perspectives translationnelles pour prévenir la PC au-delà de l'hypothermie seule, comme par exemple celle visant à tester le bénéfice de la combinaison thérapeutique d’HT jointe au blocage de cytokines pro-inflammatoires.
Resumo:
L'hypothèse sous-jacente au modèle de marché de SHARPE(1964) est que les actifs ont une tendance à évoluer ensemble seulement à cause du lien commun qu'ils ont avec le marché. Depuis lors, quelques recherches ont permis de découvrir qu'il y a d'autres facteurs qui influencent le mouvement des prix des actifs financiers. Notamment, KING(1963), MEYERS(1973), FARRELL(1970,74,77), LIVINGSTON(1977) et ARNOTT(1980) ont cerné quelques-uns de ces autres facteurs. ROLL et ROSS(1976) ont spécifié un modèle général qui tient compte de facteurs importants dans les marchés financiers. Cependant, les tests empiriques sur l'A.P.T. (arbitrage pricing theory) effectués par CHEN, ROLL et ROSS(1986) n'ont pas donné de résultats probants. L'objectif de cette étude sera d'étudier le comportement des sous-indices de la Bourse de Toronto pour créer un modèle multifacteurs selon la méthodologie de James L. FARRELL. En bref, on étudie les comportements des actifs financiers par l'utilisation de procédures de regroupements statistiques pour former quelques indices supplémentaires au modèle de marché de SHARPE(1964).
Resumo:
Les gestionnaires des ventes peuvent se servir de modèles de décision pour répartir de façon optimale les ressources marketing entre les produits et territoires. Ces modèles sont des équations mathématiques qui représentent la façon dont les ventes réagissent aux efforts marketing et peuvent être calibrés à partir de données objectives ou subjectives. Little (1971) affirme que les données subjectives sont plus efficaces parce qu'elles contiennent toute l'expérience des gestionnaires. À partir des recommandations de Little, Lodish (1971) a développé le modèle CALLPLAN afin d'aider les gestionnaires à répartir le temps de visites des représentants entre les clients ou les produits, de façon à maximiser les profits de l'entreprise. Pour calibrer ce modèle, les utilisateurs doivent utiliser les cinq données suivantes : les ventes prévues si aucune visite n'est effectuée, les ventes prévues avec une réduction de 50% des visites actuellement effectuées, les ventes actuelles, les ventes prévues si le nombre de visites est augmenté de 50% et les ventes prévues en effectuant un nombre infiniment grand de visites. Nous avons constaté que les modèles de répartition se basent tous sur les mêmes données pour estimer les paramètres des fonctions de réponse des ventes et que la valeur de ces données n'a jamais été évaluée empiriquement. Cette étude visait donc à évaluer la valeur des données subjectives utilisées dans la procédure d'estimation des paramètres du modèle CALLPLAN. À l'aide de simulations de jugements sur ordinateur, nous avons vérifié si la procédure d'estimation, telle que proposée par Lodish, peut être améliorée. Nous avons trouvé en essayant différentes combinaisons de cinq points, qu'effectivement la combinaison de Lodish n'est pas la meilleure pour estimer adéquatement les paramètres du modèle CALLPLAN. Quand la fonction de réponse des ventes est à priori en forme de S, les points utilisés devraient être les suivants ; les ventes prévues si aucune visite n'est effectuée (min), les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué (max), les ventes prévues avec le nombre de visites qui correspond au point d'inflexion (P.l.) de la fonction de réponse et les ventes prévues avec le nombre de visites qui correspond à la mi-distance du point d'inflexion et du niveau de ressource min. Quand la fonction de réponse est à priori concave, la combinaison de points utilisée devrait être ; les ventes prévues si aucune visite n'est effectuée, les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué, les ventes prévues en réduisant au quart le nombre de visites actuellement effectué et les ventes prévues en diminuant de 50% le nombre de visite actuellement utilisé. Nous avons également observé que les jugements concernant les ventes minimales et les ventes maximales influencent grandement les estimés. Nous avons donc trouvé un moyen d'atténuer leur impact en calculant des estimés moyens générés par les jugements individuels d'un groupe déjugés.
Resumo:
Résumé: Ce mémoire de maîtrise est une étude des probabilités d’interactions (sections efficaces) des électrons de basse énergie avec une molécule d’intérêt biologique. Cette molécule est le tétrahydrofurane (THF) qui est un bon modèle de la molécule constituant la colonne vertébrale de l’ADN; le désoxyribose. Étant donné la grande quantité d’électrons secondaires libérés lors du passage des radiations à travers la matière biologique et sachant que ceux-ci déposent la majorité de l’énergie, l’étude de leurs interactions avec les molécules constituant l’ADN devient rapidement d’une grande importance. Les mesures de sections efficaces sont faites à l’aide d’un spectromètre à haute résolution de pertes d’énergie de l’électron. Les spectres de pertes d’énergie de l’électron obtenus de cet appareil permettent de calculer les valeurs de sections efficaces pour chaque vibration en fonction de l’énergie incidente de l’électron. L’article présenté dans ce mémoire traite de ces mesures et des résultats. En effet, il présente et explique en détail les conditions expérimentales, il décrit la méthode de déconvolution qui est utilisée pour obtenir les valeurs de sections efficaces et il présente et discute des 4 résonances observées dans la dépendance en énergie des sections efficaces. En effet, cette étude a permis de localiser en énergie 4 résonances et celles-ci ont toutes été confirmées par des recherches expérimentales et théoriques antérieures sur le sujet des collisions électrons lents-THF. En outre, jamais ces résonances n’avaient été observées simultanément dans une même étude et jamais la résonance trouvée à basse énergie n’avait été observée avec autant d’intensité que cette présente étude. Cette étude a donc permis de raffiner notre compréhension fondamentale des processus résonants impliqués lors de collisions d’électrons secondaires avec le THF. Les valeurs de sections efficaces sont, quant à elles, très prisées par les théoriciens et sont nécessaires pour les simulations Monte Carlo pour prédire, par exemple, le nombre d’ions formées après le passage des radiations. Ces valeurs pourront justement être utilisées dans les modèles de distribution et dépôt d’énergie au niveau nanoscopique dans les milieux biologiques et ceux-ci pourront éventuellement améliorer l’efficacité des modalités radiothérapeutiques.
Resumo:
Le travail occupe une place très importante dans la société industrialisée, ce concept est en constante évolution. Au cours des dernières décennies, le travail a connu deux révolutions importantes. La première fût celle de l'agriculture, la deuxième industrielle. Nous vivons présentement une troisième révolution, celle de la technologie. Le virage technologique amène des changements considérables sur le marché du travail aux plans économique, social et personnel. Depuis les trente dernières années, la technologie connaît des progrès immenses et ce, de façon soutenue et de plus en plus rapide. Plusieurs professions ont disparu, d'autres sont appelées à disparaître et la plupart subiront d'importantes modifications à cause de l'implantation de la nouvelle technologie. Par exemple, la secrétaire est passée de la machine à écrire manuelle conventionnelle à l'électrique, dorénavant, elle fait du traitement de texte sur ordinateur; presque tout son travail est informatisé. Elle aura à utiliser, dans les prochaines années, des appareils dont le plus haut degré de sophistication n'a pas été atteint. Les architectes et les ingénieurs ont troqué leur table à dessins pour l'ordinateur qui réalise leurs plans et croquis en deux fois moins de temps. Les tailleurs ne coupent plus les tissus avec des ciseaux mais avec des lasers ce qui apporte plus de précision et rapidité. Les exemples de ce type se comptent par milliers maintenant et l'avancement technologique progresse rapidement. Nous retrouvons ces traces partout même dans nos foyers (magnétoscopes, jeux vidéos, ordinateurs, fours à micro-ondes, etc.).