17 resultados para Modèle de données


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Le laboratoire DOMUS développe des applications sensibles au contexte dans une perspective d’intelligence ambiante. L’architecture utilisée présentement pour gérer le contexte a atteint ses limites en termes de capacité d’évoluer, d’intégration de nouvelles sources de données et de nouveaux capteurs et actionneurs, de capacité de partage entre les applications et de capacité de raisonnement. Ce projet de recherche a pour objectif de développer un nouveau modèle, un gestionnaire de contexte et de proposer une architecture pour les applications d’assistance installées dans un habitat intelligent. Le modèle doit répondre aux exigences suivantes : commun, abstrait, évolutif, décentralisé, performant et une accessibilité uniforme. Le gestionnaire du contexte doit permettre de gérer les événements et offrir des capacités de raisonnement sur les données et le contexte. La nouvelle architecture doit simplifier le développement d’applications d’assistance et la gestion du contexte. Les applications doivent pouvoir se mettre à jour si le modèle de données évolue dans le temps sans nécessiter de modification dans le code source. Le nouveau modèle de données repose sur une ontologie définie avec le langage OWL 2 DL. L’architecture pour les applications d’assistance utilise le cadre d’applications Apache Jena pour la gestion des requêtes SPARQL et un dépôt RDF pour le stockage des données. Une bibliothèque Java a été développée pour gérer la correspondance entre le modèle de données et le modèle Java. Le serveur d’événements est basé sur le projet OpenIoT et utilise un dépôt RDF. Il fournit une API pour la gestion des capteurs / événements et des actionneurs / actions. Les choix d’implémentation et l’utilisation d’une ontologie comme modèle de données et des technologies du Web sémantique (OWL, SPARQL et dépôt RDF) pour les applications d’assistance dans un habitat intelligent ont été validés par des tests intensifs et l’adaptation d’applications déjà existantes au laboratoire. L’utilisation d’une ontologie a pour avantage une intégration des déductions et du raisonnement directement dans le modèle de données et non au niveau du code des applications.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les gestionnaires des ventes peuvent se servir de modèles de décision pour répartir de façon optimale les ressources marketing entre les produits et territoires. Ces modèles sont des équations mathématiques qui représentent la façon dont les ventes réagissent aux efforts marketing et peuvent être calibrés à partir de données objectives ou subjectives. Little (1971) affirme que les données subjectives sont plus efficaces parce qu'elles contiennent toute l'expérience des gestionnaires. À partir des recommandations de Little, Lodish (1971) a développé le modèle CALLPLAN afin d'aider les gestionnaires à répartir le temps de visites des représentants entre les clients ou les produits, de façon à maximiser les profits de l'entreprise. Pour calibrer ce modèle, les utilisateurs doivent utiliser les cinq données suivantes : les ventes prévues si aucune visite n'est effectuée, les ventes prévues avec une réduction de 50% des visites actuellement effectuées, les ventes actuelles, les ventes prévues si le nombre de visites est augmenté de 50% et les ventes prévues en effectuant un nombre infiniment grand de visites. Nous avons constaté que les modèles de répartition se basent tous sur les mêmes données pour estimer les paramètres des fonctions de réponse des ventes et que la valeur de ces données n'a jamais été évaluée empiriquement. Cette étude visait donc à évaluer la valeur des données subjectives utilisées dans la procédure d'estimation des paramètres du modèle CALLPLAN. À l'aide de simulations de jugements sur ordinateur, nous avons vérifié si la procédure d'estimation, telle que proposée par Lodish, peut être améliorée. Nous avons trouvé en essayant différentes combinaisons de cinq points, qu'effectivement la combinaison de Lodish n'est pas la meilleure pour estimer adéquatement les paramètres du modèle CALLPLAN. Quand la fonction de réponse des ventes est à priori en forme de S, les points utilisés devraient être les suivants ; les ventes prévues si aucune visite n'est effectuée (min), les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué (max), les ventes prévues avec le nombre de visites qui correspond au point d'inflexion (P.l.) de la fonction de réponse et les ventes prévues avec le nombre de visites qui correspond à la mi-distance du point d'inflexion et du niveau de ressource min. Quand la fonction de réponse est à priori concave, la combinaison de points utilisée devrait être ; les ventes prévues si aucune visite n'est effectuée, les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué, les ventes prévues en réduisant au quart le nombre de visites actuellement effectué et les ventes prévues en diminuant de 50% le nombre de visite actuellement utilisé. Nous avons également observé que les jugements concernant les ventes minimales et les ventes maximales influencent grandement les estimés. Nous avons donc trouvé un moyen d'atténuer leur impact en calculant des estimés moyens générés par les jugements individuels d'un groupe déjugés.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Dans ce mémoire de maîtrise, nous utilisons les microdonnées de l’Enquête sur les dépenses des ménages de Statistique Canada en 2009 pour tester la validité empirique du modèle unitaire de dépense des ménages. En s’inspirant de l’étude conduite par Phipps et Burton en 1998, nous tentons une actualisation de leurs résultats ainsi qu’une analyse de l’évolution du comportement des ménages canadiens entre 1992 et 2009. La nouveauté présentée dans ce mémoire de maîtrise tient justement dans ces résultats. Dans la majorité des catégories de dépenses, nous ne rejetons plus le modèle unitaire et nous en mesurons les implications. Entre ces deux études, les différences entre l’homme et la femme dans les couples canadiens se sont atténuées, ils ont de plus en plus les mêmes préférences en terme de consommation. Enfin, nous poursuivons en apportant un test du modèle coopératif développé par Browning, Bourguignon, Chiappori et Lechene (1994) sur la demande en biens exclusifs. Nous en déduisons un aperçu de la répartition du pouvoir de dépense au sein des ménages canadiens.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le caribou de Peary est l’unité désignable du caribou la plus septentrionale ; sa population a chuté d’environ 70% au cours des trois dernières générations. Le Comité sur la situation des espèces en péril au Canada (COSEPAC) identifie les conditions difficiles d’accès à la nourriture à travers le couvert nival comme le facteur le plus influant contribuant à ce déclin. Cette étude se concentre sur l’établissement d’un outil spatial de caractérisation des conditions nivales pour l’accès à la nourriture du caribou de Peary dans le Nord canadien, utilisant des simulations du couvert nival générées avec le logiciel suisse SNOWPACK à partir des données du Modèle Régional Climatique Canadien. Le cycle de vie du caribou de Peary a été divisé en trois périodes critiques : la période de mise bas et de migration printanière (avril – juin), celle d’abondance de nourriture et de rut (juillet – octobre) et celle de migration automnale et de survie des jeunes caribous (novembre – mars). Les conditions nivales sont analysées et les simulations du couvert nival comparées aux comptes insulaires de caribous de Peary pour identifier un paramètre nival qui agirait comme prédicateur des conditions d’accès à la nourriture et expliquerait les fluctuations des comptes de caribous. Cette analyse conclue que ces comptes sont affectés par des densités de neige au-dessus de 300 kg/m³. Un outil logiciel cartographiant à une échelle régionale (dans l’archipel arctique canadien) les conditions d’accès à la nourriture possiblement favorables et non favorables basées sur la neige est proposé. Des exemples spécifiques de sorties sont données pour montrer l’utilité de l’outil, en cartographiant les pixels selon l’épaisseur cumulée de neige au-dessus de densités de 300 kg/m³, où des épaisseurs cumulées au-dessus de 7000 cm par hiver sont considérées comme non favorables pour le caribou de Peary.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Au Canada, les avalanches constituent le géorisque le plus dangereux en période hivernale. On enregistre annuellement d’importants coûts économiques et sociaux associés aux impacts de ce phénomène naturel. Par exemple, la fermeture de routes en cas de risque d’avalanche est estimée à 5 millions de dollars (Jamieson et Stethem, 2002). La prévision des avalanches est, de nos jours, la meilleure méthode afin d’éviter ces coûts. Au Canada, cela s’effectue de façon ponctuelle à l’aide de méthodes manuelles tel que le test de compression (CAA, 2014). Les modèles de simulation du couvert neigeux permettent d’étendre les prévisions à l’ensemble d’une région et ainsi, atteindre certains lieux difficilement accessibles pour l’homme. On tente actuellement d’adapter le modèle SNOWPACK aux conditions canadiennes et plusieurs études ont eu pour but d’améliorer les simulations produites par celui-ci. Cette étude vise donc également l’amélioration des simulations par l’intégration des paramètres de végétation. L’objectif de l’étude est de paramétrer, pour la première fois, le module de végétation de SNOWPACK avec les données récoltées dans la réserve faunique des Chic-Chocs. Nous pourrons ainsi évaluer l’impact de la végétation sur la modélisation du couvert nival. Nous avons donc, lors de sorties de terrain, recueillis les données de neige et de végétation au niveau de quatre sites d’étude. Nous avons par la suite réalisé les simulations avec SNOWPACK et comparer les résultats des simulations avec et sans végétation aux données de terrain. L’étude nous révèle que le modèle diminue la quantité de neige au sol ainsi que la densité du manteau neigeux en présence de végétation. De plus nous avons pu constater que l’inclusion du module de végétation permet d’obtenir des données qui se rapprochent davantage de ce qui a été observé sur le terrain.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’encéphalopathie néonatale (EN) affecte plus de 0.8% des nouveau-nés à terme et est la deuxième cause d’handicap neurologique durant l’enfance. Le traitement des enfants atteints d’EN consiste en une prise en charge symptomatique et en l’hypothermie (HT). Néanmoins, plus de 50% des patients traités par HT gardent des séquelles neurologiques majeures. Les données provenant du Canadian Cerebral Palsy Registry montrent que l’HT prévient seulement 4% des cas de paralysie cérébrale (PC). Le fait que l’HT ait des effets neuroprotecteurs chez certains nouveau-nés, mais pas chez tous les nouveau-nés atteints d’EN n’est pas encore totalement élucidé. Il a été rapporté que les nouveau-nés exposés à l’inflammation (sepsis néonatal, infections placentaires) et à l’hypoxie-ischémie (HI) semblent avoir moins d’effets bénéfiques de l’HT que ceux qui ont été seulement exposés à l’HI. Des études précliniques ont établi que l’HT avait des effets neuroprotecteurs dans les cas d’encéphalopathies hypoxique-ischémiques chez les nouveau-nés à terme ou peu prématurés (plus de 35 semaines d’âge gestationnel). Cependant, peu d’études ont investigué les effets de l’HT lorsque l’EN résulte de la combinaison d’HI et d’infection/inflammation, alors qu’il s’agit du scénario pathophysiologique le plus fréquemment rencontré chez les nouveau-nés humains atteints d’EN. Ceci nous a amené à tester les effets neuroprotecteurs de l’HT dans un modèle animal (rat) d’EN induite par l’inflammation et l’HI. Des ratons Lewis au jour postnatal 12 sont injectés avec du lipopolysaccharide (LPS) d’E.coli afin de recréer l’inflammation, puis sont soumis à l’ischémie (ligature de la carotide commune droite) et à l’hypoxie (8% O[indice inférieur 2], 1h30). Les ratons sont ensuite traités ou non par l’HT (32 ± 0.5°C, 4 h). L‘étendue des lésions cérébrales ainsi que les cascades inflammatoires et oxydatives ont été étudiées. Nos résultats montrent que l’HT prévient l’étendue des lésions dans la composante de pénombre ischémique (néocortex et hippocampe). Cet effet neuroprotecteur est indépendant d’un effet anti-inflammatoire cérébral de l’HT portant sur le système de l’interleukine-1. Nos données indiquent que l’HT module l’expression des enzymes responsables de l’élimination des réactifs de l’oxygène (ROS). En conclusion, nos résultats montrent que l'HT a des effets neuroprotecteurs dans un modèle d’EN induite par l’exposition combinée au LPS et à l’HI. Ce projet devrait ouvrir des perspectives translationnelles pour prévenir la PC au-dede l'hypothermie seule, comme par exemple celle visant à tester le bénéfice de la combinaison thérapeutique d’HT jointe au blocage de cytokines pro-inflammatoires.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le but de cette recherche était de développer un modèle de supervision possédant une logique scientifique qui permettrait aux conseillers pédagogiques d'exercer de façon plus rationnelle et efficace leur fonction conseil auprès des formateurs d'adultes. Trois formateurs volontaires du Service de l'éducation des adultes du cégep de Rimouski ont accepté de participer à cette recherche-action. Le protocole comprenait un test diagnostique des rencontres de supervision, des instruments d'intervention de nature théorique, un bilan-synthèse et une grille d'auto-évaluation. Les données recueillies par le bilan-synthèse, la grille d'autoévaluation et la dernière entrevue nous ont permis d'évaluer l'évolution et le changement survenu chez les sujets. Les résultats de cette recherche-action nous apprennent que les trois sujets ont amélioré de façon significative leur habileté à effectuer leur planification d'enseignement. Une analyse qualitative détaillée exprimant les résultats de chacun des sujets, démontre les éléments qui étaient déjà acquis avant l'intervention et ceux qui l'ont été au cours de la démarche. Le cadre d'actions qui servait de cadre de référence de même que les instruments d'intervention pourraient être un matériel pédagogique intéressant et économique pour les conseillers pédagogiques qui doivent apporter aide et support aux formateurs dans les Services de l'éducation des adultes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[…] notre objectif est d'abord et avant tout de présenter ce modèle pédagogique que nous avons élaboré ainsi que sa mise en application. Pour ce faire, nous allons tout d'abord donner un bref aperçu de la philosophie des nouveaux programmes du M.E.Q. ainsi que des caractéristiques de chacun d'eux. C'est ce qui constituera le premier chapitre. Ensuite, au chapitre 2, nous présenterons une revue de littérature sur les différents courants pédagogiques qui existent au Québec et qui sont accessibles au primaire. Le chapitre 3 décrira notre modèle pédagogique alors que le chapitre 4 présentera l'expérimentation en situation de classe. Enfin, même si l'essentiel de notre travail consiste à présenter notre modèle et son opérationnalisation, le chapitre 5 complétera cette présentation en favorisant une analyse des données recueillies grâce à cette expérimentation. Nous souhaitons que notre recherche, qui n'est ni parfaite ni complète (en elle-même), soit suivie d'autres essais qui apporteront des éléments nouveaux pour l'améliorer ou la compléter. Espérons que cette recherche apporte une contribution modeste à l'évolution de la pédagogie au Québec.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tout le monde convient aisément que la société actuelle exige d'un diplômé du collégial qu'il sache lire: les besoins de sa vie personnelle et sociale tout comme ses études ultérieures et sa vie professionnelle l'exigent. De plus, on reconnaît volontiers que développer ses habiletés en lecture permet à l'individu d'augmenter son autonomie dans l'apprentissage. Malheureusement, des indices nous incitent à croire que beaucoup de cégépiens rencontrent des difficultés importantes en lecture et que ces difficultés menacent leurs succès scolaires. Nous interrogeant sur les moyens appropriés à développer le goût et l'habileté à lire, nous examinons les pratiques pédagogiques et les recherches en français au collégial. Nous n'y trouvons malheureusement ni les outils théoriques ni les instruments d'évaluation qui nous permettraient d'établir les caractéristiques réelles des cégépiens en lecture et d'orienter leur formation en tenant compte des besoins identifiés. Cependant, un examen des théories cognitivistes en lecture, des théories en linguistique, des théories de la motivation et de l'engagement cognitif, des travaux de didacticiens nous permet de découvrir de nombreux modèles théoriques et de nombreuses applications pédagogiques intéressantes de ces propositions théoriques. Pourtant, aucun des théoriciens ou chercheurs consultés ne propose un modèle centré sur le lecteur et immédiatement applicable à l'interprétation des caractéristiques du lecteur cégépien. C'est pourquoi, nous mettons de l'avant nos propres propositions pour définir un cadre théorique de la lecture et un modèle du lecteur qui s'appuient sur les théories linguistiques et cognitivistes étudiées. Le cadre théorique propose une définition de la lecture, identifie les trois facteurs fondamentaux de l'activité de lire, et expose un ensemble de principes regroupant les éléments essentiels pour caractériser la lecture. Ce cadre théorique donne une place centrale au lecteur dans un ensemble d'interactions mettant en cause également le texte et le contexte. Le modèle de lecteur se conforme au cadre théorique et présente les quatre composantes retenues pour représenter le lecteur : ses compétences langagières et cognitives, ses processus métacognitifs et ses traits affectifs. Pour chacune de ces composantes, le modèle propose des listes de descripteurs précis qui devraient permettre de planifier une évaluation diagnostique adéquate. Le modèle est complété par une réflexion sur les variables à retenir dans l'évaluation du lecteur cégépien et par quelques descriptions de certains types de lecteur chez qui le cégépien trouve probablement ses propres traits: le lecteur de plus grande maturité, le lecteur moins habile, le lecteur expert. Ce cadre et ce modèle théoriques ont subi deux épreuves de validation: l'une concerne sa validité interne d'un point de vue théorique et fut effectuée auprès de spécialistes en lecture, en linguistique, en psychologie cognitive. L'autre concerne sa validité interne vue sous un angle écologique et fut effectuée auprès de pro fesseurs experts de l'enseignement collégial. À la suite de ces opérations, nous avons apporté quelques corrections à nos propositions théoriques qui nous semblent en augmenter et la validité interne et la validité écologique. Néanmoins, d'autres changements importants pourront être intégrés, lors de travaux ultérieurs, pour augmenter la cohérence interne du modèle et son adéquation aux objectifs d'évaluation. À plus long terme, nos propositions théoriques permettront de concevoir un dispositif d'évaluation diagnostique. Les données obtenues grâce à ce dispositif pourront alors être analysées pour établir des profils de lecteurs cégépiens et pour développer un plan de formation qui réponde aux besoins mis en évidence par ces profils.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les termes et les conditions de notre sécurité à tous, de nos rapports sociaux, politiques, économiques et de notre développement doivent être repensés et le temps nous semble compté. Les problèmes qui nous assaillent de toutes parts apparaissent parfois tellement définitifs qu'il ne faut pas s'étonner de voir notre société effectuer un repli narcissique. La tentation est grande, pour celui qui en a les moyens, de couper le contact et de bâtir, ailleurs, potager biologique et microcosme humanisé. Il pourrait d'ailleurs en émerger un modèle de société, à la mesure de l'homme, qui, ultimement, pourrait transformer l'ensemble des rapports humains, sociaux et politiques. Cette utopie, nous devons y travailler, et elle semble devoir passer dès maintenant par le potager biologique et le microcosme humanisé. Mais le problème global, planétaire, demeure entier. D'où l'importance inestimable, aussi, du mouvement pour la paix. Son étendue à travers le monde autorise peut-être à entretenir l'espoir que, pour paraphraser Albert Jacquard, à l'hominisation succédera l’humanisation. Cet espoir est peut-être encore plus fondé depuis que le thème de la paix a gagné les classes et les salles de cours d'un façon explicite et importante. L'enseignement relatif à la paix occupe une place importante au sein des efforts globaux de paix. Cet exposé porte sur les "études sur la paix". Par "études sur la paix", il faut entendre un ensemble de cours collégiaux et universitaires, parfois accompagnés d'activités ou de recherches, visant à explorer académiquement des connaissances, des habiletés et des valeurs pertinentes au problème global de la paix. Il s'agit d'un ensemble de cours spécifiques, mais ceux-ci s'inscrivent aussi dans une démarche globale qui peut pratiquement être assimilée à un "mouvement". La définition qui précède n'est, en fait, qu'exploratoire. L'objet, essentiel de ce mémoire est, justement, de décrire le plus adéquatement possible ce phénomène, ce qui n'est pas du tout évident à première vue. [...]

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Apprendre avec le support d'aides-apprenants se veut un programme préventif du décrochage scolaire visant l'ensemble des jeunes fréquentant les écoles de niveau primaire. Il vise essentiellement, à travers le processus d'apprentissage de l'élève, une modification ou un changement dans l'intervention et les interactions des différents acteurs scolaires, qu'ils soient directeur-trice, enseignants-es, parents et élèves afin d'améliorer la qualité du vécu pédagogique de ces jeunes. La motivation scolaire, l'estime de soi, la responsabilisation dans les apprentissages et la coopération sont les thèmes au centre de la conception de ce projet qui a été expérimenté et évalué auprès de deux groupes d'élèves (N = 54) d'une école primaire de la Commission Scolaire Catholique de Sherbrooke. L'évaluation a permis de recueillir des données de nature quantitative ainsi que de nature qualitative, permettant de justifier, l'efficience et l'efficacité d'un tel projet dans la recherche d'une meilleure qualité de vie au plan pédagogique. Les résultats obtenus démontrent la pertinence de poursuivre et d'assurer la continuité d'une telle démarche pédagogique afin que puissent en bénéficier à court, moyen et long terme les premiers utilisateurs des services éducatifs, à savoir les élèves. Un guide : Apprendre avec le support d'aides-apprenants, construit à partir de l'expérimentation du projet Apprendre à apprendre, permet aux différents partenaires-éducateurs l'élaboration de nouvelles stratégies pédagogiques amenant à la réalisation de l'école milieu de vie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le caribou de Peary, désigné en voie de disparition, n’est pas épargné par les changements climatiques. Par le passé, des hivers successifs caractérisés par des conditions météorologiques extrêmes ont entrainé des déclins importants de population en quelques années, pouvant aller jusqu’à 98 %. L’augmentation des épisodes de redoux hivernaux et de pluies sur neige réduit les conditions d’accès à la nourriture de cette sous-espèce. Ces conditions ont pour conséquence d’augmenter la densité des couches de neige dans le manteau neigeux, ce qui empêche le caribou d’avoir accès au fourrage couvrant le sol en hiver. Dans cet esprit, l’outil de spatialisation de SNOWPACK dans l’Arctique (OSSA) développé dans Ouellet et al. (2016) permet la spatialisation des conditions d’accès à la nourriture du caribou de Peary en utilisant le modèle de simulation du couvert nival SNOWPACK. Le paramètre du couvert nival utilisé est l’épaisseur cumulée au-delà d’un seuil fixe de densité durant la saison hivernale (ECD). L'OSSA fournit un résultat d’une résolution spatiale de 32 km puisque les données météorologiques utilisées sont les données de réanalyses du North American Regional Reanalysis (NARR) qui possède une résolution de 32 km. Cette résolution grossière ne permet pas de documenter et prédire la migration locale des différentes populations sur les îles de l'archipel arctique canadien. L’objectif principal de ce projet est donc d’évaluer le potentiel d'une approche de raffinement spatial de l'OSSA à une résolution de 1 km. Afin d’affiner la résolution spatiale de la simulation de l’ECD, des données de pente et de l’albédo du sol à une résolution de 1 km ont été utilisées. Avant d’effectuer les simulations à haute résolution, la sensibilité de l’ECD à ces deux paramètres du terrain a été testée. Les simulations préliminaires ont permis de démontrer que plus la pente est élevée, plus l’ECD sera faible. Également, il a été identifié que la pente va affecter l’ECD à partir d’un seuil de 3 degré. L’albédo du sol a aussi un impact significatif sur l’ECD, mais à un niveau moins important que la pente. Finalement, la comparaison des résultats à faible et haute résolution a pu démontrer que l’approche de raffinement spatial appliquée permet d’obtenir une information plus détaillée des conditions d’accès à la nourriture du caribou de Peary. Les résultats d’ECD obtenus à 1 km de résolution montrent des écarts avec l’ECD à 32 km de résolution pouvant dépasser les 2000 cm. Finalement, cette étude montre l’intérêt d’automatiser cette approche afin de pouvoir spatialiser les conditions d’accès à la nourriture à une résolution de 1 km et de prédire certaines micro-variabilités dans les déplacements futurs des caribous de Peary en fonction des changements climatiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans ce travail, on utilise un MEGC statique pour aborder l'impact du développement des biocarburants sur la croissance économique et sociale au Sénégal. Notre choix d’utiliser un modèle d’équilibre général calculable (MEGC) pour cette étude se justifie par le fait qu’ils sont de nos jours des modèles macroéconomiques particulièrement adaptés à l’étude de politiques structurelles à moyen ou long terme. Le modèle a été développé sur la base du modèle EXTER issu de deux matrices légèrement différentes : l’une reflétant l’économie réelle du Sénégal de 2011 et mise à jour pour 2014 et l’autre étant une matrice hypothétique intégrant les données sur les agrocarburants obtenues à partir des calculs de l’auteure. Le modèle met en exergue les spécificités de l’intégration de ce secteur dans l’économie sénégalaise. Il met plus l’accent sur les secteurs énergivores vu que l’objectif principal étant la réduction de la dépendance énergétique du pays. Deux simulations sont réalisées afin d'effectuer cette analyse : une hausse de l’offre de travail et une subvention accordée aux secteurs des biocarburants comme première simulation et la deuxième simulation reprend la première simulation en y ajoutant une hausse du prix des importations des produits pétroliers. Ainsi, par les mécanismes d’équilibre général, les résultats nous montrent une évolution des agrégats macroéconomiques dans leur ensemble dans les deux simulations. Cependant, sauf dans certains secteurs, en généralité, l’intégration des agrocarburants et leur exploitation avantage beaucoup le pays sur presque tous les secteurs de l’économie.