988 resultados para Modélisation hydro-sédimentaire


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente thèse se base sur les principes de la théorisation ancrée (Strauss & Corbin, 1998) afin de répondre au manque de documentation concernant les stratégies adoptées par des « agents intermédiaires » pour promouvoir l’utilisation des connaissances issues de la recherche auprès des intervenants en éducation. Le terme « agent intermédiaire » réfère aux personnes qui sont positionnées à l’interface entre les producteurs et les utilisateurs des connaissances scientifiques et qui encouragent et soutiennent les intervenants scolaires dans l’application des connaissances scientifiques dans leur pratique. L’étude s’inscrit dans le cadre d’un projet du ministère de l’Éducation, du Loisir et du Sport du Québec visant à améliorer la réussite scolaire des élèves du secondaire provenant de milieux défavorisés. Des agents intermédiaires de différents niveaux du système éducatif ayant obtenu le mandat de transférer des connaissances issues de la recherche auprès des intervenants scolaires dans les écoles visées par le projet ont été sollicités pour participer à l’étude. Une stratégie d’échantillonnage de type « boule-de-neige » (Biernacki & Waldorf, 1981; Patton, 1990) a été employée afin d’identifier les personnes reconnues par leurs pairs pour la qualité du soutien offert aux intervenants scolaires quant à l’utilisation de la recherche dans leur pratique. Seize entrevues semi-structurées ont été réalisées. L’analyse des données permet de proposer un modèle d’intervention en transfert de connaissances composé de 32 stratégies d’influence, regroupées en 6 composantes d’intervention, soit : relationnelle, cognitive, politique, facilitatrice, évaluative, de même que de soutien et de suivi continu. Les résultats suggèrent que les stratégies d’ordre relationnelle, cognitive et politique sont interdépendantes et permettent d’établir un climat favorable dans lequel les agents peuvent exercer une plus grande influence sur l’appropriation du processus de l’utilisation des connaissances des intervenants scolaire. Ils montrent en outre que la composante de soutien et de suivi continu est importante pour maintenir les changements quant à l’utilisation de la recherche dans la pratique chez les intervenants scolaires. Les implications théoriques qui découlent du modèle, ainsi que les explications des mécanismes impliqués dans les différentes composantes, sont mises en perspective tant avec la documentation scientifique en transfert de connaissances dans les secteurs de la santé et de l’éducation, qu’avec les travaux provenant de disciplines connexes (notamment la psychologie). Enfin, des pistes d’action pour la pratique sont proposées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Québec, le policier a l’autorité de faire respecter plusieurs lois et d’assurer le maintien de l’ordre. Puisque le policier peut être confronté à une multiplicité de problématiques, il est, dans certaines circonstances, contraint à employer une force pour se protéger lui-même ou pour protéger toute autre personne contre la mort ou contre des lésions corporelles graves. Cependant, bien que l’usage de la force par la police soit l’un des éléments les plus visibles et les plus controversés de l’intervention policière, les connaissances sur ce sujet spécifique demeurent limitées. Afin de pallier à certaines lacunes de la recherche et de la théorie, l’objectif général de ce mémoire vise à identifier les facteurs individuels, situationnels et contextuels liés au niveau de force utilisé par la police lors d’une intervention dans les postes de quartier et dans les secteurs de recensement. Les données dans le cadre de cette étude proviennent des rapports d’incidents déclarés d’usage de la force d’un service de police canadien pour une période couvrant les années 2007 à 2011, les données issues du recensement canadien de 2006 et les données criminelles issues du Programme de déclaration uniforme de la criminalité (DUC). La stratégie analytique privilégiée est la modélisation hiérarchique qui permettra de tester les liens entre les différents niveaux d’analyse. Au terme des analyses multiniveaux, les résultats indiquent que plusieurs facteurs ont un impact sur le niveau de force utilisé par le policier. Au niveau des déterminants individuels du sujet, c’est le fait d’être un homme, de résister physiquement à l’intervention et de posséder une arme qui est associé à des niveaux plus élevés de force. Au niveau des facteurs contextuels, on découvre que la proportion de minorité visible et le désavantage social ont un impact appréciable sur le niveau de force utilisé par le policier. Ces résultats nous amènent donc à conclure que les policiers tiennent surtout compte de la situation immédiate (facteurs individuels et situationnels) pour évaluer le degré de dangerosité ou de menace, mais qu’ils sont également influencés par l’endroit où ils se trouvent. D’autres études sont toutefois nécessaires pour vérifier la constance de nos résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec Université Paris 11 (Ecole Doctorale 420)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire de maîtrise analyse les influences transnationales qui ont mené à la nationalisation de l’électricité au Québec. En contraste avec les précédentes études sur Hydro-Québec voulant que les incitatifs locaux fussent la source exclusive de la nationalisation de l’électricité au Québec, cette recherche vient démontrer que les idées transnationales ont été tout aussi influentes. Tout au long du récit, on voit que la conjoncture politico-économique de refonte du libéralisme économique classique vers une version plus keynésienne de l’économie occidentale a été un stimulant de première importance pour la nationalisation de l’électricité au Québec. Dans le premier chapitre sont détaillées les nationalisations d’électricité de l’Ontario, de la Vallée du Tennessee et de la France, ainsi que les relations qu’elles ont eues entre elles et avec le Québec. Dans un second temps, il est démontré que l’étatisation de l’électricité en Ontario au début du XXe siècle et celle de la Vallée du Tennessee durant la crise économique des années 1930 ont été des incitatifs majeurs pour le projet menant à la nationalisation de la Montreal Light Heat & Power en 1944. Enfin, dans le troisième chapitre, ce sont les influences venant des nationalisations d’électricité étasunienne, ontarienne et française sur la nationalisation de l’ensemble des compagnies d’électricité québécoises de 1963 qui sont analysées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In a global context of climate change and energy transition, Quebec seems to be privileged, producing a large amount of cheap hydroelectricity. But aside from the established popular belief that Quebec’s energy is abundant, clean and inexpensive, Quebec’s energy future is still precarious. Within a few decades, Quebec will have to import a significant amount of electricity at a higher price than it actually produces it; the cheap exploitable hydro resources will not only get scarcer if not nonexistent; and the national hydroelectric ``cultural`` heritage even seems to quell the development of alternative energies, letting few space for local innovation coming from municipalities. While in many countries, municipalities are recognised as key figures in the energy sector, here, in Quebec, their role in the national energy system seems marginal. As main actors responsible for territorial planning, it seams that municipalities could play a more important role on Quebec’s energy scene. So they can densify their territory, develop active and collective solutions to transportation issues, they can adopt exemplary energetic habits, they can produce their own energy with wind, solar or even district heating systems. District heating and heat networks being less well know and documented in Quebec, the present study aims at explaining their low penetration level in the Quebec energy landscape. The study also attempts to understand what are the main hurdles to the implementation of district heating in Quebec’s particular energetic context. Finally, the research tries to open a discussion on the motives that could incite municipalities to adopt district heating as an energy alternative. Based on some twenty interviews with key actors of the energy and municipal sectors, the findings give some indications that the low penetration level of district heating in the Quebec municipalities could explain itself in part by : the low priced hydroelectricity, the presence of a comfortable, sufficient and pervasive Hydro-Quebec(er) culture, and also by organizational dynamic and a certain political inertia which limit the appropriation of an energy competence by local governments. In turn, the study shows that district heating solutions are more likely to develop in contexts in which : there are minimum urban or energy density levels; the development of district heating coincides with the local or regional economic structure; and where exist a mobilising local leader or local visions from a community in favor of the implementation of alternative energy systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réflexion est considérée comme un élément significatif de la pédagogie et de la pratique médicales sans qu’il n’existe de consensus sur sa définition ou sur sa modélisation. Comme la réflexion prend concurremment plusieurs sens, elle est difficile à opérationnaliser. Une définition et un modèle standard sont requis afin d’améliorer le développement d’applications pratiques de la réflexion. Dans ce mémoire, nous identifions, explorons et analysons thématiquement les conceptualisations les plus influentes de la réflexion, et développons de nouveaux modèle et définition. La réflexion est définie comme le processus de s’engager (le « soi » (S)) dans des interactions attentives, critiques, exploratoires et itératives (ACEI) avec ses pensées et ses actions (PA), leurs cadres conceptuels sous-jacents (CC), en visant à les changer et en examinant le changement lui-même (VC). Notre modèle conceptuel comprend les cinq composantes internes de la réflexion et les éléments extrinsèques qui l’influencent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chaque jour, des décisions doivent être prises quant à la quantité d'hydroélectricité produite au Québec. Ces décisions reposent sur la prévision des apports en eau dans les bassins versants produite à l'aide de modèles hydrologiques. Ces modèles prennent en compte plusieurs facteurs, dont notamment la présence ou l'absence de neige au sol. Cette information est primordiale durant la fonte printanière pour anticiper les apports à venir, puisqu'entre 30 et 40% du volume de crue peut provenir de la fonte du couvert nival. Il est donc nécessaire pour les prévisionnistes de pouvoir suivre l'évolution du couvert de neige de façon quotidienne afin d'ajuster leurs prévisions selon le phénomène de fonte. Des méthodes pour cartographier la neige au sol sont actuellement utilisées à l'Institut de recherche d'Hydro-Québec (IREQ), mais elles présentent quelques lacunes. Ce mémoire a pour objectif d'utiliser des données de télédétection en micro-ondes passives (le gradient de températures de brillance en position verticale (GTV)) à l'aide d'une approche statistique afin de produire des cartes neige/non-neige et d'en quantifier l'incertitude de classification. Pour ce faire, le GTV a été utilisé afin de calculer une probabilité de neige quotidienne via les mélanges de lois normales selon la statistique bayésienne. Par la suite, ces probabilités ont été modélisées à l'aide de la régression linéaire sur les logits et des cartographies du couvert nival ont été produites. Les résultats des modèles ont été validés qualitativement et quantitativement, puis leur intégration à Hydro-Québec a été discutée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La modélisation géométrique est importante autant en infographie qu'en ingénierie. Notre capacité à représenter l'information géométrique fixe les limites et la facilité avec laquelle on manipule les objets 3D. Une de ces représentations géométriques est le maillage volumique, formé de polyèdres assemblés de sorte à approcher une forme désirée. Certaines applications, tels que le placage de textures et le remaillage, ont avantage à déformer le maillage vers un domaine plus régulier pour faciliter le traitement. On dit qu'une déformation est \emph{quasi-conforme} si elle borne la distorsion. Cette thèse porte sur l’étude et le développement d'algorithmes de déformation quasi-conforme de maillages volumiques. Nous étudions ces types de déformations parce qu’elles offrent de bonnes propriétés de préservation de l’aspect local d’un solide et qu’elles ont été peu étudiées dans le contexte de l’informatique graphique, contrairement à leurs pendants 2D. Cette recherche tente de généraliser aux volumes des concepts bien maitrisés pour la déformation de surfaces. Premièrement, nous présentons une approche linéaire de la quasi-conformité. Nous développons une méthode déformant l’objet vers son domaine paramétrique par une méthode des moindres carrés linéaires. Cette méthode est simple d'implémentation et rapide d'exécution, mais n'est qu'une approximation de la quasi-conformité car elle ne borne pas la distorsion. Deuxièmement, nous remédions à ce problème par une approche non linéaire basée sur les positions des sommets. Nous développons une technique déformant le domaine paramétrique vers le solide par une méthode des moindres carrés non linéaires. La non-linéarité permet l’inclusion de contraintes garantissant l’injectivité de la déformation. De plus, la déformation du domaine paramétrique au lieu de l’objet lui-même permet l’utilisation de domaines plus généraux. Troisièmement, nous présentons une approche non linéaire basée sur les angles dièdres. Cette méthode définit la déformation du solide par les angles dièdres au lieu des positions des sommets du maillage. Ce changement de variables permet une expression naturelle des bornes de distorsion de la déformation. Nous présentons quelques applications de cette nouvelle approche dont la paramétrisation, l'interpolation, l'optimisation et la compression de maillages tétraédriques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Robert Bourbeau, département de démographie (Directeur de recherche) Marianne Kempeneers, département de sociologie (Codirectrice de recherche)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire s'intéresse à la détection de mouvement dans une séquence d'images acquises à l'aide d'une caméra fixe. Dans ce problème, la difficulté vient du fait que les mouvements récurrents ou non significatifs de la scène tels que les oscillations d'une branche, l'ombre d'un objet ou les remous d'une surface d'eau doivent être ignorés et classés comme appartenant aux régions statiques de la scène. La plupart des méthodes de détection de mouvement utilisées à ce jour reposent en fait sur le principe bas-niveau de la modélisation puis la soustraction de l'arrière-plan. Ces méthodes sont simples et rapides mais aussi limitées dans les cas où l'arrière-plan est complexe ou bruité (neige, pluie, ombres, etc.). Cette recherche consiste à proposer une technique d'amélioration de ces algorithmes dont l'idée principale est d'exploiter et mimer deux caractéristiques essentielles du système de vision humain. Pour assurer une vision nette de l’objet (qu’il soit fixe ou mobile) puis l'analyser et l'identifier, l'œil ne parcourt pas la scène de façon continue, mais opère par une série de ``balayages'' ou de saccades autour (des points caractéristiques) de l'objet en question. Pour chaque fixation pendant laquelle l'œil reste relativement immobile, l'image est projetée au niveau de la rétine puis interprétée en coordonnées log polaires dont le centre est l'endroit fixé par l'oeil. Les traitements bas-niveau de détection de mouvement doivent donc s'opérer sur cette image transformée qui est centrée pour un point (de vue) particulier de la scène. L'étape suivante (intégration trans-saccadique du Système Visuel Humain (SVH)) consiste ensuite à combiner ces détections de mouvement obtenues pour les différents centres de cette transformée pour fusionner les différentes interprétations visuelles obtenues selon ses différents points de vue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Afin de mieux cerner les enjeux de la transition entre le secondaire et le postsecondaire, nous proposons un examen du passage de la notion de fonction à celle de dérivée. À la lumière de plusieurs travaux mettant en évidence des difficultés inhérentes à ce passage, et nous basant sur les recherches de Carlson et ses collègues (Carlson, 2002; Carlson, Jacobs, Coe, Larsen et Hsu, 2002; Carlson, Larsen et Jacobs, 2001; Oehrtman, Carlson et Thompson, 2008) sur le raisonnement covariationnel, nous présentons une analyse de la dynamique du développement de ce raisonnement chez des petits groupes d’élèves de la fin du secondaire et du début du collégial dans quatre situations-problèmes différentes. L’analyse des raisonnements de ces groupes d’élèves nous a permis, d’une part, de raffiner la grille proposée par Carlson en mettant en évidence, non seulement des unités de processus de modélisation (ou unités de raisonnement) mises en action par ces élèves lors des activités proposées, mais aussi leurs rôles au sein de la dynamique du raisonnement. D’autre part, cette analyse révèle l’influence de certaines caractéristiques des situations sur les interactions non linéaires entre ces unités.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La violence conjugale peut prendre différentes formes et évoluer à travers le temps. On ne peut écarter la possibilité que les différentes trajectoires soient influencées par le contexte de vie dans lequel la victime se présente. Dans cet ordre d’idée, la perspective des parcours de vie se présente comme un cadre théorique approprié pour comprendre les différents changements temporels qui s’opèrent dans les trajectoires de victimisation en contexte conjugal. Toutefois, le soutien empirique sur les facteurs derrière le nombre d’épisodes de la violence et ses variations au fil du temps est mince; notamment en raison de la rareté des données longitudinales ou rétrospectives requises pour ce type de recherche. Cette étude propose de combler ces lacunes dans l’analyse des trajectoires individuelles des femmes qui ont été victimes de violence conjugale. Plus spécifiquement, elle analyse l’évolution de l’occurrence et de l’intensité de la violence physique à travers le temps. L’échantillon est composé de 53 femmes, toutes victimes de violence conjugale au courant des 36 derniers mois référées par plusieurs milieux (par exemple : maisons d’hébergement, Cour municipale, centres d’aide aux victimes d’acte criminel, centres de thérapie, maisons de transition). Cette recherche est basée sur des données rétrospectives des circonstances entourant la vie de ces femmes au cours des 36 derniers mois. Les trajectoires individuelles ont été reconstruites en utilisant la méthode des calendriers d’histoire de la vie. Cette méthode qui a fait ses preuves dans l’étude des carrières criminelles et de la victimisation permet de situer les trajectoires dans leur contexte de vie et de reconstruire la dynamique derrière les victimisations. L’utilisation de la modélisation de type multiniveaux comme stratégie d’analyse est privilégiée dans cette étude. Combiné avec le calendrier d’histoire de vie, ce type de modèle permet d’examiner les changements dans la chronicité et l’intensité de la violence au sein des trajectoires individuelles des victimes. Les résultats permettent une meilleure compréhension des éléments statiques et dynamiques dernières trajectoires des femmes victimes. Cette recherche se veut avant tout exploratoire et ouvre la porte à une multitude de possibilités à de futures recherches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En Amérique du Nord, les pratiques actuelles de conception de l’industrie de la construction suscitent de nombreux et importants problèmes, tant au niveau environnemental, que social et économique. Certaines tendances conceptuelles, telles que l’industrialisation de la construction, le bâtiment vert, l’approche diachronique et la rationalisation spatiale proposent des moyens afin de répondre à cette problématique. La conception synchronique, qui ne se base encore que sur des besoins immédiats, produit des bâtiments statiques qui ne peuvent accommoder l’évolution des besoins. En plus de la phase d’usage qui se révèle la plus coûteuse en termes de consommation d’énergie, d’eau, de matériaux et de génération de déchets, le bâtiment statique est amené à subir de nombreuses rénovations, profondément délétères pour l’environnement et la situation économique des ménages. Dans une perspective d’opérationnalisation du développement durable, la problématique de recherche concerne la considération de la phase d’usage dans le processus conceptuel de l’habitation. Dans l’optique de favoriser une conception plutôt diachronique, 55 projets de rénovation résidentiels ont été analysés et comparés afin de décrire la nature et l’intensité des interventions effectuées. L’examen des plans avant/après rénovation a permis de quantifier le niveau d’intensité des interventions et ainsi, mettre en relief certaines tendances et récurrences des pratiques actuelles. Dans le but de valider si le bâtiment vert est en mesure de répondre aux enjeux environnementaux contemporains de l’habitation, les contenus de trois programmes de certification utilisés en Amérique du Nord, à savoir BOMA-BESt®, LEED®, et Living Building ChallengeTM, sont analysés. Une classification des stratégies proposées montre la répartition des préoccupations envers le bâtiment, les systèmes et l’usager. Une analyse permet de mettre en relief que les considérations semblent, de façon générale, cohérentes avec les impacts associés à l’habitation. Un examen plus ciblé sur la teneur et les objectifs des stratégies considérant l’usager permet l’émergence de deux ensembles thématiques : les cinq sources potentielles d’impacts (énergie, eau, matériaux, déchets et environnement intérieur), ainsi que les quatre thèmes reliés aux objectifs et aux finalités des stratégies (entretien et surveillance; sensibilisation et formation; modélisation et mesurage; comportement et habitude). La discussion a permis d’émettre des pistes d’écoconception pour permettre à l’habitation d’accommoder l’évolution des besoins des occupants, à savoir la « démontabilité », l’aptitude à l’évolution et l’accessibilité. Des recommandations, telles que la nécessité de mieux prendre en compte l’usager comme facteur d’influence des impacts occasionnés par la phase d’usage, sont ensuite proposées. D’autres suggestions appellent à une concrétisation de la performance en suscitant l’implication, l’engagement, la responsabilisation et l’autonomisation des occupants. Enfin, il semble que certaines modifications des programmes de certification et de la législation en vigueur pourraient favoriser l’émergence d’une vision nouvelle concernant la nécessaire réduction de la superficie habitable. Toutes ces opportunités d’amélioration ont le potentiel de mener ce secteur vers une démarche plus globale et systémique, tout en bonifiant de façon majeure les implications environnementales, économiques et sociales de l’habitation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Puisque l’altération des habitats d’eau douce augmente, il devient critique d’identifier les composantes de l’habitat qui influencent les métriques de la productivité des pêcheries. Nous avons comparé la contribution relative de trois types de variables d’habitat à l’explication de la variance de métriques d’abondance, de biomasse et de richesse à l’aide de modèles d’habitat de poissons, et avons identifié les variables d’habitat les plus efficaces à expliquer ces variations. Au cours des étés 2012 et 2013, les communautés de poissons de 43 sites littoraux ont été échantillonnées dans le Lac du Bonnet, un réservoir dans le Sud-est du Manitoba (Canada). Sept scénarios d’échantillonnage, différant par l’engin de pêche, l’année et le moment de la journée, ont été utilisés pour estimer l’abondance, la biomasse et la richesse à chaque site, toutes espèces confondues. Trois types de variables d’habitat ont été évalués: des variables locales (à l’intérieur du site), des variables latérales (caractérisation de la berge) et des variables contextuelles (position relative à des attributs du paysage). Les variables d’habitat locales et contextuelles expliquaient en moyenne un total de 44 % (R2 ajusté) de la variation des métriques de la productivité des pêcheries, alors que les variables d’habitat latérales expliquaient seulement 2 % de la variation. Les variables les plus souvent significatives sont la couverture de macrophytes, la distance aux tributaires d’une largeur ≥ 50 m et la distance aux marais d’une superficie ≥ 100 000 m2, ce qui suggère que ces variables sont les plus efficaces à expliquer la variation des métriques de la productivité des pêcheries dans la zone littorale des réservoirs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse décrit deux thèmes principaux: 1) la conception, la synthèse, et l'évaluation biophysique des nucléosides tricycliques, et 2) la synthèse de nagilactone B, un produit naturel norditerpenoïde dilactone de la famille de produits naturels “podolactone”. Le premier chapitre décrit la stratégie de design rationnel des nucléosides nommé “restriction conformationnelle double” basée sur les études de modélisation structurales des duplex ADN–ARN modifiés. Cette stratégie implique un blocage du cycle furanose dans une configuration de type N- ou S, et une restriction de la rotation torsionelle autour de l’angle γ. La première contrainte a été incorporée avec un pont méthylène entre l’oxygène en position 2′ et le carbone 4′ du nucléoside. Cette stratégie a été inspirée par les acides nucléiques bloqués (ou “locked nucleic acid”, LNA). La deuxième contrainte a été réalisée en ajoutant un carbocycle supplémentaire dans l'échafaud de l’acide nucléique bloqué. Les défis synthétiques de la formation des nucléotides modifiés à partir des carbohydrates sont décrits ainsi que les améliorations aux stabilités thermiques qu’ils apportent aux duplex oligonucléïques dont ils font partie. Chapitres deux et trois décrivent le développement de deux voies synthétiques complémentaires pour la formation du noyau de nagilactone B. Ce produit naturel a des implications pour le syndrome de Hutchinson–Gilford, à cause de son habilité de jouer le rôle de modulateur de l’épissage d’ARN pré-messager de lamine A. Ce produit naturel contient sept stereocentres différents, dont deux quaternaires et deux comprenant un syn-1,2-diol, ainsi que des lactones à cinq ou six membres, où le cycle à six ressemble à un groupement α-pyrone. La synthèse a débuté avec la cétone de Wieland-Miescher qui a permis d’adresser les défis structurels ainsi qu’explorer les fonctionnalisations des cycles A, B et D du noyau de nagilactone B.