24 resultados para Théorie de la Fonctionnelle de la Densité
Resumo:
La connectivité fonctionnelle est reconnue pour altérer la fréquence des rencontres entre les individus et potentiellement affecter les coûts en lien avec la recherche de partenaires sexuels. La structure du paysage peut conséquemment engendrer de la variation dans le succès reproducteur des individus et par le fait même, modifier les opportunités de sélection sexuelle. Le but de cette étude était d’identifier l’influence de la structure du paysage sur les patrons de paternités hors couple (EPP) chez l’Hirondelle bicolore (Tachycineta bicolor), un insectivore aérien en déclin depuis environ 30 ans au Québec. Plus précisément, il était question d’évaluer l’importance relative de la disponibilité spatiotemporelle des partenaires potentiels, de la perméabilité de l’environnement aux mouvements, des caractéristiques individuelles, et des interactions entre certaines de ces variables sur la probabilité qu’un mâle fertilise une femelle, sur le nombre de mâles hors couple ayant fertilisé une femelle et enfin, sur le nombre de jeunes hors couple produits par une femelle. Pour se faire, une approche spatialement explicite basée sur la théorie des circuits a été employée. La collecte de données s’est faite sur 8 saisons de reproduction au sein d’un réseau de 40 fermes (10 nichoirs/ferme) situé le long d’un gradient d’intensification agricole de manière à ce que les individus se retrouvent dans des conditions socioécologiques contrastées. Selon les résultats obtenus, la densité de partenaires potentiels non locaux (i.e. hors ferme, mais au sein d’un rayon de 15 km) a eu un effet négatif sur la probabilité que deux individus produisent des jeunes hors couple, probablement à cause de l’effet de dilution entre compétiteurs. Cette même variable a également induit une augmentation du nombre de pères hors couple non locaux et de leurs jeunes dans une couvée donnée, mais seulement lorsque la résistance aux déplacements était faible. La densité locale a pour sa part eu l’effet inverse, ce qui laisse penser que les femelles auraient tendance à se contenter de leurs voisins immédiats quand les coûts de recherche dans le paysage sont trop élevés en comparaison à ce qui est disponible à proximité. Quant aux caractéristiques individuelles, leurs effets semblent négligeables à l’exception faite de la charge parasitaire moyenne des mâles locaux, laquelle pousserait les femelles à chercher des mâles en dehors de la ferme lorsqu’elle est élevée. Ce facteur ne représente toutefois pas seulement un indice potentiel de la qualité des jeunes produits par ces mâles, mais aussi un risque direct de transmission de parasites lors de copulations hors couple. Somme toute, il semble que les patrons de EPP soient davantage affectés par les variables du paysage que par la morphologie et la condition physique des individus. Ces découvertes sont d’un intérêt particulier puisque la compréhension des effets de l’écologie sur les paternités hors couple est essentielle pour une meilleure connaissance de la sélection sexuelle, des stratégies d’appariement et par le fait même, des processus évolutifs. De plus, identifier le rôle joué par le paysage dans les stratégies sexuelles pourrait aider à élaborer des plans de conservation appropriés pour les espèces dont le déclin est attribuable à des changements dans l’environnement.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
Les conséquences associées aux changements climatiques peuvent déjà être perçues dans différents secteurs socio-économiques. Tel est le cas des zones côtières. Afin d’assurer la pérennité des populations dans les régions insulaires, différentes mesures d’adaptation côtières peuvent être utilisées. Or, ces mesures peuvent parfois manquer de vision à long terme et d’intégration de l’autre type de réaction aux changements climatiques soit l’atténuation. La difficulté à relier adaptation et atténuation est présente dans plusieurs secteurs, dont les zones côtières. La situation dans les territoires Québécois maritimes (plus précisément les côtes de la Côte-Nord, du Bas- Saint-Laurent et de la Gaspésie-Îles-de-la-Madeleine) est semblable à celle observée ailleurs, mais demeure unique étant donné la composition de ses côtes, l’évolution démographique de ces municipalités et son économie fortement basée sur le tourisme et l’industrie des pêches. Les principaux enjeux retrouvés dans ces territoires sont associés au tourisme, à l’industrie de la pêche, à la densité humaine et aux infrastructures qui en découlent ou au milieu naturel. Ces enjeux présentent différentes vulnérabilités face au changement climatique côtier auxquelles les municipalités doivent s’adapter. Les mesures d’adaptation côtières implantées au Québec peuvent être divisées en deux grandes catégories : les mesures techniques et les mesures règlementaires et politiques. Or, afin de s’adapter adéquatement les municipalités doivent faire preuve de multidisciplinarité et combiner les différentes techniques disponibles, ceci peut présenter une difficulté notable. La situation canadienne à l’extérieur du Québec est similaire pour les territoires Atlantiques Canadiens. Du côté du Pacifique, les types de menaces surviennent dans des proportions différentes à celles de l’Est. De façon générale, les provinces les plus à risques de la hausse du niveau des mers sont aussi celles qui utilisent principalement des mesures de protection d’urgence, optant pour une vision à court terme, ceci incluant le Québec. Le cadre législatif encadrant les territoires côtiers québécois du Golfe est complexe. En effet, il s’agit d’une combinaison de lois et règlements fédéraux et provinciaux qui s’entrecoupent, étant donné l’entrecroisement des compétences gouvernemental dans ce secteur. Ceci peut compliquer d’avantages le travail des municipalités québécoises. Afin de faciliter l’implantation de mesures d’adaptation considérant l’atténuation, les municipalités côtières québécoises pourraient développer un cadre d’évaluation des différentes mesures.
Resumo:
Au Canada, les avalanches constituent le géorisque le plus dangereux en période hivernale. On enregistre annuellement d’importants coûts économiques et sociaux associés aux impacts de ce phénomène naturel. Par exemple, la fermeture de routes en cas de risque d’avalanche est estimée à 5 millions de dollars (Jamieson et Stethem, 2002). La prévision des avalanches est, de nos jours, la meilleure méthode afin d’éviter ces coûts. Au Canada, cela s’effectue de façon ponctuelle à l’aide de méthodes manuelles tel que le test de compression (CAA, 2014). Les modèles de simulation du couvert neigeux permettent d’étendre les prévisions à l’ensemble d’une région et ainsi, atteindre certains lieux difficilement accessibles pour l’homme. On tente actuellement d’adapter le modèle SNOWPACK aux conditions canadiennes et plusieurs études ont eu pour but d’améliorer les simulations produites par celui-ci. Cette étude vise donc également l’amélioration des simulations par l’intégration des paramètres de végétation. L’objectif de l’étude est de paramétrer, pour la première fois, le module de végétation de SNOWPACK avec les données récoltées dans la réserve faunique des Chic-Chocs. Nous pourrons ainsi évaluer l’impact de la végétation sur la modélisation du couvert nival. Nous avons donc, lors de sorties de terrain, recueillis les données de neige et de végétation au niveau de quatre sites d’étude. Nous avons par la suite réalisé les simulations avec SNOWPACK et comparer les résultats des simulations avec et sans végétation aux données de terrain. L’étude nous révèle que le modèle diminue la quantité de neige au sol ainsi que la densité du manteau neigeux en présence de végétation. De plus nous avons pu constater que l’inclusion du module de végétation permet d’obtenir des données qui se rapprochent davantage de ce qui a été observé sur le terrain.
Resumo:
Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.
Resumo:
Nombreuses sont les recherches qui traitent de la participation des membres en coopérative, tantôt du point de vue historique et sociologique, tantôt du point de vue économique. Parfois, on s'interroge sur l'effervescence de la participation, parfois on questionne l'affaissement de la participation chez les membres coopérateurs. Cette étude en sera donc une de plus, mais elle se veut différente car elle s'attaque aux racines mêmes du problème, soit l'opportunité de participation offerte aux membres par l'entreprise. Comme cette recherche se situe à l'ère de la carte de paiement, ceci nous &M'aime à justifier le choix de cette année précise, 1984, laquelle voit s'opérer l'action des guichets automatiques et les changements d'habitudes des membres à travers cette nouvelle technologie. Nous nous situons aujourd'hui à une époque charnière, celle qui tranche avec les services aux membres, dits de type conventionnel (épargne, crédit, services auxiliaires) et celle qui emprunte au développement informatique et qui transforme les services, les habitudes, la participation des membres. De nouveaux services permettent désormais au membre de la Caisse populaire d'opérer la plupart de ses transactions sept (7) jours par semaine et ce, hors caisse populaire, c'est-à-dire hors entreprise. Alors, que devient l'association dans ce contexte? Si on s'entend pour dire qu'une coopérative réunit deux (2) réalités, c'est-à-dire l'association et l'entreprise, comment peut-on parler de coopérative si l'association ne "s'exprime" plus, ne "s'articule" plus par rapport à l'entreprise? A notre avis, ces deux (2) réalités doivent toujours s'y retrouver, sans quoi on ne peut parler de véritable coopérative, les clients de banque en font autant. C'est dans cette optique donc, que nous abordons la problématique de la participation. Nous croyons en définitive, que si l'entreprise favorise l'intégration du membre et à sa structure et à son organisation, que ces nouveaux lieux pourront être source de participation nouvelle. Avant d'élaborer le profil des chapitres qui composeront cette étude, il nous apparaît important de signaler que lorsque nous parlerons de coopérative d'épargne et de crédit, de conseils, de commission, de dirigeants, membres, association et entreprise, nous ferons exclusivement référence au concept "Caisse populaire Desjardins". Ceci dit, au départ, nous tenterons un rapprochement entre la théorie et la réalité participative, puis nous considérerons la diversité du phénomène participatif et du développement possible dont il peut faire l'objet. Enfin, nous aborderons l'hypothèse avancée. Dans un second chapitre, nous examinerons la méthode utilisée, ce qui nous mènera au chapitre suivant qui lui traitera des résultats détaillés, venant vérifier la question du départ. Enfin, nous considérerons une dernière fois l'hypothèse et cette fois à la lueur de la caisse de demain.
Resumo:
[...]L'objectif précis de la présente recherche est d'observer si une caractéristique du développement psychologique des individus - la différenciation psychologique - exerce une influence sur les préférences interpersonnelles que se manifestent entre eux des élèves dans le cadre de quelques-unes de leurs activités sociales sur les lieux de leur institution d'enseignement. Il s'agit plus particulièrement de vérifier si la différenciation psychologique constitue une caractéristique individuelle associée au statut sociométrique - établi selon un critère de popularité - d'élèves québécois francophones, de niveau secondaire IV, observés en situation de travail en équipe lors d'une classe de français et lors d'une classe de physique. Une autre situation qui est considérée dans la présente recherche concerne les relations sociales entre des élèves à la cafétéria, à l'heure du repas. Dans toutes ces situations d'interaction sociale, nous nous intéressons donc à étudier le rôle particulier d'une caractéristique individuelle susceptible d'influencer la désirabilité sociale de l’individu. L'idée de considérer la variable qu'est la différenciation psychologique comme étant particulièrement importante dans cette recherche découle de deux raisons principales. La première de ces raisons se rapporte au fait que la théorie qui est rattachée à cette variable, la théorie de la différenciation psychologique, a déjà suscité l'intérêt d'un grand nombre de recherches dans les domaines de l'étude de la personnalité et des comportements interpersonnels et qu'il existe aussi à ce sujet quelques travaux sur l'étude de l'attirance interpersonnelle dans des classes d'élèves. Pour cette raison, nous pouvons tenter ici de pousser plus loin la démarche entreprise par d'autres chercheurs. La seconde raison concerne le fait qu'il s'agit d'une variable psychologique dont la relation a déjà été étudiée en regard de quelques matières d'enseignement scolaire et aussi en regard de la mesure de l'intelligence. Des recherches effectuées dans le domaine scolaire révèlent par exemple que la mesure de la différenciation psychologique peut servir à estimer quel sera le rendement académique des élèves quant aux matières d'enseignement faisant appel à des habiletés d'analyse et de raisonnement mathématique. [...]
Resumo:
Le caribou de Peary, désigné en voie de disparition, n’est pas épargné par les changements climatiques. Par le passé, des hivers successifs caractérisés par des conditions météorologiques extrêmes ont entrainé des déclins importants de population en quelques années, pouvant aller jusqu’à 98 %. L’augmentation des épisodes de redoux hivernaux et de pluies sur neige réduit les conditions d’accès à la nourriture de cette sous-espèce. Ces conditions ont pour conséquence d’augmenter la densité des couches de neige dans le manteau neigeux, ce qui empêche le caribou d’avoir accès au fourrage couvrant le sol en hiver. Dans cet esprit, l’outil de spatialisation de SNOWPACK dans l’Arctique (OSSA) développé dans Ouellet et al. (2016) permet la spatialisation des conditions d’accès à la nourriture du caribou de Peary en utilisant le modèle de simulation du couvert nival SNOWPACK. Le paramètre du couvert nival utilisé est l’épaisseur cumulée au-delà d’un seuil fixe de densité durant la saison hivernale (ECD). L'OSSA fournit un résultat d’une résolution spatiale de 32 km puisque les données météorologiques utilisées sont les données de réanalyses du North American Regional Reanalysis (NARR) qui possède une résolution de 32 km. Cette résolution grossière ne permet pas de documenter et prédire la migration locale des différentes populations sur les îles de l'archipel arctique canadien. L’objectif principal de ce projet est donc d’évaluer le potentiel d'une approche de raffinement spatial de l'OSSA à une résolution de 1 km. Afin d’affiner la résolution spatiale de la simulation de l’ECD, des données de pente et de l’albédo du sol à une résolution de 1 km ont été utilisées. Avant d’effectuer les simulations à haute résolution, la sensibilité de l’ECD à ces deux paramètres du terrain a été testée. Les simulations préliminaires ont permis de démontrer que plus la pente est élevée, plus l’ECD sera faible. Également, il a été identifié que la pente va affecter l’ECD à partir d’un seuil de 3 degré. L’albédo du sol a aussi un impact significatif sur l’ECD, mais à un niveau moins important que la pente. Finalement, la comparaison des résultats à faible et haute résolution a pu démontrer que l’approche de raffinement spatial appliquée permet d’obtenir une information plus détaillée des conditions d’accès à la nourriture du caribou de Peary. Les résultats d’ECD obtenus à 1 km de résolution montrent des écarts avec l’ECD à 32 km de résolution pouvant dépasser les 2000 cm. Finalement, cette étude montre l’intérêt d’automatiser cette approche afin de pouvoir spatialiser les conditions d’accès à la nourriture à une résolution de 1 km et de prédire certaines micro-variabilités dans les déplacements futurs des caribous de Peary en fonction des changements climatiques.
Resumo:
Le présent essai explique la conception d’un dispositif d’autoformation visant à améliorer le développement de la compétence de mise à jour continue des savoirs chez les étudiantes et les étudiants du programme Techniques d’intégration multimédia. L’idée de ce dispositif prend racine dans des préoccupations en lien avec le développement des compétences du 21e siècle et la mise en place de plans de littératie numérique à travers le monde afin de relever les compétences chez la citoyenne et le citoyen à qui on demande de s’adapter, apprendre et maîtriser les changements de manière rapide et efficiente (OCDE, 2000). La littératie numérique regroupe les compétences associées aux savoir-faire reliés à l’utilisation des technologies, mais aussi aux savoir-être nécessaires à leur utilisation critique et éthique, en plus de savoir-apprendre nécessaires à une utilisation innovante et créative de ces mêmes technologies. C’est ce savoir apprendre qui nous intéresse particulièrement dans le contexte où les étudiantes et les étudiants du programme Techniques d’intégration multimédia sont confrontés à des exigences élevées et constantes de mise à jour continue de leurs savoirs. Le cadre de référence de notre essai permet d’identifier les compétences et les habiletés qui sont en lien avec le développement de la compétence de mise à jour continue des savoirs dans quatre plans de littératie numérique internationaux et nationaux, dont Le profil TIC des étudiants du collégial proposé par le Réseau REPTIC (2015). Nous étayons ensuite la définition de la mise à jour continue des savoirs grâce aux travaux fondateurs de Knoles (1975), Straka (1997a), Carré (1997), Long (1988), Foucher (2000) et Tremblay (2003) qui s’intéressent aux concepts de l’« apprentissage autodirigé » et de l’« autoformation ». De ces deux concepts, nous dégageons trois dimensions principales à considérer afin d’améliorer le développement de la mise à jour continue des savoirs: la dimension sociale, la dimension psychologique et la dimension pédagogique. Premièrement, pour la dimension sociale, nous référons aux enjeux contemporains du développement de la littératie numérique et au concept de sujet social apprenant supporté par les travaux de Roger (2010) et de Piguet (2013). Deuxièmement, la dimension psychologique renvoie aux aspects motivationnels appuyés par la théorie de l’autodétermination de Deci et Ryan (2000) et aux aspects volitionnels supportés par la théorie de l’autorégulation de Zimmerman (1989). Finalement, pour la dimension pédagogique nous présentons la théorie du socioconstructivisme, la perspective pédagogique du connectivisme (Siemens, 2005) et la classification des stratégies d’apprentissage proposée par Boulet, Savoie-Zajc et Chevrier (1996). Nous poursuivons notre réflexion théorique en considérant divers modes d’apprentissage à l’aide des outils du Web 2.0 dont les blogues, les communautés et l’apprentissage en réseau. Nous concluons notre cadre de référence par la présentation du système d’apprentissage de Paquette (2002), du modèle des sept piliers de l’autoformation de Carré (1992, 2005) auxquels nous superposons les recommandations de Debon (2002) et finalement la présentation du modèle d’ingénierie pédagogique ADDIE de Lebrun (2007), tous quatre utiles à l’application d’un processus systémique de développement de notre dispositif d’autoformation. Notre recherche développement s’inscrit dans un paradigme interprétatif avec une méthodologie qualitative. Les collectes de données ont été effectuées auprès d’étudiantes et d’étudiants du programme Techniques d’intégration multimédia. Ces participantes et participants volontaires ont été utiles à la tenue d’un groupe de discussion en cours d’implantation et d’un questionnaire électronique utile à l’évaluation du dispositif d’autoformation. À la lumière de nos résultats, nous pensons que notre dispositif d’autoformation permet d’atteindre son objectif d’améliorer le développement de la compétence de mise à jour continue des savoirs des étudiantes et des étudiants du programme Techniques d’intégration multimédia. L’interprétation de nos résultats permet d’affirmer que notre dispositif d’autoformation, conçu par l’application d’un processus systémique fidèle aux constats dégagés par notre cadre de référence, permet de couvrir les trois dimensions que nous avons identifiées comme essentielles à l’autoformation, soit la dimension sociale, la dimension psychologique et la dimension pédagogique, mais surtout de confirmer leur réelle importance dans le développement de la compétence de la mise à jour continue des savoirs. Tel que nous le présentons dans notre cadre de référence, nous constatons que la dimension sociale déclenche les processus motivationnels et volitionnels qui sont propres à la dimension psychologique de l’apprentissage autodirigé ou de l’autoformation. Nous sommes à même de constater qu’il existe en effet un lien entre la dimension sociale et la théorie de la motivation autodéterminée qui accorde une importance aux facteurs sociaux qui facilitent la motivation en répondant à des besoins psychologiques fondamentaux. De plus, nous constatons que les outils développés dans le cadre de notre essai, tels que le plan de travail et le rapport de temps, jouent un rôle d’autorégulation crucial pour les étudiantes et les étudiants dans leur processus de surveillance et d’ajustement cognitif tel par la fixation d’objectifs, l’auto-évaluation, l’ajustement stratégique de ses méthodes d’apprentissage et la gestion du temps qu’ils permettent. Nous pensons que notre essai présente des retombées pour le programme Techniques d’intégration multimédia principalement en lien avec des pistes concrètes d’amélioration de la compétence de mise à jour continue des savoirs pour les étudiantes et les étudiants du programme et le développement d’une expertise dans l’application rigoureuse d’une ingénierie pédagogique pour le développement futur de différents dispositifs d’apprentissage. Nous identifions deux perspectives de recherches futures en lien avec notre essai. Premièrement, nous pensons qu’il serait intéressant d’explorer la capacité heuristique de l’apprentissage en réseau dans une perspective sociale, psychologique et pédagogique de l’autoformation, à l’instar des travaux de Henri et Jeunesse (2013). Deuxièmement, nous pensons qu’il serait intéressant d’améliorer le développement de la littératie numérique sous ses aspects de créativité et d’innovation dans un contexte où notre programme d’enseignement outille nos étudiantes et nos étudiants à une utilisation experte des technologies, leur permettant ainsi de mettre ces compétences à contribution dans une exploitation créative et innovante des technologies.
Resumo:
Depuis environ 40 ans, l’intensification des pratiques agricoles a grandement transformé le paysage agricole et ce tant, dans les Amériques qu’en Europe. Quoique, plusieurs espèces animales soient affectées négativement par ces changements, certaines espèces en bénéficient. C’est le cas de la Grande Oie des neiges (Chen caerulescens atlantica) qui a vu sa population croître de façon importante et ce, au point de devenir problématique. De fait, la Grande Oie des neiges cause des dommages importants aux cultures du Québec (1 646 229 ± 800 000 par an entre 2009 et 2015) et aux écosystèmes qu’elle utilise lorsqu’elle fait halte dans la vallée du Saint-Laurent, Québec, Canada. Bien que plusieurs actions aient été tentées pour contrôler sa population le problème persiste. La quête alimentaire des animaux est entre autres modulée par les comportements anti-prédateurs, tels que le temps passé en vigilance et une utilisation différentielle des habitats. Ces comportements sont à leur tour affectés par le risque de prédation et la vie en groupe. En effet, le risque de prédation perçu par un individu dépend entre autres (1) de la taille du groupe auquel il appartient ; (2) de la densité et de l’activité des proies et des prédateurs dans l’environnement ; (3) de son niveau de connaissance de l’environnement ; et (4) des caractéristiques du paysage qu’il occupe. Il s’ensuit que le risque de prédation varie dans l’espace et dans le temps. La représentation cartographique de ce risque à un moment donné consiste en un paysage de la peur, où chaque location ou chaque élément d’un paysage se voit associé un risque de prédation. On s’attend donc à ce que la quête alimentaire des individus, tant dans leur utilisation des habitats que dans leur budget d’activité, soit affectée par la structure du paysage de la peur. Par conséquent, on peut se demander si le paysage de la peur peut être utilisé comme outil de gestion d’une espèce, notamment pour la Grande Oie des neiges. Mon objectif est de quantifier comment la perception du risque de prédation par la Grande Oie des neiges varie en fonction de différents éléments des paysages agricoles visités par les oies, mais aussi de quantifier cette variation selon différentes contraintes énergétiques et temporelles durant leurs haltes migratoires. Ceci afin de voir si le paysage de la peur pourrait être utiliser comme outil de gestion. À ce titre, je vise à mesurer l’effet du type de cultures, de la nature de l’élément paysager, de la distance de celui-ci et du niveau de compétition intraspécifique au sein des sites d’alimentation et ce, durant les deux migrations, sur l’utilisation des habitats et le budget d’activité des oies. Je pose que les oies prendront plus de risques si les contraintes temporelles sont fortes, de même que si elles se nourrissent dans une parcelle alimentaire de haute qualité et si elles subissent une plus forte de compétition. Pour ce faire, j’ai parcouru les Basses-Terres-du-Saint-Laurent de Salaberry-de-Valleyfield jusqu’à l’Islet lors des printemps 2014 et 2015 et de l’automne 2014. J’ai ainsi repéré et observé 141 groupes d’oies exploitant des terres agricoles pour lesquels j’ai noté la position des individus dans les champs et mesuré leur taux de vigilance, de même que noté divers facteurs qui pourraient affecter ces deux comportements, dont le type de cultures exploitées et le fait d’être ou non au sein d’une zone où la chasse est permise. Au printemps, le taux de vigilance des oies était, plus élevé dans les cultures de maïs, plus bas si la densité locale d’oies augmentait et plus bas dans les sanctuaires (i.e., en absence de chasse). Alors qu’à l’automne, le taux de vigilance était, plus élevé à proximité d’une route ou d’un fossé et plus élevé en bordure du groupe. Au printemps, la distance aux éléments du paysage potentiellement dangereux était, plus grande face à une bordure de forêt et plus faible face à la route. La distance était plus petite dans les cultures de maïs, plus élevée dans le foin et plus faible dans les sanctuaires. À l’automne, les effets des différents éléments étaient semblables à ceux du printemps. La distance était plus grande si la taille du groupe augmentait et plus petite dans les sanctuaires. De plus, les oies semblaient montrer un évitement des bordures forestières alors que les autres éléments du paysage étudiés ne semblent pas être sélectionnés ou évités. Les oies subissent des contraintes différentes au printemps et à l’automne. Ces contraintes semblent moduler la prise en compte du risque de prédation entre les saisons. En effet, les oies semblent privilégier l’alimentation au détriment de la prise de risques au printemps, une décision probablement liée à la reproduction dont le succès dépend d’une arrivée relativement hâtive sur les aires de nidification arctiques et donc, des réserves énergétiques accumulées sur les haltes migratoires. En opposition, les oies semblent prendre davantage conscience du risque de prédation dans leur quête alimentaire à l’automne, ce qui pourrait être lié au fait qu’elles sont accompagnées de leurs jeunes et à une contrainte énergétique et temporelle plus faible qu’au printemps. En bref, les oies semblent subir les effets de la peur reliée à la chasse. Mes résultats semblent indiquer que le paysage de la peur pourrait être utilisé dans les stratégies de gestion. Par exemple, en instaurant des haies brise-vent dans les secteurs où le risque de dommages agricoles est élevé, le risque de prédation perçu par les oies y serait plus élevé et pourrait ainsi diminuer l’utilisation de ces secteurs.
Resumo:
Résumé : À l’aube des études humiennes, Norman Kemp Smith appelait à représenter Hume « suivant toutes ses nombreuses activités », comme s’il pressentait que l’étude de la pensée humienne pouvait s’avérer un labyrinthe dans lesquels les commentaires pouvaient s’égarer et se perdre de vue. Ce pressentiment, on peut le dire aujourd’hui, s’est avéré juste, et il porte avec lui une clé de lecture : pour dépasser la représentation parcellaire, fragmentée et ultimement incohérente d’un Hume kaléidoscopique, le mieux est peut-être de s’intéresser à ses activités. La présente thèse vise à circonscrire la pratique humienne de la philosophie, ou, pourrait-on dire, du travail épistémologique et conceptuel, dans l’espace de son magnum opus, et cela à l’aide d’une clé de lecture : celle du réductionnisme. Si le Traité est une oeuvre que l’on peut qualifier d’empiriste, on ne saurait la lire seulement par ce biais ou par celui de questions localisées, et nous montrons que le projet du Traité ne peut se comprendre qu’en voyant comment Hume tente d’y réduire la et les connaissances à des dépendances ou à des parties de sa propre théorie de la nature humaine. Pour cela, nous procédons via quatre chapitres. D’abord, nous tentons de circonscrire les caractéristiques les plus importantes du projet humien, c’est-à-dire de ce que Hume avait l’intention de développer à travers les contenus particuliers du Traité ; ensuite, nous nous concentrons sur la base dont Hume part et dont il se servira pour accomplir des réductions, base que l’on peut appeler une théorie des perceptions doublée d’une théorie de l’esprit (principes, facultés, relations) ; ces deux théories, couplées à un standard strict pour obtenir le statut de « vraie idée » ou d’idée intelligible, semblent amener de par leurs prémisses assez directement au scepticisme, et c’est pourquoi on traitera du scepticisme avant d’évoquer les aspects « naturalistes » du Traité au-delà des éléments de base de la théorie des perceptions et de l’esprit, soit une manoeuvre qui ne suit pas tout à fait l’ordre humien d’exposition mais nous semble suivre un certain ordre des raisons ; enfin, la quatrième partie nous permettra de passer en revue diverses réductions opérées par Hume, celles qui mènent au scepticisme pyrrhonien mises à part, ce qui nous permettra de voir quelles sont les limites et les problèmes afférents à son réductionnisme particulier. Refondateur, systématique et totalisant dans ses intentions, le Traité suit bien plus qu’un projet simplement empiriste, et on verra que dans la démarche humienne l’empirisme apparaît davantage dans les conclusions qu’au point même de départ. En le lisant comme le lieu et la conséquence d’une orientation que l’on peut dire réductionniste, on peut trouver dans le Traité un fil conducteur qui, en dépit de problèmes plus ou moins importants rencontrés en cours de route, ne se rompt pas.
Resumo:
Les changements environnementaux actuels entrainent des modifications importantes dans les pressions de sélection qui agissent sur les populations naturelles. Cependant, la capacité de réponse des populations à ces modifications et l’importance relative des différents mécanismes comme la plasticité phénotypique et les changements de la composition génétique des populations restent encore trop peu connus. L’objectif général de ma thèse était donc d’évaluer les rôles de la plasticité phénotypique et de la variation génétique sur le potentiel évolutif en population naturelle. Pour ce faire, j’ai utilisé comme modèle d’étude l’Hirondelle bicolore (Tachycineta bicolor), un passereau migrateur qui est suivi dans le Sud du Québec depuis 2004 dans un environnement hétérogène. Dans un premier temps (chapitre 2), j’ai évalué les déterminants environnementaux de la date de ponte et évalué leurs effets à des niveaux individuels et populationnels de plasticité phénotypique. Comme observé chez de nombreuses espèces aviaires, la température avait un effet important sur la synchronisation de la ponte, similaire au niveau individuel et populationnel, avec les dates de ponte plus hâtive lorsque les températures étaient plus chaudes. Par contre, ces relations semblaient contraintes par la densité locale d’hirondelles, considérée dans ce système d’étude comme un indice de la qualité de l’environnement. Plus précisément, les réponses plastiques à la température étaient moins prononcées à faible densité, c’est-à-dire dans les habitats plus contraignants. Ces résultats suggèrent donc que malgré la présence de plasticité phénotypique chez une espèce donnée, son efficacité pour pallier les changements climatiques peut être inégale entre les populations. Dans un deuxième temps (chapitre 3), je me suis intéressée à 4 gènes candidats liés à la phénologie (CLOCK, NPAS2, ADCYAP1 et CREB1) montrant de la variation de type courtes répétitions en tandem, et à leur relation avec deux traits phénologiques, la date de ponte et le temps d’incubation. Ces analyses ont montré plusieurs relations entre la variation observée à ces gènes et celle des traits phénologiques étudiés, dans la plupart des cas en interaction avec des variables environnementales (densité locale, latitude ou température printanière). Par exemple, les femelles avec en moyenne des allèles plus courts au gène CLOCK pondaient plus tôt que celles avec des allèles plus longs, une relation plus marquée à densité locale élevée. Les différents résultats suggèrent l’importance que peuvent prendre les interactions génotype-environnement, qui sont rarement prises en compte dans les études de gènes candidats, et qui pourraient expliquer une partie des résultats discordants entre les celles-ci. Dans un troisième temps (chapitre 4), j’ai vérifié la faisabilité d’une étude en génétique quantitative avec les données récoltées dans le système d’étude utilisée, caractérisé par un fort taux de reproduction hors couple et un faible recrutement des oisillons. Plus précisément, j’ai testé à l’aide de données empiriques et simulées la précision et l’exactitude des estimations d’héritabilité et de corrélations génétiques pour trois types de traits, morphologiques, reproducteurs et d’oisillons. Les résultats suggéraient un manque de précision important pour les traits morphologiques et reproducteurs, de même que des biais considérables lors de l’utilisation du pédigrée social plutôt que du pédigrée génétique. Ces analyses révèlent entre autres l’utilité des simulations pour tester adéquatement la faisabilité d’une étude en génétique quantitative sur une population donnée. Dans une dernière étude (chapitre 5), j’ai documenté les effets de l’hétérogénéité environnementale et de l’utilisation de différentes approches de génétique quantitative sur les prédictions de réponses évolutives en population naturelle. Plus particulièrement, cette étude s’est concentrée sur trois traits morphologiques (masse, longueur de l’aile et du tarse) mesurés à différents moments au cours du développement des oisillons. Les différentes analyses ont montré une sélection plus forte à faible densité locale pour la masse à 12 jours ainsi que des variations dans les composantes de variances phénotypiques selon la qualité de l’environnement (densité locale faible ou élevée) pour la plupart des combinaisons trait-âge étudiées. Il en résultait une tendance à des réponses évolutives prédites plus grandes à faible densité locale. Par contre, les prédictions obtenues avec l’équation du reproducteur et le second théorème de la sélection différaient fréquemment, et contrastaient grandement avec les tendances phénotypiques observées. En somme, les résultats de ma thèse suggèrent que les possibilités d’ajustement aux changements environnementaux par la plasticité phénotypique et d’adaptation par des changements génétiques entre les générations peuvent varier selon l’environnement expérimenté par une population. Mes recherches contribuent à une meilleure compréhension des facteurs et mécanismes influençant la persistance à long terme des populations naturelles face aux modifications dans les pressions de sélection.
Resumo:
Le nombre de jeunes avec un surplus de poids est en hausse au Canada (Roberts, Shields, de Groh, Aziz et Gilbert, 2012). Les conséquences négatives de cette condition sont multiples pour le jeune, actuellement et pour son avenir. La recherche visant à comprendre les raisons de cette augmentation cible, entre autres, les environnements alimentaires dont le paysage scolaire. Des restaurants rapides et des dépanneurs sont dénombrés dans l’environnement alimentaire bâti en milieu scolaire (Lalonde et Robitaille, 2014). La présence et la concentration de commerces alimentaires dans le voisinage des écoles favorisent l’achat d’aliments et de boissons par les jeunes (He, Tucker, Gilliland, Irwin, Larsen, et Hess, 2012a; Robitaille, Paquette, Cutumisu, Lalonde, Cazale, Traoré et Camirand, 2015; Seliske, Pickett, Rosu et Janssen, 2013; Virtanen, Kivimäki, Ervasti, Oksanen, Pentti, Kouvonen, Halonen, Kivimäki, Vahtera, 2015). Pourtant, le lien causal entre le paysage alimentaire scolaire et les achats des jeunes n’est pas soutenu par la littérature scientifique actuelle. À Sherbrooke, un changement dans l’environnement alimentaire bâti est survenu en 2012 suite à l’implantation de commerces alimentaires en périphérie d’une école secondaire. Ce projet était une occasion exceptionnelle de valider si la modification naturelle de la densité alimentaire autour d’une école avait un effet sur les comportements d’achat des jeunes dans cet environnement. L’objectif de ce travail de maîtrise était de mesurer le lien entre les comportements d’achat des jeunes du secondaire dans l’environnement alimentaire bâti en milieu scolaire et la densité de certains commerces alimentaires circonscrite autour de leur école. L’hypothèse émise était que les jeunes dont l’école était entourée d’une densité plus élevée de commerces alimentaires étaient plus nombreux à acheter des aliments et des boissons dans ces commerces que les autres adolescents. Pour ce faire, un questionnaire auto-administré a été rempli en classe par des élèves de trois écoles secondaires sherbrookoises. Les données obtenues ont permis de documenter les comportements d’achat de près de 3 000 jeunes en 2013. Ces comportements d’achat ont été comparés à ceux collectés dans le Portrait des jeunes sherbrookois de 4 à 17 ans en matière d’alimentation et d’activité physique et sportive réalisé en 2008 (n = 3 867) (Morin et al., 2009a). Parallèlement, une cartographie des environnements alimentaires autour de chaque école participante à chaque temps a permis de décrire les densités alimentaires scolaires. Au regard de l’environnement alimentaire bâti en milieu scolaire, peu de liens existent entre la prévalence d’acheteurs le midi et la densité de restaurants rapides autour des écoles, selon nos résultats. Seul l’effet défavorable d’une très forte concentration en restaurants rapides (soit plus d’une douzaine) a émergé de nos résultats. De plus, aucune tendance n’a été décelée entre l’évolution du paysage alimentaire autour des écoles entre les deux temps et les changements dans les prévalences d’acheteurs. Ainsi, les efforts fournis pour diminuer la densité alimentaire en périphérie des écoles doivent être remis en question considérant le faible effet mesuré sur les comportements d’achat des jeunes dans notre étude. En ce qui trait aux comportements d’achat des jeunes, nos résultats ont montré que seule une faible proportion de jeunes était des consommateurs dans les environnements alimentaires scolaires. En effet, moins d’un jeune sur dix a acheté un aliment ou une boisson sur l’heure du midi dans un restaurant rapide dans la semaine sondée. Cette pratique ne semblait donc pas caractériser le régime alimentaire global des jeunes et ainsi, son influence réelle sur la hausse des taux d’obésité est incertaine (Macdiarmid, Wills, Masson, Craig, Bromley et McNeill, 2015). De plus, selon nos résultats, la prévalence des acheteurs au restaurant rapide durant une semaine typique a diminué entre les deux temps. D’un autre côté, la qualité nutritive des achats dans ces commerces durant une semaine s’était améliorée entre les deux temps. Cependant, les choix moins nutritifs étaient toujours achetés par plus de jeunes que les aliments et les boissons nutritifs. Les quantités achetées à chaque visite dans un restaurant rapide étant inconnues dans notre étude, il était difficile de statuer sur l’effet réel des achats sur les prévalences d’obésité. En conclusion, il demeure essentiel d’améliorer les habitudes alimentaires des jeunes, entre autres, dans les restaurants rapides lors d’une journée scolaire (Macdiarmid et al., 2015). Par conséquent, l’offre alimentaire dans l’environnement alimentaire bâti en milieu scolaire doit être bonifiée, par exemple en collaborant avec les commerçants alimentaires déjà établis. Il faut également maintenir les efforts déployés pour améliorer l’environnement alimentaire dans l’école et élaborer des stratégies pour que les jeunes mangent à la cafétéria de l’école.
Resumo:
Résumé : Les aménagements axés sur le transport en commun (transit-oriented development ou TOD) reposent sur la création de développements résidentiels à proximité d’un nœud de transport existant. Dans le cadre de cet essai, on cherche plutôt à identifier les quartiers existants de Montréal possédant déjà les caractéristiques propices à l’aménagement d’un TOD, mais mal desservis par les transports en commun. En s’inspirant d’une étude menée aux Pays-Bas, on a eu recours à une analyse spatiale multicritères afin de concevoir un «indice du potentiel TOD», comportant quatre critères jugés essentiels, soit : la densité d’habitants, la mixité des utilisations du sol, la mixité sociale, ainsi que la distance aux transports. Malgré la difficulté d’intégrer l’ensemble des critères identifiés dans la littérature, les résultats révèlent un fort potentiel TOD sur le Plateau Mont-Royal, dans le Sud-Ouest, Hochelaga-Maisonneuve et plus particulièrement dans Anjou et Saint-Michel. On recommande notamment un secteur situé dans Saint-Michel, dont le potentiel TOD pourrait être enrichi par la création de plus fortes connexions au réseau de transports en commun.
Resumo:
Notre recherche porte sur une approche pédagogique qui nous a amenée à élaborer un matériel spécifique rejoignant l'image mentale auditive et l'image mentale visuelle chez les élèves de 2e secondaire. L'objectif de cette recherche est de vérifier si cette pédagogie permettrait à tous les élèves de réussir, si elle rendrait les résultats des groupes d'élèves plus homogènes et s'il serait possible grâce à elle d'atteindre un haut degré de satisfaction des élèves à l'égard du cours d'économie familiale. L'expérimentation a été réalisée auprès de quatre groupes, deux groupes expérimentaux et deux groupes témoins. Pour les groupes témoins, l'enseignement traditionnel ou exposé collectif a été utilisé. Pour les groupes expérimentaux, un enseignement favorisant la gestion mentale basée sur la théorie de La Garanderie avec un nouveau document pédagogique appuyé de matériel spécifique a été utilisé. Cette approche pédagogique s'appuie également sur la théorie de Bloom sur l'évaluation formative et sur l'évaluation sommative. Les analyses statistiques n'ont pas montré de différence significative entre les performances moyennes de chacun des groupes, sauf pour le groupe expérimental fort. Toutefois, nous pouvons remarquer une plus grande homogénéité chez les groupes expérimentaux et une plus grande satisfaction des élèves.