828 resultados para GRASP filtering


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse en cotutelle avec Université de Nantes - Pays de La Loire - France (2005-2010)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nœud auriculoventriculaire (AV) joue un rôle vital dans le cœur normal et pathologique. Il connecte les oreillettes aux ventricules et, grâce à sa conduction lente, génère un délai entre les contractions auriculaire et ventriculaire permettant d’optimiser le pompage sanguin. Sa conduction lente et sa longue période réfractaire font du nœud AV un filtre d’impulsions auriculaires lors de tachyarythmies assurant ainsi une fréquence ventriculaire plus lente favorable au débit cardiaque. L’optimisation de ce filtrage est une cible dans le traitement de ces arythmies. Malgré ce rôle vital et de nombreuses études, le nœud AV demeure l’objet de plusieurs controverses qui en rendent la compréhension laborieuse. Nos études expérimentales sur des préparations isolées de cœurs de lapin visent à apporter des solutions à certains des problèmes qui limitent la compréhension des propriétés fréquentielles du nœud AV. Le premier problème concerne la définition de la propriété de récupération nodale. On s’accorde généralement sur la dépendance du temps de conduction nodale (intervalle auriculo-Hissien, AH) du temps de récupération qui le précède mais un débat presque centenaire persiste sur la façon de mesurer ce temps de récupération. Selon que l’on utilise à cette fin la longueur du cycle auriculaire (AA) ou l’intervalle His-auriculaire précédent (HA), la même réponse nodale montre des caractéristiques différentes, un paradoxe à ce jour inexpliqué. Le temps de conduction nodale augmente aussi avec le degré et la durée d'une fréquence rapide, un phénomène appelé fatigue. Or, les caractéristiques de la fatigue mesurée varient avec l’indice de récupération utilisé (AA vs. HA). De plus, une troisième propriété appelée facilitation qui entraîne un raccourcissement du temps de conduction diffère aussi avec l’indice de récupération utilisé. Pour établir l’origine de ce problème, nous avons déterminé les différences entre les courbes de récupération (AH compilé en fonction du AA ou HA) pour 30 états fonctionnels nodaux différents. Ces conditions étaient obtenues à l’aide de protocoles permettant la variation du cycle de base (BCL) et du cycle prétest (PTCL), deux paramètres connus pour altérer la fonction nodale. Nous avons pu établir que pour chaque état fonctionnel, la forme de la courbe de récupération et le niveau de fatigue étaient les mêmes pour les deux indices de récupération. Ceci s’applique aussi aux données obtenues à des BCL et PTCL égaux comme dans les protocoles de stimulation prématurée conventionnels couramment utilisés. Nos résultats ont établi pour la première fois que les propriétés nodales de récupération et de fatigue sont indépendantes de l’indice de récupération utilisé. Nos données montrent aussi que les différences entre les courbes de récupération en fonction de l’indice utilisé proviennent d’effets associés aux variations du PTCL. Notre deuxième étude établit à partir des mêmes données pourquoi les variations du PTCL altèrent différemment les courbes de récupération selon l’indice utilisé. Nous avons démontré que ces différences augmentaient en proportion directe avec l’augmentation du temps de conduction au battement prétest. Cette augmentation cause un déplacement systématique de la courbe construite avec l’intervalle AA vers la droite et de celle construite avec l’intervalle HA vers la gauche. Ce résultat met en évidence l’importance de tenir compte des changements du temps de conduction prétest dans l’évaluation de la fonction nodale, un paramètre négligé dans la plupart des études. Ce résultat montre aussi que chacun des deux indices a des limites dans sa capacité d’évaluer le temps de récupération nodale réel lorsque le temps de conduction prétest varie. Lorsque ces limites sont ignorées, comme c’est habituellement le cas, elles entraînent un biais dans l’évaluation des effets de fatigue et de facilitation. Une autre grande difficulté dans l’évaluation des propriétés fréquentielles du nœud AV concerne son état réfractaire. Deux indices sont utilisés pour évaluer la durée de la période réfractaire nodale. Le premier est la période réfractaire efficace (ERPN) définie comme l’intervalle AA le plus long qui n’est pas conduit par le nœud. Le deuxième est la période réfractaire fonctionnelle (FRPN) qui correspond à l’intervalle minimum entre deux activations mesurées à la sortie du nœud. Paradoxalement et pour des raisons obscures, l’ERPN augmente alors que la FRPN diminue avec l’augmentation de la fréquence cardiaque. De plus, ces effets varient grandement avec les sujets, les espèces et l’âge. À partir des mêmes données que pour les deux autres études, nous avons cherché dans la troisième étude l’origine des variations fréquentielles de l’ERPN et de la FRPN. Le raccourcissement du BCL prolonge l’ERPN mais n’affecte pas la FRPN. L’allongement de l’ERPN provient principalement d’un allongement du temps de conduction prétest. Un PTCL court en comparaison avec un BCL court allonge encore plus substantiellement le temps de conduction prétest mais raccourcit en même temps l’intervalle His-auriculaire, ces deux effets opposés s’additionnent pour produire un allongement net de l’ERPN. Le raccourcissement de l’intervalle His-auriculaire par le PTCL court est aussi entièrement responsable pour le raccourcissement de la FRPN. Nous avons aussi établi que, lorsque la composante du temps de conduction prétest est retirée de l’ERPN, un lien linéaire existe entre la FRPN et l’ERPN à cause de leur dépendance commune de l’intervalle His-auriculaire. Le raccourcissement combiné du BCL et du PTCL produit des effets nets prévisibles à partir de leurs effets individuels. Ces effets reproduisent ceux obtenus lors de protocoles prématurés conventionnels. Ces observations supportent un nouveau schème fonctionnel des variations fréquentielles de l’ERPN et de la FRPN à partir des effets distincts du BCL et du PTCL. Elles établissent aussi un nouveau lien entre les variations fréquentielles de l’ERPN et de la FRPN. En conclusion, la modulation fréquentielle de la fonction du nœud AV provient de la combinaison d’effets concurrents cumulatifs liés au cycle de base et non-cumulatifs liés au cycle prétest. Ces effets peuvent être interprétés de façon consistante indépendamment de l’indice de récupération en tenant compte des changements du temps de conduction au battement prétest. Les effets fréquentiels disparates sur l’ERPN et la FRPN sont aussi grandement liés aux changements du temps de conduction prétest. Lorsque l’analyse tient compte de ce facteur, l’ERPN et la FRPN montrent des variations parallèles fortement liées à celles de l’intervalle His-auriculaire. Le nouveau schème fonctionnel des propriétés fréquentielles du nœud AV supporté par nos données aidera à mieux cibler les études sur les mécanismes cellulaires contrôlant la modulation fréquentielle nodale. Nos données pourraient aider à l’interprétation et au contrôle des réponses nodales diverses associées aux tachyarythmies supraventriculaires et à leur traitement pharmacologique. En bref, nos travaux supportent une compréhension factuelle améliorée du comportement fréquentiel du nœud AV, un domaine aux applications multiples en rythmologie cardiaque.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Par cette recherche, nous voulons évaluer de manière exhaustive les bénéfices qu’apporte l’ExAO (Expérimentation Assistée par Ordinateur) dans les laboratoires scolaires de sciences et technologie au Liban. Nous aimerions aussi qu’elle contribue d’une manière tangible aux recherches du laboratoire de Robotique Pédagogique de l’Université de Montréal, notamment dans le développement du µlaboratoire ExAO. Nous avons voulu tester les capacités de l’ExAO, son utilisation en situation de classe comme : 1. Substitut d’un laboratoire traditionnel dans l’utilisation de la méthode expérimentale; 2. Outil d’investigation scientifique; 3. Outil d’intégration des sciences expérimentales et des mathématiques; 4. Outil d’intégration des sciences expérimentales, des mathématiques et de la technologie dans un apprentissage technoscientifique; Pour ce faire, nous avons mobilisé 13 groupe-classes de niveaux complémentaire et secondaire, provenant de 10 écoles libanaises. Nous avons désigné leurs enseignants pour expérimenter eux-mêmes avec leurs étudiants afin d’évaluer, de manière plus réaliste les avantages d’implanter ce micro laboratoire informatisé à l’école. Les différentes mise à l’essai, évaluées à l’aide des résultats des activités d’apprentissage réalisées par les étudiants, de leurs réponses à un questionnaire et des commentaires des enseignants, nous montrent que : 1. La substitution d’un laboratoire traditionnel par un µlaboratoire ExAO ne semble pas poser de problème; dix minutes ont suffi aux étudiants pour se familiariser avec cet environnement, mentionnant que la rapidité avec laquelle les données étaient représentées sous forme graphique était plus productive. 2. Pour l’investigation d’un phénomène physique, la convivialité du didacticiel associée à la capacité d’amplifier le phénomène avant de le représenter graphiquement a permis aux étudiants de concevoir et de mettre en œuvre rapidement et de manière autonome, une expérimentation permettant de vérifier leur prédiction. 3. L’intégration des mathématiques dans une démarche expérimentale permet d’appréhender plus rapidement le phénomène. De plus, elle donne un sens aux représentations graphiques et algébriques, à l’avis des enseignants, permettant d’utiliser celle-ci comme outil cognitif pour interpréter le phénomène. 4. La démarche réalisée par les étudiants pour concevoir et construire un objet technologique, nous a montré que cette activité a été réalisée facilement par l’utilisation des capteurs universels et des amplificateurs à décalage de l’outil de modélisation graphique ainsi que la capacité du didacticiel à transformer toute variable mesurée par une autre variable (par exemple la variation de résistance en variation de température, …). Cette activité didactique nous montre que les étudiants n’ont eu aucune difficulté à intégrer dans une même activité d’apprentissage les mathématiques, les sciences expérimentales et la technologie, afin de concevoir et réaliser un objet technologique fonctionnel. µlaboratoire ExAO, en offrant de nouvelles possibilités didactiques, comme la capacité de concevoir, réaliser et valider un objet technologique, de disposer pour ce faire, des capacités nouvelles pour amplifier les mesures, modéliser les phénomènes physiques, créer de nouveaux capteurs, est un ajout important aux expériences actuellement réalisées en ExAO.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La spectroscopie Raman est un outil non destructif fort utile lors de la caractérisation de matériau. Cette technique consiste essentiellement à faire l’analyse de la diffusion inélastique de lumière par un matériau. Les performances d’un système de spectroscopie Raman proviennent en majeure partie de deux filtres ; l’un pour purifier la raie incidente (habituellement un laser) et l’autre pour atténuer la raie élastique du faisceau de signal. En spectroscopie Raman résonante (SRR), l’énergie (la longueur d’onde) d’excitation est accordée de façon à être voisine d’une transition électronique permise dans le matériau à l’étude. La section efficace d’un processus Raman peut alors être augmentée d’un facteur allant jusqu’à 106. La technologie actuelle est limitée au niveau des filtres accordables en longueur d’onde. La SRR est donc une technique complexe et pour l’instant fastidieuse à mettre en œuvre. Ce mémoire présente la conception et la construction d’un système de spectroscopie Raman accordable en longueur d’onde basé sur des filtres à réseaux de Bragg en volume. Ce système vise une utilisation dans le proche infrarouge afin d’étudier les résonances de nanotubes de carbone. Les étapes menant à la mise en fonction du système sont décrites. Elles couvrent les aspects de conceptualisation, de fabrication, de caractérisation ainsi que de l’optimisation du système. Ce projet fut réalisé en étroite collaboration avec une petite entreprise d’ici, Photon etc. De cette coopération sont nés les filtres accordables permettant avec facilité de changer la longueur d’onde d’excitation. Ces filtres ont été combinés à un laser titane : saphir accordable de 700 à 1100 nm, à un microscope «maison» ainsi qu’à un système de détection utilisant une caméra CCD et un spectromètre à réseau. Sont d’abord présentés les aspects théoriques entourant la SRR. Par la suite, les nanotubes de carbone (NTC) sont décrits et utilisés pour montrer la pertinence d’une telle technique. Ensuite, le principe de fonctionnement des filtres est décrit pour être suivi de l’article où sont parus les principaux résultats de ce travail. On y trouvera entre autres la caractérisation optique des filtres. Les limites de basses fréquences du système sont démontrées en effectuant des mesures sur un échantillon de soufre dont la raie à 27 cm-1 est clairement résolue. La simplicité d’accordabilité est quant à elle démontrée par l’utilisation d’un échantillon de NTC en poudre. En variant la longueur d’onde (l’énergie d’excitation), différentes chiralités sont observées et par le fait même, différentes raies sont présentes dans les spectres. Finalement, des précisions sur l’alignement, l’optimisation et l’opération du système sont décrites. La faible acceptance angulaire est l’inconvénient majeur de l’utilisation de ce type de filtre. Elle se répercute en problème d’atténuation ce qui est critique plus particulièrement pour le filtre coupe-bande. Des améliorations possibles face à cette limitation sont étudiées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse lève en partie le voile sur l’histoire des sports féminins au Québec de 1919 à 1961, soit de l’âge d’or des sports féminins au Canada jusqu’à l’adoption de la Loi sur la condition physique et le sport amateur par le gouvernement fédéral. Elle montre comment les rapports de genre ont été re/produits dans les sports féminins en étudiant les discours et les pratiques, tout en portant une attention particulière à l’influence qu’exercent l’appartenance de classe, l’ethnicité et la religion sur les sports féminins. L’analyse se penche d’abord sur les discours des médecins, des professeurs d’éducation physique et des clercs de l’Église catholique pour étudier les prescriptions qu’ils ont formulées à l’égard de la participation sportive des femmes. Les idées de deux Montréalaises, Myrtle Cook et Cécile Grenier, sont ensuite examinées pour montrer comment elles contestent les discours dominants. Enfin, les pratiques sportives des femmes dans deux centres sportifs montréalais, soit la Palestre nationale et le Young Women’s Christian Association, ont été étudiées de manière détaillée afin de mettre en lumière les différences, mais aussi certaines similitudes, entre l’organisation des sports féminins dans les communautés francophones et anglophones de la ville. Cette thèse met en évidence les tensions qui découlent des rapports de genre, de classe, d’ethnicité et de l’appartenance religieuse, et qui sont présentes à la fois dans les discours et les pratiques. Comme ailleurs en Amérique du Nord et même ailleurs en Occident, les discours dominants au Québec ne sont pas univoques, alors que des vues divergentes les contestent et que les pratiques sont plurielles. Tout en s’inscrivant dans le mouvement plus large d’accès des femmes aux sports en Occident, les discours et les pratiques observables à Montréal s’en distinguent, notamment par la forte influence de l’Église catholique et par les tensions ethniques. Le Québec est donc un cas d’espèce tout indiqué pour mettre en lumière la complexité de la re/production des rapports de genre à travers l’analyse des sports féminins, l’étude de ce champ constituant en même temps une avenue de recherche fort stimulante pour mieux saisir l’entrée de la province dans la modernité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’effet d’encombrement, qui nous empêche d’identifier correctement un stimulus visuel lorsqu’il est entouré de flanqueurs, est omniprésent à travers une grande variété de classes de stimuli. L’excentricité du stimulus cible ainsi que la distance cible-flanqueur constituent des facteurs fondamentaux qui modulent l’effet d’encombrement. La similarité cible-flanqueur semble également contribuer à l’ampleur de l’effet d’encombrement, selon des données obtenues avec des stimuli non-linguistiques. La présente étude a examiné ces trois facteurs en conjonction avec le contenu en fréquences spatiales des stimuli, dans une tâche d’identification de lettres. Nous avons présenté des images filtrées de lettres à des sujets non-dyslexiques exempts de troubles neurologiques, tout en manipulant l’excentricité de la cible ainsi que la similarité cible-flanqueurs (selon des matrices de confusion pré-établies). Quatre types de filtrage de fréquences spatiales ont été utilisés : passe-bas, passe-haut, à large bande et mixte (i.e. élimination des fréquences moyennes, connues comme étant optimales pour l’identification de lettres). Ces conditions étaient appariées en termes d’énergie de contraste. Les sujets devaient identifier la lettre cible le plus rapidement possible en évitant de commettre une erreur. Les résultats démontrent que la similarité cible-flanqueur amplifie l’effet d’encombrement, i.e. l’effet conjoint de distance et d’excentricité. Ceci étend les connaissances sur l’impact de la similarité sur l’encombrement à l’identification visuelle de stimuli linguistiques. De plus, la magnitude de l’effet d’encombrement est plus grande avec le filtre passe-bas, suivit du filtre mixte, du filtre passe-haut et du filtre à large bande, avec différences significatives entre les conditions consécutives. Nous concluons que : 1- les fréquences spatiales moyennes offrent une protection optimale contre l’encombrement en identification de lettres; 2- lorsque les fréquences spatiales moyennes sont absentes du stimulus, les hautes fréquences protègent contre l’encombrement alors que les basses fréquences l’amplifient, probablement par l’entremise de leur impact opposé quant la disponibilité de l’information sur les caractéristiques distinctives des stimul.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La succession de plus en plus fréquente d’événements catastrophiques a amené les sociétés à poser les conditions d’une gestion proactive des risques « naturels ». Ainsi, dans une perspective exploratoire, nous étudions les processus de planification du rétablissement postcatastrophe et la place qu’occupe le concept de résilience urbaine au sein des pratiques de cette planification et des contenus et produits qui en sont issus. Nous entamons plus spécifiquement une réflexion entourant l’intelligibilité et l’opérationnalisation de la résilience. Pour ce faire, nous examinons deux cas signifiants d’inondation dans l’historique nord-américain, soit celui de la Nouvelle-Orléans en Louisiane et celui de la ville québécoise de La Baie, ayant été respectivement victimes des ouragans Katrina et Rita en 2005 et des pluies diluviennes de 1996. Après avoir procédé à une brève mise en contexte des désastres éprouvés, de leurs effets et des vulnérabilités physico-spatiales qu’ils ont mis en exergue, nous mettons en parallèle les logiques institutionnelles précatastrophe d’aménagement du territoire, d’urbanisme et de gestion des risques des villes. Nous observons ensuite l’évolution des deux processus de planification du rétablissement et les enjeux et débats qui les ont caractérisés, pour terminer avec une exposition des changements résilients qui en ont émané. Les deux derniers chapitres démontrent que la qualité de résilience des villes est fortement influencée par leurs cultures politiques, administratives et législatives propres et leurs traditions urbanistiques. Bien qu’elles aient su élaborer une stratégie de prévention des risques, qui accepte les inondations plutôt que de tenter de s’y opposer à tout prix, elles n’ont toutefois pas saisi l’entièreté des opportunités qui s’offraient à elles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objet de ce travail de recherche est de mettre en dialogue les œuvres de Hans-Georg Gadamer et de Paul Ricœur afin de mettre au jour ce qui caractérise en propre la conception herméneutique du langage et d’en souligner la pertinence. Notre thèse principale est que, pour ce faire, il est impératif de dépasser les lectures dichotomiques des deux œuvres par une interprétation plus dialectique, puisque seule une telle démarche paraît susceptible de saisir l’étendue, la richesse et l’importance de l’intelligence herméneutique du phénomène langagier. Ainsi, dans ce travail, nous défendrons l’idée que, par-delà leurs différences incontestables, précieuses en elles-mêmes car sans elles il n’est pas de dialogue, les herméneutiques de Gadamer et Ricœur se distinguent par une réflexion philosophique incessante sur notre appartenance fondamentale au langage, qui constitue le cœur de la conception herméneutique du langage. Nous proposerons une confrontation des philosophies de Gadamer et Ricœur s’effectuant principalement autour d’une dialectique entre appartenance et distanciation, dans laquelle des approches plus objectivantes du langage pourront s’articuler à une description de notre expérience vécue. Avant de décrire cette dialectique pour elle-même, il nous est apparu indiqué de tenir compte de l’héritage phénoménologique incontournable à partir duquel Gadamer et Ricœur ont développé leurs approches respectives du langage. Cette base nous permettra de faire ressortir l’existence d’un accord de fond entre les deux herméneutiques sur la reconnaissance de notre irréductible appartenance au langage. Cette thèse n’exclut pas la possibilité, voire la nécessité d’intégrer dialectiquement un moment de distanciation au sein de cette appartenance primordiale. Nous montrerons en effet que c’est en s’appuyant sur cette distanciation que, par un mouvement réflexif, la pensée herméneutique peut revenir sur notre expérience langagière pour la thématiser et l’expliciter. Cette réflexion sur le langage s’effectue à partir de trois principaux modèles : ceux du dialogue, du texte et de la traduction. Nous exposerons comment chacun de ces modèles contribue à une meilleure compréhension de la vie du langage et de notre rapport au sens. Ceci nous conduira à examiner les efforts de Gadamer et Ricœur visant à mettre en lumière la puissance créatrice qui anime le langage, telle qu’elle ressort de leurs nombreux travaux sur la métaphore, le dire poétique et le récit. Nous défendrons alors la thèse qu’une conception originale de l’imagination s’élabore à travers la réflexion herméneutique sur l’innovation sémantique et la métaphoricité essentielle du langage. Cette recherche se terminera par une analyse des conceptions gadamérienne et ricœurienne des rapports entre langage et expérience, ainsi que de la portée ontologique du langage. Il y aura ici lieu d’insister sur la thèse partagée par les deux herméneutes selon laquelle il importe de résister à toute hypostase ou absolutisation du langage et de constamment penser le langage comme offrant une ouverture sur l’être et la possibilité de dire ce qui est.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème de localisation-routage avec capacités (PLRC) apparaît comme un problème clé dans la conception de réseaux de distribution de marchandises. Il généralisele problème de localisation avec capacités (PLC) ainsi que le problème de tournées de véhicules à multiples dépôts (PTVMD), le premier en ajoutant des décisions liées au routage et le deuxième en ajoutant des décisions liées à la localisation des dépôts. Dans cette thèse on dévelope des outils pour résoudre le PLRC à l’aide de la programmation mathématique. Dans le chapitre 3, on introduit trois nouveaux modèles pour le PLRC basés sur des flots de véhicules et des flots de commodités, et on montre comment ceux-ci dominent, en termes de la qualité de la borne inférieure, la formulation originale à deux indices [19]. Des nouvelles inégalités valides ont été dévelopées et ajoutées aux modèles, de même que des inégalités connues. De nouveaux algorithmes de séparation ont aussi été dévelopés qui dans la plupart de cas généralisent ceux trouvés dans la litterature. Les résultats numériques montrent que ces modèles de flot sont en fait utiles pour résoudre des instances de petite à moyenne taille. Dans le chapitre 4, on présente une nouvelle méthode de génération de colonnes basée sur une formulation de partition d’ensemble. Le sous-problème consiste en un problème de plus court chemin avec capacités (PCCC). En particulier, on utilise une relaxation de ce problème dans laquelle il est possible de produire des routes avec des cycles de longueur trois ou plus. Ceci est complété par des nouvelles coupes qui permettent de réduire encore davantage le saut d’intégralité en même temps que de défavoriser l’apparition de cycles dans les routes. Ces résultats suggèrent que cette méthode fournit la meilleure méthode exacte pour le PLRC. Dans le chapitre 5, on introduit une nouvelle méthode heuristique pour le PLRC. Premièrement, on démarre une méthode randomisée de type GRASP pour trouver un premier ensemble de solutions de bonne qualité. Les solutions de cet ensemble sont alors combinées de façon à les améliorer. Finalement, on démarre une méthode de type détruir et réparer basée sur la résolution d’un nouveau modèle de localisation et réaffectation qui généralise le problème de réaffectaction [48].

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse dirigée sous la direction conjointe de Lise Lamarche et Jean Trudel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs études à grande échelle ont identifié la modification ou la perte d’habitats comme menace principale à la conservation des communautés de poissons d’eau douce. Au Canada, « aucune perte nette dans la capacité productive des habitats » (NNL) est le principe directeur de la politique de gestion des habitats du ministère des Pêches et Océans. Le respect du NNL implique l’avancement des connaissances au niveau des relations entre les poissons et leurs habitats, de même que des outils pour quantifier l’impact de la modification des habitats sur les poissons. Les modèles d’utilisation de l’habitat des poissons (FHUM) sont des outils qui permettent d’améliorer nos connaissances des relations poissons – habitat, de prédire la distribution des espèces, mais aussi leurs densités, biomasses ou abondances, sur la base des caractéristiques de l’environnement. L’objectif général de mon mémoire est d’améliorer la performance des FHUM pour les rivières des basses Laurentides, en suggérant des perfectionnements au niveau de 2 aspects cruciaux de l’élaboration de tels modèles : la description précise de la communauté de poissons et l’utilisation de modèles statistiques efficaces. Dans un premier chapitre, j’évalue la performance relative de la pêcheuse électrique et de l’échantillonnage en visuel (plongée de surface) pour estimer les abondances des combinaisons d’espèces et de classes de taille des poissons en rivière. J’évalue aussi l’effet des conditions environnementales sur les différences potentielles entre les communautés observées par ces 2 méthodes d’échantillonnage. Pour ce faire, 10 sections de rivière de 20 m de longueur ont été échantillonnées à l’aide de ces 2 méthodes alors qu’elles étaient fermées par des filets de blocage. 3 plongeurs performèrent l’échantillonnage en visuel en se déplaçant de l’aval vers l’amont des sections, tout en dénombrant les espèces et classes de taille. Par la suite, nous avons fait 3 passages de pêcheuse électrique et les abondances furent estimées grâce à un modèle restreint de maximum de vraisemblance, basé sur la diminution des abondances observées. De plus grandes abondances de poissons furent observées en visuel qu’avec la pêcheuse électrique à tous les sites. La richesse spécifique observée en visuel était plus élevée (6/10) ou égale (4/10) à celle observée avec la pêcheuse électrique. Les différences entre les communautés de poissons observées à l’aide de ces 2 méthodes ne purent être reliées aux conditions environnementales. Les résultats de cette expérience sont contraires à ceux de toutes les études comparant ces 2 méthodes d’échantillonnage, lesquels suggèrent une supériorité de la pêcheuse électrique. Les conditions environnementales de notre expérience étaient distinctes de celles observées dans les autres études (absence d’arbres tombés dans l’eau, très peu de substrats grossiers), mais la différence la plus marquante était en terme de communauté de poissons observée (dominance des cyprinidés et des centrarchidés plutôt que des salmonidés). Je termine ce chapitre en suggérant que les caractéristiques comportementales favorisant l’évitement de la capture (formation de bancs) et facilitant l’observation en visuel (curiosité) sont responsables de la supériorité de la plongée de surface pour échantillonner les communautés dans les rivières des basses Laurentides. Dans un deuxième chapitre, je développe des FHUM pour des communautés de poissons de rivière ayant plusieurs espèces. Dans le but de simplifier la modélisation de telles communautés et d’améliorer notre compréhension des relations poissons – habitat, j’utilise les concepts de guilde écologique et de filtre environnemental pour explorer les relations entre les guildes formées sur la bases de différents types de traits (reproducteurs, taxonomiques, éco-morphologiques et alimentaires) et les conditions environnementales locales à l’échelle du méso-habitat. Les modèles d’habitats basés sur les guildes reproductrices ont clairement surpassé les autres modèles, parce que l’habitat de fraie reflète l’habitat de préférence en dehors de la période de reproduction. J’ai également utilisé l’approche inverse, c’est à dire définir des guildes d’utilisation de l’habitat et les mettre en relation avec les traits des espèces. Les traits reliés à l’alimentation des poissons ont semblés être les meilleurs pour expliquer l’appartenance aux groupes d’utilisation de l’habitat, mais le modèle utilisé ne représentait pas bien la relation entre les groupes. La validation de notre modèle basé sur les guildes reproductrices avec un jeu de données indépendant pourrait confirmer notre découverte, laquelle représente une manière prometteuse de modéliser les relations poissons – environnement dans des communautés de poissons complexes. En conclusion, mon mémoire suggère d’importantes améliorations aux FHUM pour les communautés de poissons des basses Laurentides, en suggérant de prendre en compte les caractéristiques biologiques des cours d’eau dans le choix d’une méthode d’échantillonnage, et également en utilisant une méthode prometteuse pour simplifier les FHUM de communautés de poissons complexes : les guildes reproductrices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire est consacré au problème de la place de l’herméneutique dans l’œuvre d’Emmanuel Levinas. Au premier abord, l’œuvre semble présenter une forte ambivalence quant à la valeur que le philosophe accorde aux catégories herméneutiques. D’abord, dans les œuvres proprement philosophiques, Levinas présente une critique sévère de la compréhension dans laquelle il décèle un geste de totalisation et d’appropriation du sens contre lequel il élèvera une pensée de l’éthique comme « philosophie première ». D’autre part, un autre pan du corpus levinassien, celui des Lectures talmudiques, est consacré au déploiement d’une herméneutique des textes religieux de la tradition juive où Levinas fait puissamment intervenir les catégories éthiques propres à sa philosophie au sein de son activité exégétique. L’un des paradoxes intéressants que nous présente donc l’œuvre levinassienne est celui d’une philosophie s’érigeant en bonne partie sur une critique de la catégorie centrale de l’herméneutique, la compréhension, et qui ne se décline pas moins elle-même en une théorie de l’interprétation des textes. Afin de résoudre ce paradoxe, il nous faut d’abord exposer la critique de la compréhension qui est consubstantielle au projet philosophique de Levinas. En nous appuyant sur quelques textes centraux de son œuvre, nous expliciterons à la fois le déficit éthique de la compréhension que pointe Levinas et les possibilités de sens au nom desquelles cette critique s’accomplit. Nous verrons ainsi ce qui conduit Levinas à suggérer qu’autrui, en son visage, témoigne d’un sens qui ferait exception à la structure gnoséologique du sensé que suppose l’herméneutique. Dans un deuxième temps, nous tenterons de cerner les raisons qui peuvent légitiment conduire Levinas à faire usage, dans le contexte de son herméneutique talmudique, des « concepts » nés de sa critique de la compréhension. L’étude du rapport entre éthique et herméneutique, entre texte et visage, nous conduira à identifier le principe directeur de l’herméneutique levinassienne et à articuler la façon dont il se rattache à l’éthique du visage. Finalement, nous tenterons de faire valoir la pertinence philosophique de l’herméneutique levinassienne en étudiant la manière dont elle peut rendre compte de phénomènes fondamentaux liés à l’interprétation des textes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Québec, des ressources considérables sont investies pour assurer la réussite scolaire des élèves handicapés et en difficulté, tant au plan des apprentissages, de la socialisation que de la qualification. Pour des raisons évoquées d’équité et d’accès à la formation générale, les politiques éducatives privilégient l’intégration de ces élèves en classe ordinaire (Ministère de l'Éducation, 2008; Ministère de l'Éducation du Québec, 1999, 2004a). Ces politiques appellent de profonds changements dans l’organisation scolaire et conduisent inévitablement les enseignants à adopter des pratiques d’individualisation de leur enseignement. En dépit de l’importance de l’individualisation de l’enseignement pour favoriser la réussite des élèves intégrés, les pratiques pédagogiques mises en œuvre par les enseignants québécois demeurent méconnues. Cette étude vise à obtenir un portrait de ces pratiques. Plus spécifiquement, cette étude vise à obtenir des données sur la fréquence d’utilisation de certaines pratiques, à étudier leur compréhension conceptuelle et appliquée par les enseignants, ainsi qu’à identifier des facteurs personnels et organisationnels pouvant expliquer les différences entre les enseignants. Sur la base de la littérature disponible, une typologie des pratiques d’individualisation a été produite, regroupant quatre pratiques : la différenciation pédagogique, l’enseignement de stratégies, l’accommodation et la modification. Puis, un questionnaire élaboré aux fins de cette étude, permettant d’évaluer empiriquement la prégnance de ces quatre pratiques, a été rempli par 138 enseignants provenant de 35 commissions scolaires du Québec. Parmi ces enseignants, treize ont été sélectionnés et interviewés sur la base des exemples de leurs pratiques mentionnées dans les questions ouvertes du sondage. Fondée sur un devis mixte de type concourant et imbriqué (Creswell, 2003), cette recherche combine une stratégie d’analyse quantitative des données issues du questionnaire à des analyses de contenu des entrevues, de nature qualitative. Les résultats convergent vers trois niveaux de prise en charge de l’hétérogénéité en classe: nuancée, mécanique et réactive. Seuls les enseignants qui ont une prise en charge nuancée démontrent une compréhension et une utilisation des pratiques conformes au cadre conceptuel. Suivant cette hypothèse formulée à partir des données d’entrevue, les résultats d’une ANOVA ont permis de conclure que le tiers des répondants au sondage (n=41) utilisant le plus fréquemment la différenciation pédagogique fait une utilisation significativement peu fréquente de la pratique de la modification. Enfin, des analyses de régression ont révélé que parmi les autres facteurs prédisant l’utilisation des pratiques se trouvent la participation à des activités de formation continue, le niveau d’enseignement, le nombre d’élèves dans le groupe et le nombre d’élèves en difficulté avec des plans d’intervention. Les résultats de cette recherche indiquent un niveau de connaissance inégal des pratiques étudiées chez les enseignants, ainsi qu’une mise en œuvre déficiente des ressources nécessaires à l’intégration scolaire des élèves handicapés ou en difficulté.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au moment où les territoires périurbains se transforment rapidement sous l’impulsion des stratégies de développement de l’industrie immobilière, les préoccupations sociales en matière de qualité des paysages et des cadres de vie se font de plus en plus grandes. Devant ces enjeux, les actions aménagistes privilégient le plus souvent des solutions à partir d’un regard « expert » généralement étranger aux demandes sociales en présence. Devant l’insuffisance des connaissances des regards citoyens, il y a une urgence à développer des méthodes originales aptes à révéler ce savoir local. Une enquête menée à l’automne 2009 à Saint-Bruno-de-Montarville, sur la Rive-Sud de Montréal, révèle la pertinence d’une approche anthropologique sous-utilisée et novatrice en particulier pour les recherches en aménagement : celle du « récit-parcours ». Permettant un accès privilégié aux récits ancrés aux lieux de vies, cette méthode a permis de susciter des discours singuliers et collectifs sur le territoire, de révéler des propos sur les imaginaires portés sur la ville et d’offrir un espace d’expression des préoccupations, des valorisations et des aspirations des résidants. Les résultats de l’enquête à cet effet sont concluants : ce que nous révèlent les résidants de par leurs expériences vécues des lieux et leurs cheminements spatiaux est incontestablement riche et pertinent pour la compréhension des enjeux collectifs d’un milieu. Les logiques existantes derrière les transformations de ces territoires bénéficieraient grandement de ce savoir localisé, complexe et ingénieux dont dispose les résidants de la géographie, de l’environnement, de l’urbanisation et des caractéristiques sociales de leur ville. Ce faisant, le territoire change alors de statut : d’un objet d’évaluation experte, il devient une mise en scène dynamique où s’inscrivent des fragments significatifs d’histoires faisant référence à l’expérience du vécu quotidien, mais aussi, à la potentialité des lieux. Par le biais d’une telle démarche et en conjonction avec des méthodes participatives, il devient possible d’engager une véritable réflexion plurielle envers l’avenir des territoires périurbains, en résonance avec les aspirations locales.