16 resultados para Sensibilité maternellle
Resumo:
Au Canada, les avalanches constituent le géorisque le plus dangereux en période hivernale. On enregistre annuellement d’importants coûts économiques et sociaux associés aux impacts de ce phénomène naturel. Par exemple, la fermeture de routes en cas de risque d’avalanche est estimée à 5 millions de dollars (Jamieson et Stethem, 2002). La prévision des avalanches est, de nos jours, la meilleure méthode afin d’éviter ces coûts. Au Canada, cela s’effectue de façon ponctuelle à l’aide de méthodes manuelles tel que le test de compression (CAA, 2014). Les modèles de simulation du couvert neigeux permettent d’étendre les prévisions à l’ensemble d’une région et ainsi, atteindre certains lieux difficilement accessibles pour l’homme. On tente actuellement d’adapter le modèle SNOWPACK aux conditions canadiennes et plusieurs études ont eu pour but d’améliorer les simulations produites par celui-ci. Cette étude vise donc également l’amélioration des simulations par l’intégration des paramètres de végétation. L’objectif de l’étude est de paramétrer, pour la première fois, le module de végétation de SNOWPACK avec les données récoltées dans la réserve faunique des Chic-Chocs. Nous pourrons ainsi évaluer l’impact de la végétation sur la modélisation du couvert nival. Nous avons donc, lors de sorties de terrain, recueillis les données de neige et de végétation au niveau de quatre sites d’étude. Nous avons par la suite réalisé les simulations avec SNOWPACK et comparer les résultats des simulations avec et sans végétation aux données de terrain. L’étude nous révèle que le modèle diminue la quantité de neige au sol ainsi que la densité du manteau neigeux en présence de végétation. De plus nous avons pu constater que l’inclusion du module de végétation permet d’obtenir des données qui se rapprochent davantage de ce qui a été observé sur le terrain.
Resumo:
Parmi les méthodes les plus utilisées en inspection embarquée des structures (Structural Health Monitoring ou SHM), les techniques d’imagerie basées sur un modèle de propagation sont de plus en plus répandues. Pour les techniques d'imagerie basées sur un modèle de propagation, bien que ces techniques montent en popularité, la complexité des matériaux composites réduit grandement leur performance en détection d'endommagements comparativement aux démonstrations précédentes de leur potentiel sur des matériaux isotropes. Cette limitation dépend entre autres des hypothèses simplificatrices souvent posées dans les modèles utilisés et peut entraîner une augmentation des faux positifs et une réduction de la capacité de ces techniques à détecter des endommagements. Afin de permettre aux techniques d'imagerie basées sur un modèle d'offrir une performance équivalente à celle obtenue précédemment sur les structures métalliques, il est nécessaire d'exploiter des modèles de propagation considérant la dynamique complexe des ondes dans ce type de structures. Cette thèse présente les travaux effectués sur la modélisation de la propagation des ondes guidées dans les matériaux composites. En première partie, une amélioration simple des modèles de génération et de propagation est proposée afin de permettre de mieux reconstruire les signaux générés et propagés sur une structure composite. Par la suite, le potentiel de la technique « Excitelet » à détecter et positionner adéquatement un ou plusieurs endommagements sur un matériau, peu importe son empilement (d’un composite unidirectionnel à un matériau isotrope), est démontré tant pour le mode A[indice inférieur 0] que le mode S[indice inférieur 0]. Les résultats obtenus numériquement et expérimentalement démontrent une corrélation directe entre l'amélioration des modèles mathématiques derrière les techniques d'imagerie et la robustesse des techniques pour ce qui est de la précision sur le positionnement du dommage et du niveau de corrélation obtenu. Parmi les améliorations à la technique d'imagerie « Excitelet » proposées, une amélioration significative des résultats en imagerie est démontrée en considérant la distribution de cisaillement plan sous l’émetteur, ce qui est une nouveauté par rapport aux travaux de recherche précédents en imagerie. La performance de la technique d'imagerie via la modélisation de la propagation d'ondes guidées dans les laminés multicouches transverses isotropes est par la suite démontrée. Les équations de l'élasticité en 3D sont utilisées pour bien modéliser le comportement dispersif des ondes dans les composites, et cette formulation est par la suite implantée dans la technique d'imagerie « Excitelet ». Les résultats démontrent que l'utilisation d'une formulation mathématique plus avancée permet d'augmenter la précision quant au positionnement des dommages et à l'amplitude de la corrélation obtenue lors de la détection d'un dommage. Une analyse exhaustive de la sensibilité de la technique d’imagerie et de la propagation d’ondes aux conditions environnementales et à la présence de revêtement sur la structure est présentée en dernière partie. Les résultats obtenus montrent que la considération de la propagation complexe dans la formulation d’imagerie ainsi que la caractérisation des propriétés mécaniques « a priori » de l’imagerie améliorent la robustesse de la technique et confèrent à la technique « Excitelet » la capacité de détecter et positionner précisément un endommagement, peu importe le type de structure.
Resumo:
Un moyen permettant d'identifier expérimentalement les phases du gaz d'électrons bidimensionnel de la bicouche de graphène en empilement bernal au remplissage $\nu = 3$ est recherché lorsque le biais électrique entre les couches est varié. À ce remplissage, si on se concentre aux basses énergies, il est possible de ne s'intéresser qu'aux deux niveaux de Landau composant le niveau $N=0$ qui sont de même spin et de même vallée, mais d'orbitale différente. Puisque la texture du pseudospin orbital de ce système change selon la phase, il est attendu que le couplage avec le champ électrique de la lumière devrait changer. La dispersion des modes collectifs de chaque phase est calculée dans l'approximation GRPA (generalized random-phase approximation) dans le domaine en biais où chacune domine respectivement. L'absorption optique pour des polarisations linéaires en direction x et en direction y ainsi que pour des polarisations circulaires gauche et droite est calculée. La rotation de Faraday et l'effet Kerr sont également calculés. Des différences entre les phases sont remarquées au niveaux de la fréquence des photons qui sont absorbés, de l'amplitude de l'absorption et de la rotation de la polarisation ainsi que la sensibilité à certains types de polarisation. L'effet des modes collectifs dans les phases considérées est cependant moindre que celui qui est prédit dans un calcul qui ne tient pas compte de l'interaction de Coulomb.
Resumo:
La ville de Sherbrooke a présenté dans son schéma d'aménagement et de développement révisé 2012-2027 son projet d'implanter une ceinture verte sur son territoire. Elle n'a cependant pas défini d'orientations claires quant aux objectifs et à la délimitation de celle-ci. Le but de cet essai est d'alimenter la réflexion des décideurs de la ville de Sherbrooke à ce sujet en présentant des scénarios cartographiques de ceintures vertes. Pour réaliser ces scénarios, une revue de littérature a été effectuée afin de définir le concept de ceinture verte et d’identifier les fonctions remplies par ces ceintures vertes. Parmi ces fonctions, cinq sont priorisées par la Ville de Sherbrooke, soit : contrôler l'étalement urbain, préserver la biodiversité, favoriser l'accès des citoyens à un espace vert, protéger contre les inondations et connecter la ceinture verte avec les corridors écologiques régionaux. Les scénarios cartographiques produits sont basés sur des indicateurs et indices spatiaux aptes à représenter ces fonctions sur le territoire de la municipalité. Ces traitements géomatiques ont permis de créer des cartes représentant les zones de sensibilité du territoire de Sherbrooke pour l'implantation d'une ceinture verte selon ces cinq fonctions prioritaires. Ces traitements ont permis de déterminer que les zones les plus prioritaires pour l’implantation d’une ceinture verte représentent un peu plus de la moitié du territoire de la ville de Sherbrooke. Elles encerclent la trame urbaine tout en incluant quelques îlots en périphérie et le secteur sud-ouest du territoire municipal. L'approche de conception de scénarios de ceinture verte présentée ici est comparée à d’autres approches utilisées au Québec et dans d’autres études sur le sujet. Cette approche multi-fonction est novatrice et constitue un outil précieux pour les responsables municipaux qui souhaitent se doter d'une ceinture verte. Cette démarche est adaptative et le scénario de ceinture verte produit pour la Ville de Sherbrooke pourra être mis à jour selon l’évolution de leur réflexion sur les fonctions prioritaires. Cette démarche est également facilement généralisable à d’autres contextes municipaux.
Resumo:
Résumé : La maladie osseuse de Paget (MP) est un désordre squelettique caractérisé par une augmentation focale et désorganisée du remodelage osseux. Les ostéoclastes (OCs) de MP sont plus larges, actifs et nombreux, en plus d’être résistants à l’apoptose. Même si la cause précise de la MP demeure inconnue, des mutations du gène SQSTM1, codant pour la protéine p62, ont été décrites dans une proportion importante de patients avec MP. Parmi ces mutations, la substitution P392L est la plus fréquente, et la surexpression de p62P392L dans les OCs génère un phénotype pagétique partiel. La protéine p62 est impliquée dans de multiples processus, allant du contrôle de la signalisation NF-κB à l’autophagie. Dans les OCs humains, un complexe multiprotéique composé de p62 et des kinases PKCζ et PDK1 est formé en réponse à une stimulation par Receptor Activator of Nuclear factor Kappa-B Ligand (RANKL), principale cytokine impliquée dans la formation et l'activation des OCs. Nous avons démontré que PKCζ est impliquée dans l’activation de NF-κB induite par RANKL dans les OCs, et dans son activation constitutive en présence de p62P392L. Nous avons également observé une augmentation de phosphorylation de Ser536 de p65 par PKCζ, qui est indépendante d’IκB et qui pourrait représenter une voie alternative d'activation de NF-κB en présence de la mutation de p62. Nous avons démontré que les niveaux de phosphorylation des régulateurs de survie ERK et Akt sont augmentés dans les OCs MP, et réduits suite à l'inhibition de PDK1. La phosphorylation des substrats de mTOR, 4EBP1 et la protéine régulatrice Raptor, a été évaluée, et une augmentation des deux a été observée dans les OCs pagétiques, et est régulée par l'inhibition de PDK1. Également, l'augmentation des niveaux de base de LC3II (associée aux structures autophagiques) observée dans les OCs pagétiques a été associée à un défaut de dégradation des autophagosomes, indépendante de la mutation p62P392L. Il existe aussi une réduction de sensibilité à l’induction de l'autophagie dépendante de PDK1. De plus, l’inhibition de PDK1 induit l’apoptose autant dans les OCs contrôles que pagétiques, et mène à une réduction significative de la résorption osseuse. La signalisation PDK1/Akt pourrait donc représenter un point de contrôle important dans l’activation des OCs pagétiques. Ces résultats démontrent l’importance de plusieurs kinases associées à p62 dans la sur-activation des OCs pagétiques, dont la signalisation converge vers une augmentation de leur survie et de leur fonction de résorption, et affecte également le processus autophagique.
Resumo:
Résumé : Malgré le nombre croissant de capteurs dans les domaines de la chimie et la biologie, il reste encore à étudier en profondeur la complexité des interactions entre les différentes molécules présentes lors d’une détection à l’interface solide-liquide. Dans ce cadre, il est de tout intérêt de croiser différentes méthodes de détection afin d’obtenir des informations complémentaires. Le principal objectif de cette étude est de dimensionner, fabriquer et caractériser un détecteur optique intégré sur verre basé sur la résonance plasmonique de surface, destiné à terme à être combiné avec d’autres techniques de détection, dont un microcalorimètre. La résonance plasmonique de surface est une technique reconnue pour sa sensibilité adaptée à la détection de surface, qui a l’avantage d’être sans marquage et permet de fournir un suivi en temps réel de la cinétique d’une réaction. L’avantage principal de ce capteur est qu’il a été dimensionné pour une large gamme d’indice de réfraction de l’analyte, allant de 1,33 à 1,48. Ces valeurs correspondent à la plupart des entités biologiques associées à leurs couches d’accroche dont les matrices de polymères, présentés dans ce travail. Étant donné que beaucoup d’études biologiques nécessitent la comparaison de la mesure à une référence ou à une autre mesure, le second objectif du projet est d’étudier le potentiel du système SPR intégré sur verre pour la détection multi-analyte. Les trois premiers chapitres se concentrent sur l’objectif principal du projet. Le dimensionnement du dispositif est ainsi présenté, basé sur deux modélisations différentes, associées à plusieurs outils de calcul analytique et numérique. La première modélisation, basée sur l’approximation des interactions faibles, permet d’obtenir la plupart des informations nécessaires au dimensionnement du dispositif. La seconde modélisation, sans approximation, permet de valider le premier modèle approché et de compléter et affiner le dimensionnement. Le procédé de fabrication de la puce optique sur verre est ensuite décrit, ainsi que les instruments et protocoles de caractérisation. Un dispositif est obtenu présentant des sensibilités volumiques entre 1000 nm/RIU et 6000 nm/RIU suivant l’indice de réfraction de l’analyte. L’intégration 3D du guide grâce à son enterrage sélectif dans le verre confère au dispositif une grande compacité, le rendant adapté à la cointégration avec un microcalorimètre en particulier. Le dernier chapitre de la thèse présente l’étude de plusieurs techniques de multiplexage spectral adaptées à un système SPR intégré, exploitant en particulier la technologie sur verre. L’objectif est de fournir au moins deux détections simultanées. Dans ce cadre, plusieurs solutions sont proposées et les dispositifs associés sont dimensionnés, fabriqués et testés.
Resumo:
Cette étude examine les liens entre la participation au budget et la performance managériale avec la motivation comme variable intervenante. La motivation est décomposée en plusieurs facteurs dont les gratifications intrinsèques et extrinsèques. L'effet des variables de la complexité de l'environnement technologique et de la gestion par exceptions (GPE) est aussi examiné. L'étude est menée auprès de contremaîtres affectés à la production d'entreprises manufacturières de taille moyenne. Les contremaîtres montrent une nette préférence aux gratifications intrinsèques, suggérant leur insatisfaction face au système de récompenses en place. Cette insatisfaction semble s'exprimer dans le lien négatif entre la motivation et la participation. De plus, l'engagement personnel des contremaîtres face aux objectifs de l'organisation semble les rendre plus critiques dans l'évaluation de leur performance managériale. Le phénomène est accentué chez les contremaîtres des entreprises avec un niveau de GPE faible puisqu'ils ne perçoivent pas le système de contrôle de gestion comme un outil de répression. Il est aussi accentué, mais dans une moindre mesure, chez les contremaîtres des entreprises hautement technologiques. Cependant, l'effet de la participation au budget pour ces derniers semble favoriser la performance managériale. La plus grande sensibilité des gestionnaires aux valences intrinsèques et leur réticence à attribuer aux autres l'insuccès face à l'atteinte des objectifs pourraient être une des caractéristiques des moyennes entreprises. Les résultats de cette étude suggèrent aussi que, pour une entreprise de taille moyenne, un style de gestion non perçu comme répressif améliore la participation, la motivation et la performance des gestionnaires. Enfin, la participation semble avoir un effet positif sur la performance managériale dans un environnement technologique plus complexe seulement.
Resumo:
Le caribou de Peary, désigné en voie de disparition, n’est pas épargné par les changements climatiques. Par le passé, des hivers successifs caractérisés par des conditions météorologiques extrêmes ont entrainé des déclins importants de population en quelques années, pouvant aller jusqu’à 98 %. L’augmentation des épisodes de redoux hivernaux et de pluies sur neige réduit les conditions d’accès à la nourriture de cette sous-espèce. Ces conditions ont pour conséquence d’augmenter la densité des couches de neige dans le manteau neigeux, ce qui empêche le caribou d’avoir accès au fourrage couvrant le sol en hiver. Dans cet esprit, l’outil de spatialisation de SNOWPACK dans l’Arctique (OSSA) développé dans Ouellet et al. (2016) permet la spatialisation des conditions d’accès à la nourriture du caribou de Peary en utilisant le modèle de simulation du couvert nival SNOWPACK. Le paramètre du couvert nival utilisé est l’épaisseur cumulée au-delà d’un seuil fixe de densité durant la saison hivernale (ECD). L'OSSA fournit un résultat d’une résolution spatiale de 32 km puisque les données météorologiques utilisées sont les données de réanalyses du North American Regional Reanalysis (NARR) qui possède une résolution de 32 km. Cette résolution grossière ne permet pas de documenter et prédire la migration locale des différentes populations sur les îles de l'archipel arctique canadien. L’objectif principal de ce projet est donc d’évaluer le potentiel d'une approche de raffinement spatial de l'OSSA à une résolution de 1 km. Afin d’affiner la résolution spatiale de la simulation de l’ECD, des données de pente et de l’albédo du sol à une résolution de 1 km ont été utilisées. Avant d’effectuer les simulations à haute résolution, la sensibilité de l’ECD à ces deux paramètres du terrain a été testée. Les simulations préliminaires ont permis de démontrer que plus la pente est élevée, plus l’ECD sera faible. Également, il a été identifié que la pente va affecter l’ECD à partir d’un seuil de 3 degré. L’albédo du sol a aussi un impact significatif sur l’ECD, mais à un niveau moins important que la pente. Finalement, la comparaison des résultats à faible et haute résolution a pu démontrer que l’approche de raffinement spatial appliquée permet d’obtenir une information plus détaillée des conditions d’accès à la nourriture du caribou de Peary. Les résultats d’ECD obtenus à 1 km de résolution montrent des écarts avec l’ECD à 32 km de résolution pouvant dépasser les 2000 cm. Finalement, cette étude montre l’intérêt d’automatiser cette approche afin de pouvoir spatialiser les conditions d’accès à la nourriture à une résolution de 1 km et de prédire certaines micro-variabilités dans les déplacements futurs des caribous de Peary en fonction des changements climatiques.
Resumo:
Pour augmenter sa compréhension du monde qui l’entoure, le physicien moderne ne cesse de travailler au développement d’outils théoriques ou expérimentaux pour l’aider à répondre à ses questions fondamentales. Une partie de ces chercheurs tente de répondre à une question bien définie, mais simultanément très vague : qu’est-ce que le bruit électro- nique? Guidés par cette idée, certains étudient des dispositifs comme la jonction tunnel ou la jonction Josephson, alors que d’autres travaillent à l’amélioration des méthodes de détection du bruit. Le présent mémoire de maîtrise traite donc de la conception d’un outil de détection bien particulier, le micro-bolomètre supraconducteur de niobium-titane-niobium. La théorie derrière le fonctionnement d’un tel dispositif est expliquée à l’aide d’une comparaison entre un bolomètre conventionnel et un bolomètre supraconducteur. Des concepts comme la sensibilité d’un détecteur, la conductance thermique et la méthode d’utilisation sont présentés. Les étapes du procédé de fabrication sont ensuite explicitées dans les moindres détails. Finalement, les propriétés électroniques d’un tel micro-bolomètre sont analysées à l’aide de la courbe caractéristique courant-tension, de la courbe de transition supraconductrice en température et de dfférentes mesures en réflectométrie. La puissance équivalente de bruit (NEP) mesurée est de l’ordre de 10[indice supérieur −17] W/√Hz et le temps caractéristique de détection est de 1.43 μs. Le dispositif présenté dans ce mémoire a un avantage important par rapport aux bolomètres supraconducteurs généralement utilisés : il ne nécessite pas de courant de polarisation continu pour le mettre en fonctionnement. Ceci peut résulter en divers avantages technologiques.
Resumo:
Le laboratoire DOMUS développe des applications pour assister les personnes en perte d'autonomie et les personnes avec des troubles cognitifs. Chaque application est ou a déjà été le sujet de plusieurs études d'utilisabilité qui permettent de les améliorer. Ces études prennent beaucoup de temps à mettre en place, car l'on rencontre souvent des problèmes de logistique (format et sensibilité des données, chercheurs répartis sur une grande aire géographique). C'est pourquoi un outil appelé GEDOPAL a été développé. Il permet de partager entre chercheurs de différents centres les données créées et utilisées lors de la mise en place des études d'utilisabilité. La conception et la réalisation de cet outil ont nécessité une réflexion en amont sur la nature et la sensibilité de ces données. Cette réflexion est l'objet du Chapitre 3. Ces études prennent aussi beaucoup de temps lors de l'analyse des résultats. De plus, certaines données créées lors de ces études, telles que les traces d'utilisation ont des volumétries trop importantes pour être analysées manuellement. C'est pourquoi nous avons créé un processus permettant d'analyser ces traces d'utilisation pour y détecter les erreurs utilisateurs dans l'espoir de les relier à des problèmes d'utilisabilité. Ce processus se compose de deux parties : la première est une analyse formelle de l'application, qui sera présentée au Chapitre 4, et la seconde l'application d'un outil d'apprentissage automatique aux traces d'utilisation pour y détecter les erreurs utilisateurs. Cet outil est présenté au Chapitre 5.
Resumo:
Résumé : Une dysrégulation de la lipolyse des tissus adipeux peut conduire à une surexposition des tissus non-adipeux aux acides gras non-estérifiés (AGNE), qui peut mener à un certain degré de lipotoxicité dans ces tissus. La lipotoxicité constitue, par ailleurs, l’une des causes majeures du développement de la résistance à l’insuline et du diabète de type 2. En plus de ses fonctions glucorégulatrices, l’insuline a pour fonction d’inhiber la lipolyse et donc de diminuer les niveaux d’AGNE en circulation, prévenant ainsi la lipotoxicité. Il n’y a pas d’étalon d’or pour mesurer la sensibilité de la lipolyse à l’insuline. Le clamp euglycémique hyperinsulinémique constitue la méthode étalon d’or pour évaluer la sensibilité du glucose à l’insuline mais il est aussi utilisé pour mesurer la suppression de la lipolyse par l’insuline. Par contre, cette méthode est couteuse et laborieuse, et ne peut pas s’appliquer à de grandes populations. Il existe aussi des indices pour estimer la fonction antilipolytique de l’insuline dérivés de l’hyperglycémie provoquée par voie orale (HGPO), un test moins dispendieux et plus simple à effectuer à grande échelle. Cette étude vise donc à : 1) Étudier la relation entre les indices de suppressibilité des AGNE par l’insuline dérivés du clamp et ceux dérivés de l’HGPO; et 2) Déterminer laquelle de ces mesures corrèle le mieux avec les facteurs connus comme étant reliés à la dysfonction adipeuse : paramètres anthropométriques et indices de dysfonction métabolique. Les résultats montrent que dans le groupe de sujets étudiés (n=29 femmes, 15 témoins saines et 14 femmes avec résistance à l’insuline car atteintes du syndrome des ovaires polykystiques), certains indices de sensibilité à l’insuline pour la lipolyse dérivés de l’HGPO corrèlent bien avec ceux dérivés du clamp euglycémique hyperinsulinémique. Parmi ces indices, celui qui corrèle le mieux avec les indices du clamp et les paramètres anthropométriques et de dysfonction adipeuse est le T50[indice inférieur AGNE] (temps nécessaire pour diminuer de 50% le taux de base – à jeun – des AGNE). Nos résultats suggèrent donc que l’HGPO, facile à réaliser, peut être utilisée pour évaluer la sensibilité de la lipolyse à l’insuline. Nous pensons que la lipo-résistance à l’insuline peut être facilement quantifiée en clinique humaine.
Resumo:
Résumé : Dans les couverts forestiers, le suivi de l’humidité du sol permet de prévenir plusieurs désastres tels que la paludification, les incendies et les inondations. Comme ce paramètre est très dynamique dans l’espace et dans le temps, son estimation à grande échelle présente un grand défi, d’où le recours à la télédétection radar. Le capteur radar à synthèse d’ouverture (RSO) est couramment utilisé grâce à sa vaste couverture et sa résolution spatiale élevée. Contrairement aux sols nus et aux zones agricoles, le suivi de l’humidité du sol en zone forestière est très peu étudié à cause de la complexité des processus de diffusion dans ce type de milieu. En effet, la forte atténuation de la contribution du sol par la végétation et la forte contribution de volume issue de la végétation réduisent énormément la sensibilité du signal radar à l’humidité du sol. Des études portées sur des couverts forestiers ont montré que le signal radar en bande C provient principalement de la couche supérieure et sature vite avec la densité de la végétation. Cependant, très peu d’études ont exploré le potentiel des paramètres polarimétriques, dérivés d’un capteur polarimétrique comme RADARSAT-2, pour suivre l’humidité du sol sur les couverts forestiers. L’effet du couvert végétal est moins important avec la bande L en raison de son importante profondeur de pénétration qui permet de mieux informer sur l’humidité du sol. L’objectif principal de ce projet est de suivre l’humidité du sol à partir de données radar entièrement polarimétriques en bandes C et L sur des sites forestiers. Les données utilisées sont celles de la campagne terrain Soil Moisture Active Passive Validation EXperiment 2012 (SMAPVEX12) tenue du 6 juin au 17 juillet 2012 au Manitoba (Canada). Quatre sites forestiers de feuillus ont été échantillonnés. L’espèce majoritaire présente est le peuplier faux-tremble. Les données utilisées incluent des mesures de l’humidité du sol, de la rugosité de surface du sol, des caractéristiques des sites forestiers (arbres, sous-bois, litières…) et des données radar entièrement polarimétriques aéroportées et satellitaires acquises respectivement, en bande L (UAVSAR) à 30˚ et 40˚ et en bande C (RADARSAT-2) entre 20˚ et 30˚. Plusieurs paramètres polarimétriques ont été dérivés des données UAVSAR et RADARSAT-2 : les coefficients de corrélation (ρHHVV, φHHVV, etc); la hauteur du socle; l’entropie (H), l’anisotropie (A) et l’angle alpha extraits de la décomposition de Cloude-Pottier; les puissances de diffusion de surface (Ps), de double bond (Pd) extraites de la décomposition de Freeman-Durden, etc. Des relations entre les données radar (coefficients de rétrodiffusion multifréquences et multipolarisations (linéaires et circulaires) et les paramètres polarimétriques) et l’humidité du sol ont été développées et analysées. Les résultats ont montré que 1) En bande L, plusieurs paramètres optimaux permettent le suivi de l’humidité du sol en zone forestière avec un coefficient de corrélation significatif (p-value < 0,05): σ[indice supérieur 0] linéaire et σ[indice supérieur 0] circulaire (le coefficient de corrélation, r, varie entre 0,60 et 0,96), Ps (r entre 0,59 et 0,84), Pd (r entre 0,6 et 0,82), ρHHHV_30˚, ρVVHV_30˚, φHHHV_30˚ and φHHVV_30˚ (r entre 0,56 et 0,81) alors qu’en bande C, ils sont réduits à φHHHV, φVVHV et φHHVV (r est autour de 0,90). 2) En bande L, les paramètres polarimétriques n’ont pas montré de valeur ajoutée par rapport aux signaux conventionnels multipolarisés d’amplitude, pour le suivi de l’humidité du sol sur les sites forestiers. En revanche, en bande C, certains paramètres polarimétriques ont montré de meilleures relations significatives avec l’humidité du sol que les signaux conventionnels multipolarisés d’amplitude.
Resumo:
En plus d’être associé à une espérance de vie précaire, les gliomes de haut grade (GHG) s’accompagnent de déficits cognitifs ayant le potentiel d’avoir un impact majeur sur la qualité de vie. Il demeure une compréhension limitée de l’étendue et de la nature des déficits cognitifs des patients en début de parcours de soins, de l’effet de la tumeur elle-même sur les fonctions cognitives tout comme de son lien avec la qualité de vie. L’objectif général de la présente étude était d’effectuer une évaluation cognitive de patients atteints de GHG avant tout traitement afin de décrire leur profil cognitif. Plus précisément, on visait à décrire l’étendue et la nature des déficits cognitifs des patients et explorer la relation entre les fonctions cognitives des patients et les caractéristiques tumorales (volume tumoral et de l’atteinte parenchymateuse) et le niveau de qualité de vie. Une seconde partie de l’étude visait à explorer l’utilité du Montreal Cognitive Assessment (MOCA), un test de dépistage, pour détecter des déficits cognitifs chez des patients atteints d’un GHG. Une étude descriptive transversale exploratoire, comportant un échantillon de 14 patients atteints de GHG nouvellement diagnostiqués et recrutés au Centre Hospitalier Universitaire de Sherbrooke, a été conduite. Les évaluations cognitives ont été effectuées à l’aide d’une batterie de six tests neuropsychologiques et du MOCA. Les volumes tumoraux provenant des imageries par résonance magnétique ont été obtenus grâce à une méthode volumétrique rigoureuse alors que la qualité de vie a été évaluée à l’aide du Sherbrooke Neuro-oncology Assessment Scale. Les résultats ont démontré que des déficits cognitifs sont bien présents en début de parcours de soins chez ces patients. En ce qui à trait aux caractéristiques tumorales, notre étude n’a pu démontrer de corrélation entre les déficits cognitifs et le volume tumoral, soulevant la possibilité d’une absence de lien entre ces deux variables. L’atteinte parenchymateuse créée par la tumeur corrèle avec un test d’évaluation de la vitesse de traitement de l’information (⍴ = -0,784, p = 0,01). Il semblerait par ailleurs que les fonctions cognitives ne soit pas corrélées avec le niveau de qualité de vie. Finalement, le MOCA semble être un outil prometteur pour l’évaluation cognitive des patients présentant des GHG, alors qu’il semble présenter une valeur prédictive positive satisfaisante malgré une sensibilité plus modeste.
Resumo:
La sécurité des systèmes de transports intelligents est au centre de tous les débats. Afin de s’assurer un fonctionnement sécuritaire, il est nécessaire de pouvoir vérifier le bon fonctionnement des capteurs permettant d’avoir une parfaite connaissance de l’environnement et de l’état du véhicule. Cette thèse présente une nouvelle solution de détection et d’identification de faute pouvant apparaitre sur les capteurs embarqués d’un véhicule intelligent. Cette méthode est basée sur la redondance analytique des données, consistant à estimer une même mesure à l’aide de capteurs de différentes natures. Cette mesure subit alors une transformation non linéaire permettant à la fois d’accroitre la sensibilité aux fautes et d’être plus robuste aux bruits. Cette étude propose plusieurs solutions de transformation et d’estimation qui seront évaluées en simulation avant de proposer une méthode d’optimisation de la prise de décision en fonction de critères choisis par l’utilisateur. La description de l’architecture, des méthodes employées ainsi que des équations permettant l’établissement de celle-ci seront décrites dans le chapitre 3. L’évaluation en simulation des performances de l’architecture sera effectuée dans le chapitre 4 avant une analyse finale des résultats ainsi qu’une comparaison avec une solution existante dans le dernier chapitre, permettant la validation de notre approche.
Resumo:
Les enseignantes et les enseignants du collégial accordent beaucoup de valeur au développement intellectuel de leurs élèves. La pensée critique représente l'idéal d'une pensée accomplie et son développement est un des buts de la formation générale au cégepl. Les professeurs de philosophie savent d'expérience que leur discipline se déploie souvent selon un mode conceptuel abstrait, étrange pour plusieurs élèves, novices dans la vie intellectuelle. En philosophie, la pensée critique est reconnue pour sa capacité à développer une réflexion rationnelle en profondeur et à structurer les concepts nécessaires à l'élaboration d'une pensée autonome. Les enseignantes et les enseignants de philosophie du collégial savent bien que les élèves qui pratiquent ou qui développent la pensée critique peuvent acquérir une formation philosophique de base, intéressante et pertinente. Mais, qu'arrive-t-il à ceux et celles qui ne la possèdent pas ? Notre position est qu'avec une perspective pédagogique, l'ensemble des élèves peut parvenir à développer des habiletés de pensée critique qui leur permettent d'accéder à une réflexion de haut niveau. Afin de poser le problème de recherche, nous avons débuté par l'examen de plusieurs difficultés liées à l'enseignement de la pensée critique. Ce qui frappe d'abord, c'est l'ampleur d'un problème conceptuel; la pensée critique est un terme générique attrayant, mais inconsistant et qui se révèle ambigu à l'usage. Ensuite, il faut reconnaître la présence d'un problème pédagogique : pour enseigner la pensée critique, les professeurs de philosophie ont besoin de ressources et d'une pratique pédagogique propre à la discipline. Après l'examen de quelques manuels utilisés dans les cours de philosophie au collégial, nous avons noté que leur orientation n'est pas dirigée vers le développement de la pensée critique. On peut alors se demander ce que peuvent faire les professeurs pour développer la pensée critique des élèves lorsque celle-ci s'avère insuffisante. Un relevé sommaire de la documentation nous a permis de découvrir que l'enseignement de la pensée critique pouvait être fondé sur plusieurs modèles théoriques. Nous en avons examiné quatre qui vont soutenir le choix du cadre de référence de notre recherche : 1) une sensibilité à la métacognition, 2) un enseignement par infusion, 3) une enculturation à la pensée critique, et 4) une épistémologie développementale. Nous mentionnons ensuite les problèmes concernant l'évaluation de la pensée critique : pour certains auteurs, les instruments d'évaluation ne sont pas assez sensibles pour rendre compte de changements graduels et subtils à l'intérieur d'une session. Malgré cette difficulté, on trouve tout de même dans les écrits plusieurs stratégies d'enseignement qui pourraient avoir des effets sur le développement de la pensée critique des élèves. Un bref inventaire de ces stratégies nous conduit à choisir l'approche de Bean (2001) comme cadre de référence et comme modèle pour l'enseignement de la pensée critique. Dans son ouvrage, Engaging ideas: The professor's guide to integrating writing, critical thinking, and active learning in the classroom, Bean (2001) intègre l'enseignement de la pensée critique à l'appropriation d'un contenu disciplinaire. L'auteur distingue quatre phases de développement de la pensée critique, inspirées de Kolb : l'expérience concrète, l'observation réflexive, l'abstraction conceptuelle et l'expérimentation active. Il présente pour chacune des phases des activités d'écriture qui pourraient être transférables ou applicables au niveau collégial. Ce choix nous amène à formuler notre objectif de recherche : produire un répertoire de stratégies pédagogiques pour l'enseignement de la pensée critique dans les cours de philosophie au collégial sur le modèle proposé par Bean (2001). Ainsi, l'approche de la recherche développement nous sert bien à atteindre cet objectif. Selon cette approche, nous avons conçu un répertoire de stratégies pédagogiques à l'intention des professeurs de philosophie, en nous inspirant des activités d'écriture proposées par Bean (2001). Ce répertoire a ensuite été soumis à quatre professeurs de philosophie pour validation. Ces experts avaient la tâche d'évaluer le matériel pédagogique et de soumettre des avis pour l'améliorer. La version validée du répertoire constitue le document que nous soumettons pour supporter les professeurs qui ont à coeur de développer la pensée critique dans les cours de philosophie au collégial. Cette recherche devrait contribuer à mieux comprendre la problématique du développement de la pensée critique, à envisager des perspectives pour l'enseigner et à saisir les enjeux pour son enseignement dans les cours de philosophie. Ces avenues devraient intéresser particulièrement la communauté collégiale.