18 resultados para Sensibilité rétinienne

em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Au Canada, les avalanches constituent le géorisque le plus dangereux en période hivernale. On enregistre annuellement d’importants coûts économiques et sociaux associés aux impacts de ce phénomène naturel. Par exemple, la fermeture de routes en cas de risque d’avalanche est estimée à 5 millions de dollars (Jamieson et Stethem, 2002). La prévision des avalanches est, de nos jours, la meilleure méthode afin d’éviter ces coûts. Au Canada, cela s’effectue de façon ponctuelle à l’aide de méthodes manuelles tel que le test de compression (CAA, 2014). Les modèles de simulation du couvert neigeux permettent d’étendre les prévisions à l’ensemble d’une région et ainsi, atteindre certains lieux difficilement accessibles pour l’homme. On tente actuellement d’adapter le modèle SNOWPACK aux conditions canadiennes et plusieurs études ont eu pour but d’améliorer les simulations produites par celui-ci. Cette étude vise donc également l’amélioration des simulations par l’intégration des paramètres de végétation. L’objectif de l’étude est de paramétrer, pour la première fois, le module de végétation de SNOWPACK avec les données récoltées dans la réserve faunique des Chic-Chocs. Nous pourrons ainsi évaluer l’impact de la végétation sur la modélisation du couvert nival. Nous avons donc, lors de sorties de terrain, recueillis les données de neige et de végétation au niveau de quatre sites d’étude. Nous avons par la suite réalisé les simulations avec SNOWPACK et comparer les résultats des simulations avec et sans végétation aux données de terrain. L’étude nous révèle que le modèle diminue la quantité de neige au sol ainsi que la densité du manteau neigeux en présence de végétation. De plus nous avons pu constater que l’inclusion du module de végétation permet d’obtenir des données qui se rapprochent davantage de ce qui a été observé sur le terrain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire porte sur la représentation du curé dans les films La petite Aurore l'enfant martyre (Jean-Yves Bigras, 1952) et Aurore (Luc Dionne, 2005). L'objectif principal est d'identifier l'image que l'on présente du curé dans ces deux oeuvres. L'étude de cette représentation permet de cerner les discours portés par ces deux films à travers le personnage du curé et d'apprécier dans quelle mesure ces discours filmiques témoignent du caractère de la société québécoise à deux époques déterminées, soit les années 1950 et les années 2000. Inscrite dans le champ des études culturelles, la recherche se fonde sur quatre axes théoriques principaux : la représentation, l'interprétation, la mythologie et l'analyse filmique. Les travaux de Stuart Hall, d'Umberto Eco et de Roland Barthes constituent le cadre théorique. L'approche de l'analyse de contenu s'inspire des travaux de Laurence Bardin et l'analyse filmique, de ceux de Jean Mitry, d'Anne Goliot-Lété et de Francis Vanoye, entre autres. La procédure de recherche consiste dans le découpage des éléments constitutifs de chaque film en plans, séquences et extraits, de manière à déconstruire les récits filmiques et à faire émerger les facteurs signifiants susceptibles de permettre de reconstituer le sens à travers la reconstruction du rôle du curé et la caractérisation du personnage dans chacun des films. La démarche d'interprétation s'appuie sur une série de thèmes sous lesquels se classent, en opposition souvent, les attributs des deux personnages, comme l'apparence générale, l'intégration au milieu, l'intellectualité, la figure d'autorité, le conformisme et la responsabilité. L'hypothèse principale formulée dans le cadre de la problématique se trouve validée. La représentation du curé dans le film de 1952 offre une image idéalisée du « bon curé », laquelle est conforme au discours dominant de son époque de production. Dans le film de 2005, on délaisse plutôt l'image idéalisée pour revêtir le curé d'attributs négatifs et le rendre responsable, en grande partie, du drame vécu par Aurore. De plus, les trois hypothèses secondaires ont pu aussi être validées : la représentation du curé en 2005 est liée à une plus grande sensibilité au phénomène de la maltraitance des enfants et au besoin d'en identifier les responsables; le transfert de responsabilité vers le curé semble le reflet de reproches adressés par la société québécoise au clergé pour des fautes du passé et la représentation péjorative du curé de 2005, où l'on insiste sur son caractère froid et distant, ne choque plus personne. Porteuse de plusieurs mythes, dont certains rejoignent les fondements de l'identité québécoise, l'histoire d'Aurore fait partie intégrante du patrimoine culturel. Les relectures de cette triste affaire au fil des ans traduisent aussi les changements qui marquent la société québécoise, en particulier dans son rapport au clergé et à la religion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche professionnelle porte sur les profils psychomoteurs d'un échantillon de 83 enfants français, garçons et filles de 7, 8 et 9 ans à hauts potentiels intellectuels rencontrant des difficultés pour apprendre à l'école primaire. Elle est mise en oeuvre au moyen d'une méthodologie mixte. Née en France, la psychomotricité est un corpus paramédical qui propose une approche éducative et de remédiation des difficultés d'apprentissage, à partir d'une conception du développement psychomoteur qui considère que les interrelations entre les fonctionnements corporels, les éprouvés émotionnels et les cognitions sont primordiales et qu'elles se réalisent et sont accessibles via l'expérience corporelle globalisante. Ce construit, et les outils d'évaluation qui en découlent, c'est-à-dire le bilan psychomoteur, sont ici mobilisés pour décrire les profils adaptatifs d'enfants à hauts potentiels intellectuels en souffrance pour apprendre. Si les principaux travaux consacrés à ces enfants hors-normes et à leurs développements atypiques évoquent leur sensibilité et fragilité, ils sont trop souvent restreints aux seuls aspects du quotient intellectuel. Les apports de la psychomotricité peuvent donc les compléter. À partir de la description du dialogue tonicoémotionnel, qui inscrit le sujet dans la continuité biologiquepsychologique, l'expérience du corps, sous le double effet de la maturation neuromotrice et du bain environnemental, évolue vers la différenciation des fonctions psychomotrices qui permet la maîtrise gestuelle, la représentation du corps, de l'espace et du temps. Ces descriptions sont cohérentes avec d'autres conceptions multi-référencées qui reconnaissent aux émotions et à leur devenir un rôle important dans le développement, comme la théorie de l'attachement. Elles conduisent au repérage de troubles psychomoteurs. Ceux-ci peuvent friner l'accès aux apprentissages scolaires notamment l'écriture. Ce sont des perturbations de l'équilibre psychocorporel. Par définition et spécifiquement, ils ne répondent pas à une atteinte neurologique et expriment une souffrance psychique. L'analyse centrée sur les variables fournit une vision générale des données collectées. Les corrélations entre les 30 rubriques sont étudiées en les classant par sphères correspondant aux fonctions psychomotrices - motricité - rythme - espace - intégration corporelle - graphomotricité; puis par processus - tonicoémotionnel - sensori-perceptivo-moteur - cognitif - apprentissage explicité. Cette taxonomie éclaire les corrélations et donc les niveaux d'organisation. Ce premier traitement statistique débouche sur a) l'intérêt de la démarche globale en psychomotricité puisque toutes les rubriques étudiées se sont avérées troublées, b) l'apport de la prise en considération des dimensions tonicoémotionnelles, c) l'importance de l'articulation sensori-perceptivo-motrice et d) une confirmation des liens entre les compétences psychomotrices et l'écriture. La seconde étape est une classification hiérarchique ascendante puis une analyse factorielle des grappes. Elle dégage des résultats concernant des différences entre les organisations internes de ces enfants sous-réalisateurs, à partir des poids respectifs des facteurs 1) de la dyspraxie et de la dysgraphie, 2) de l'hyperactivité et de l'anxiété avec impulsivité et difficultés graphiques, 3) des troubles de la motricité large et fine et de l'expression émotionnelle, 4) des troubles spatiaux, 5) des troubles visuopraxiques et de l'intégration corporelle floue, 6) des troubles diffus et légers et 7) des troubles du rythme. Ainsi les cinq grappes sont décrites de manière dynamique comme caractérisées par 1) de bonnes compétences scripturales, des difficultés légères mais aussi des perturbations du tonus musculaire, 2) des tendances dysgraphiques pour des enfants maladroits et inquiets mais aussi avec des compétences préservées, qui se différencient 3) d'enfants franchement dysgraphiques avec des difficultés à se situer et manier les informations relatives à l'espace et au rythme, 4) d'enfants également dysgraphiques mais aussi hyperactifs, anxieux et manquant de référence spatio-temporelle, et 5) de sujets qui dysgraphiques, dyspraxiques, émotifs ont des tendances hyperactives et des incertitudes visuopraxiques. Ainsi à partir de la référence holistique-interactionniste, ces résultats confirment l'intérêt des approches globales et multi-référencées pour explorer les profils des enfants dont le développement n'est pas harmonieux et qui se trouvent confrontés à des difficultés pour apprendre dans le cadre scolaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Parmi les méthodes les plus utilisées en inspection embarquée des structures (Structural Health Monitoring ou SHM), les techniques d’imagerie basées sur un modèle de propagation sont de plus en plus répandues. Pour les techniques d'imagerie basées sur un modèle de propagation, bien que ces techniques montent en popularité, la complexité des matériaux composites réduit grandement leur performance en détection d'endommagements comparativement aux démonstrations précédentes de leur potentiel sur des matériaux isotropes. Cette limitation dépend entre autres des hypothèses simplificatrices souvent posées dans les modèles utilisés et peut entraîner une augmentation des faux positifs et une réduction de la capacité de ces techniques à détecter des endommagements. Afin de permettre aux techniques d'imagerie basées sur un modèle d'offrir une performance équivalente à celle obtenue précédemment sur les structures métalliques, il est nécessaire d'exploiter des modèles de propagation considérant la dynamique complexe des ondes dans ce type de structures. Cette thèse présente les travaux effectués sur la modélisation de la propagation des ondes guidées dans les matériaux composites. En première partie, une amélioration simple des modèles de génération et de propagation est proposée afin de permettre de mieux reconstruire les signaux générés et propagés sur une structure composite. Par la suite, le potentiel de la technique « Excitelet » à détecter et positionner adéquatement un ou plusieurs endommagements sur un matériau, peu importe son empilement (d’un composite unidirectionnel à un matériau isotrope), est démontré tant pour le mode A[indice inférieur 0] que le mode S[indice inférieur 0]. Les résultats obtenus numériquement et expérimentalement démontrent une corrélation directe entre l'amélioration des modèles mathématiques derrière les techniques d'imagerie et la robustesse des techniques pour ce qui est de la précision sur le positionnement du dommage et du niveau de corrélation obtenu. Parmi les améliorations à la technique d'imagerie « Excitelet » proposées, une amélioration significative des résultats en imagerie est démontrée en considérant la distribution de cisaillement plan sous l’émetteur, ce qui est une nouveauté par rapport aux travaux de recherche précédents en imagerie. La performance de la technique d'imagerie via la modélisation de la propagation d'ondes guidées dans les laminés multicouches transverses isotropes est par la suite démontrée. Les équations de l'élasticité en 3D sont utilisées pour bien modéliser le comportement dispersif des ondes dans les composites, et cette formulation est par la suite implantée dans la technique d'imagerie « Excitelet ». Les résultats démontrent que l'utilisation d'une formulation mathématique plus avancée permet d'augmenter la précision quant au positionnement des dommages et à l'amplitude de la corrélation obtenue lors de la détection d'un dommage. Une analyse exhaustive de la sensibilité de la technique d’imagerie et de la propagation d’ondes aux conditions environnementales et à la présence de revêtement sur la structure est présentée en dernière partie. Les résultats obtenus montrent que la considération de la propagation complexe dans la formulation d’imagerie ainsi que la caractérisation des propriétés mécaniques « a priori » de l’imagerie améliorent la robustesse de la technique et confèrent à la technique « Excitelet » la capacité de détecter et positionner précisément un endommagement, peu importe le type de structure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un moyen permettant d'identifier expérimentalement les phases du gaz d'électrons bidimensionnel de la bicouche de graphène en empilement bernal au remplissage $\nu = 3$ est recherché lorsque le biais électrique entre les couches est varié. À ce remplissage, si on se concentre aux basses énergies, il est possible de ne s'intéresser qu'aux deux niveaux de Landau composant le niveau $N=0$ qui sont de même spin et de même vallée, mais d'orbitale différente. Puisque la texture du pseudospin orbital de ce système change selon la phase, il est attendu que le couplage avec le champ électrique de la lumière devrait changer. La dispersion des modes collectifs de chaque phase est calculée dans l'approximation GRPA (generalized random-phase approximation) dans le domaine en biais où chacune domine respectivement. L'absorption optique pour des polarisations linéaires en direction x et en direction y ainsi que pour des polarisations circulaires gauche et droite est calculée. La rotation de Faraday et l'effet Kerr sont également calculés. Des différences entre les phases sont remarquées au niveaux de la fréquence des photons qui sont absorbés, de l'amplitude de l'absorption et de la rotation de la polarisation ainsi que la sensibilité à certains types de polarisation. L'effet des modes collectifs dans les phases considérées est cependant moindre que celui qui est prédit dans un calcul qui ne tient pas compte de l'interaction de Coulomb.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ville de Sherbrooke a présenté dans son schéma d'aménagement et de développement révisé 2012-2027 son projet d'implanter une ceinture verte sur son territoire. Elle n'a cependant pas défini d'orientations claires quant aux objectifs et à la délimitation de celle-ci. Le but de cet essai est d'alimenter la réflexion des décideurs de la ville de Sherbrooke à ce sujet en présentant des scénarios cartographiques de ceintures vertes. Pour réaliser ces scénarios, une revue de littérature a été effectuée afin de définir le concept de ceinture verte et d’identifier les fonctions remplies par ces ceintures vertes. Parmi ces fonctions, cinq sont priorisées par la Ville de Sherbrooke, soit : contrôler l'étalement urbain, préserver la biodiversité, favoriser l'accès des citoyens à un espace vert, protéger contre les inondations et connecter la ceinture verte avec les corridors écologiques régionaux. Les scénarios cartographiques produits sont basés sur des indicateurs et indices spatiaux aptes à représenter ces fonctions sur le territoire de la municipalité. Ces traitements géomatiques ont permis de créer des cartes représentant les zones de sensibilité du territoire de Sherbrooke pour l'implantation d'une ceinture verte selon ces cinq fonctions prioritaires. Ces traitements ont permis de déterminer que les zones les plus prioritaires pour l’implantation d’une ceinture verte représentent un peu plus de la moitié du territoire de la ville de Sherbrooke. Elles encerclent la trame urbaine tout en incluant quelques îlots en périphérie et le secteur sud-ouest du territoire municipal. L'approche de conception de scénarios de ceinture verte présentée ici est comparée à d’autres approches utilisées au Québec et dans d’autres études sur le sujet. Cette approche multi-fonction est novatrice et constitue un outil précieux pour les responsables municipaux qui souhaitent se doter d'une ceinture verte. Cette démarche est adaptative et le scénario de ceinture verte produit pour la Ville de Sherbrooke pourra être mis à jour selon l’évolution de leur réflexion sur les fonctions prioritaires. Cette démarche est également facilement généralisable à d’autres contextes municipaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : La maladie osseuse de Paget (MP) est un désordre squelettique caractérisé par une augmentation focale et désorganisée du remodelage osseux. Les ostéoclastes (OCs) de MP sont plus larges, actifs et nombreux, en plus d’être résistants à l’apoptose. Même si la cause précise de la MP demeure inconnue, des mutations du gène SQSTM1, codant pour la protéine p62, ont été décrites dans une proportion importante de patients avec MP. Parmi ces mutations, la substitution P392L est la plus fréquente, et la surexpression de p62P392L dans les OCs génère un phénotype pagétique partiel. La protéine p62 est impliquée dans de multiples processus, allant du contrôle de la signalisation NF-κB à l’autophagie. Dans les OCs humains, un complexe multiprotéique composé de p62 et des kinases PKCζ et PDK1 est formé en réponse à une stimulation par Receptor Activator of Nuclear factor Kappa-B Ligand (RANKL), principale cytokine impliquée dans la formation et l'activation des OCs. Nous avons démontré que PKCζ est impliquée dans l’activation de NF-κB induite par RANKL dans les OCs, et dans son activation constitutive en présence de p62P392L. Nous avons également observé une augmentation de phosphorylation de Ser536 de p65 par PKCζ, qui est indépendante d’IκB et qui pourrait représenter une voie alternative d'activation de NF-κB en présence de la mutation de p62. Nous avons démontré que les niveaux de phosphorylation des régulateurs de survie ERK et Akt sont augmentés dans les OCs MP, et réduits suite à l'inhibition de PDK1. La phosphorylation des substrats de mTOR, 4EBP1 et la protéine régulatrice Raptor, a été évaluée, et une augmentation des deux a été observée dans les OCs pagétiques, et est régulée par l'inhibition de PDK1. Également, l'augmentation des niveaux de base de LC3II (associée aux structures autophagiques) observée dans les OCs pagétiques a été associée à un défaut de dégradation des autophagosomes, indépendante de la mutation p62P392L. Il existe aussi une réduction de sensibilité à l’induction de l'autophagie dépendante de PDK1. De plus, l’inhibition de PDK1 induit l’apoptose autant dans les OCs contrôles que pagétiques, et mène à une réduction significative de la résorption osseuse. La signalisation PDK1/Akt pourrait donc représenter un point de contrôle important dans l’activation des OCs pagétiques. Ces résultats démontrent l’importance de plusieurs kinases associées à p62 dans la sur-activation des OCs pagétiques, dont la signalisation converge vers une augmentation de leur survie et de leur fonction de résorption, et affecte également le processus autophagique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Malgré le nombre croissant de capteurs dans les domaines de la chimie et la biologie, il reste encore à étudier en profondeur la complexité des interactions entre les différentes molécules présentes lors d’une détection à l’interface solide-liquide. Dans ce cadre, il est de tout intérêt de croiser différentes méthodes de détection afin d’obtenir des informations complémentaires. Le principal objectif de cette étude est de dimensionner, fabriquer et caractériser un détecteur optique intégré sur verre basé sur la résonance plasmonique de surface, destiné à terme à être combiné avec d’autres techniques de détection, dont un microcalorimètre. La résonance plasmonique de surface est une technique reconnue pour sa sensibilité adaptée à la détection de surface, qui a l’avantage d’être sans marquage et permet de fournir un suivi en temps réel de la cinétique d’une réaction. L’avantage principal de ce capteur est qu’il a été dimensionné pour une large gamme d’indice de réfraction de l’analyte, allant de 1,33 à 1,48. Ces valeurs correspondent à la plupart des entités biologiques associées à leurs couches d’accroche dont les matrices de polymères, présentés dans ce travail. Étant donné que beaucoup d’études biologiques nécessitent la comparaison de la mesure à une référence ou à une autre mesure, le second objectif du projet est d’étudier le potentiel du système SPR intégré sur verre pour la détection multi-analyte. Les trois premiers chapitres se concentrent sur l’objectif principal du projet. Le dimensionnement du dispositif est ainsi présenté, basé sur deux modélisations différentes, associées à plusieurs outils de calcul analytique et numérique. La première modélisation, basée sur l’approximation des interactions faibles, permet d’obtenir la plupart des informations nécessaires au dimensionnement du dispositif. La seconde modélisation, sans approximation, permet de valider le premier modèle approché et de compléter et affiner le dimensionnement. Le procédé de fabrication de la puce optique sur verre est ensuite décrit, ainsi que les instruments et protocoles de caractérisation. Un dispositif est obtenu présentant des sensibilités volumiques entre 1000 nm/RIU et 6000 nm/RIU suivant l’indice de réfraction de l’analyte. L’intégration 3D du guide grâce à son enterrage sélectif dans le verre confère au dispositif une grande compacité, le rendant adapté à la cointégration avec un microcalorimètre en particulier. Le dernier chapitre de la thèse présente l’étude de plusieurs techniques de multiplexage spectral adaptées à un système SPR intégré, exploitant en particulier la technologie sur verre. L’objectif est de fournir au moins deux détections simultanées. Dans ce cadre, plusieurs solutions sont proposées et les dispositifs associés sont dimensionnés, fabriqués et testés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude examine les liens entre la participation au budget et la performance managériale avec la motivation comme variable intervenante. La motivation est décomposée en plusieurs facteurs dont les gratifications intrinsèques et extrinsèques. L'effet des variables de la complexité de l'environnement technologique et de la gestion par exceptions (GPE) est aussi examiné. L'étude est menée auprès de contremaîtres affectés à la production d'entreprises manufacturières de taille moyenne. Les contremaîtres montrent une nette préférence aux gratifications intrinsèques, suggérant leur insatisfaction face au système de récompenses en place. Cette insatisfaction semble s'exprimer dans le lien négatif entre la motivation et la participation. De plus, l'engagement personnel des contremaîtres face aux objectifs de l'organisation semble les rendre plus critiques dans l'évaluation de leur performance managériale. Le phénomène est accentué chez les contremaîtres des entreprises avec un niveau de GPE faible puisqu'ils ne perçoivent pas le système de contrôle de gestion comme un outil de répression. Il est aussi accentué, mais dans une moindre mesure, chez les contremaîtres des entreprises hautement technologiques. Cependant, l'effet de la participation au budget pour ces derniers semble favoriser la performance managériale. La plus grande sensibilité des gestionnaires aux valences intrinsèques et leur réticence à attribuer aux autres l'insuccès face à l'atteinte des objectifs pourraient être une des caractéristiques des moyennes entreprises. Les résultats de cette étude suggèrent aussi que, pour une entreprise de taille moyenne, un style de gestion non perçu comme répressif améliore la participation, la motivation et la performance des gestionnaires. Enfin, la participation semble avoir un effet positif sur la performance managériale dans un environnement technologique plus complexe seulement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le caribou de Peary, désigné en voie de disparition, n’est pas épargné par les changements climatiques. Par le passé, des hivers successifs caractérisés par des conditions météorologiques extrêmes ont entrainé des déclins importants de population en quelques années, pouvant aller jusqu’à 98 %. L’augmentation des épisodes de redoux hivernaux et de pluies sur neige réduit les conditions d’accès à la nourriture de cette sous-espèce. Ces conditions ont pour conséquence d’augmenter la densité des couches de neige dans le manteau neigeux, ce qui empêche le caribou d’avoir accès au fourrage couvrant le sol en hiver. Dans cet esprit, l’outil de spatialisation de SNOWPACK dans l’Arctique (OSSA) développé dans Ouellet et al. (2016) permet la spatialisation des conditions d’accès à la nourriture du caribou de Peary en utilisant le modèle de simulation du couvert nival SNOWPACK. Le paramètre du couvert nival utilisé est l’épaisseur cumulée au-delà d’un seuil fixe de densité durant la saison hivernale (ECD). L'OSSA fournit un résultat d’une résolution spatiale de 32 km puisque les données météorologiques utilisées sont les données de réanalyses du North American Regional Reanalysis (NARR) qui possède une résolution de 32 km. Cette résolution grossière ne permet pas de documenter et prédire la migration locale des différentes populations sur les îles de l'archipel arctique canadien. L’objectif principal de ce projet est donc d’évaluer le potentiel d'une approche de raffinement spatial de l'OSSA à une résolution de 1 km. Afin d’affiner la résolution spatiale de la simulation de l’ECD, des données de pente et de l’albédo du sol à une résolution de 1 km ont été utilisées. Avant d’effectuer les simulations à haute résolution, la sensibilité de l’ECD à ces deux paramètres du terrain a été testée. Les simulations préliminaires ont permis de démontrer que plus la pente est élevée, plus l’ECD sera faible. Également, il a été identifié que la pente va affecter l’ECD à partir d’un seuil de 3 degré. L’albédo du sol a aussi un impact significatif sur l’ECD, mais à un niveau moins important que la pente. Finalement, la comparaison des résultats à faible et haute résolution a pu démontrer que l’approche de raffinement spatial appliquée permet d’obtenir une information plus détaillée des conditions d’accès à la nourriture du caribou de Peary. Les résultats d’ECD obtenus à 1 km de résolution montrent des écarts avec l’ECD à 32 km de résolution pouvant dépasser les 2000 cm. Finalement, cette étude montre l’intérêt d’automatiser cette approche afin de pouvoir spatialiser les conditions d’accès à la nourriture à une résolution de 1 km et de prédire certaines micro-variabilités dans les déplacements futurs des caribous de Peary en fonction des changements climatiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pour augmenter sa compréhension du monde qui l’entoure, le physicien moderne ne cesse de travailler au développement d’outils théoriques ou expérimentaux pour l’aider à répondre à ses questions fondamentales. Une partie de ces chercheurs tente de répondre à une question bien définie, mais simultanément très vague : qu’est-ce que le bruit électro- nique? Guidés par cette idée, certains étudient des dispositifs comme la jonction tunnel ou la jonction Josephson, alors que d’autres travaillent à l’amélioration des méthodes de détection du bruit. Le présent mémoire de maîtrise traite donc de la conception d’un outil de détection bien particulier, le micro-bolomètre supraconducteur de niobium-titane-niobium. La théorie derrière le fonctionnement d’un tel dispositif est expliquée à l’aide d’une comparaison entre un bolomètre conventionnel et un bolomètre supraconducteur. Des concepts comme la sensibilité d’un détecteur, la conductance thermique et la méthode d’utilisation sont présentés. Les étapes du procédé de fabrication sont ensuite explicitées dans les moindres détails. Finalement, les propriétés électroniques d’un tel micro-bolomètre sont analysées à l’aide de la courbe caractéristique courant-tension, de la courbe de transition supraconductrice en température et de dfférentes mesures en réflectométrie. La puissance équivalente de bruit (NEP) mesurée est de l’ordre de 10[indice supérieur −17] W/√Hz et le temps caractéristique de détection est de 1.43 μs. Le dispositif présenté dans ce mémoire a un avantage important par rapport aux bolomètres supraconducteurs généralement utilisés : il ne nécessite pas de courant de polarisation continu pour le mettre en fonctionnement. Ceci peut résulter en divers avantages technologiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le laboratoire DOMUS développe des applications pour assister les personnes en perte d'autonomie et les personnes avec des troubles cognitifs. Chaque application est ou a déjà été le sujet de plusieurs études d'utilisabilité qui permettent de les améliorer. Ces études prennent beaucoup de temps à mettre en place, car l'on rencontre souvent des problèmes de logistique (format et sensibilité des données, chercheurs répartis sur une grande aire géographique). C'est pourquoi un outil appelé GEDOPAL a été développé. Il permet de partager entre chercheurs de différents centres les données créées et utilisées lors de la mise en place des études d'utilisabilité. La conception et la réalisation de cet outil ont nécessité une réflexion en amont sur la nature et la sensibilité de ces données. Cette réflexion est l'objet du Chapitre 3. Ces études prennent aussi beaucoup de temps lors de l'analyse des résultats. De plus, certaines données créées lors de ces études, telles que les traces d'utilisation ont des volumétries trop importantes pour être analysées manuellement. C'est pourquoi nous avons créé un processus permettant d'analyser ces traces d'utilisation pour y détecter les erreurs utilisateurs dans l'espoir de les relier à des problèmes d'utilisabilité. Ce processus se compose de deux parties : la première est une analyse formelle de l'application, qui sera présentée au Chapitre 4, et la seconde l'application d'un outil d'apprentissage automatique aux traces d'utilisation pour y détecter les erreurs utilisateurs. Cet outil est présenté au Chapitre 5.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Une dysrégulation de la lipolyse des tissus adipeux peut conduire à une surexposition des tissus non-adipeux aux acides gras non-estérifiés (AGNE), qui peut mener à un certain degré de lipotoxicité dans ces tissus. La lipotoxicité constitue, par ailleurs, l’une des causes majeures du développement de la résistance à l’insuline et du diabète de type 2. En plus de ses fonctions glucorégulatrices, l’insuline a pour fonction d’inhiber la lipolyse et donc de diminuer les niveaux d’AGNE en circulation, prévenant ainsi la lipotoxicité. Il n’y a pas d’étalon d’or pour mesurer la sensibilité de la lipolyse à l’insuline. Le clamp euglycémique hyperinsulinémique constitue la méthode étalon d’or pour évaluer la sensibilité du glucose à l’insuline mais il est aussi utilisé pour mesurer la suppression de la lipolyse par l’insuline. Par contre, cette méthode est couteuse et laborieuse, et ne peut pas s’appliquer à de grandes populations. Il existe aussi des indices pour estimer la fonction antilipolytique de l’insuline dérivés de l’hyperglycémie provoquée par voie orale (HGPO), un test moins dispendieux et plus simple à effectuer à grande échelle. Cette étude vise donc à : 1) Étudier la relation entre les indices de suppressibilité des AGNE par l’insuline dérivés du clamp et ceux dérivés de l’HGPO; et 2) Déterminer laquelle de ces mesures corrèle le mieux avec les facteurs connus comme étant reliés à la dysfonction adipeuse : paramètres anthropométriques et indices de dysfonction métabolique. Les résultats montrent que dans le groupe de sujets étudiés (n=29 femmes, 15 témoins saines et 14 femmes avec résistance à l’insuline car atteintes du syndrome des ovaires polykystiques), certains indices de sensibilité à l’insuline pour la lipolyse dérivés de l’HGPO corrèlent bien avec ceux dérivés du clamp euglycémique hyperinsulinémique. Parmi ces indices, celui qui corrèle le mieux avec les indices du clamp et les paramètres anthropométriques et de dysfonction adipeuse est le T50[indice inférieur AGNE] (temps nécessaire pour diminuer de 50% le taux de base – à jeun – des AGNE). Nos résultats suggèrent donc que l’HGPO, facile à réaliser, peut être utilisée pour évaluer la sensibilité de la lipolyse à l’insuline. Nous pensons que la lipo-résistance à l’insuline peut être facilement quantifiée en clinique humaine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Dans les couverts forestiers, le suivi de l’humidité du sol permet de prévenir plusieurs désastres tels que la paludification, les incendies et les inondations. Comme ce paramètre est très dynamique dans l’espace et dans le temps, son estimation à grande échelle présente un grand défi, d’où le recours à la télédétection radar. Le capteur radar à synthèse d’ouverture (RSO) est couramment utilisé grâce à sa vaste couverture et sa résolution spatiale élevée. Contrairement aux sols nus et aux zones agricoles, le suivi de l’humidité du sol en zone forestière est très peu étudié à cause de la complexité des processus de diffusion dans ce type de milieu. En effet, la forte atténuation de la contribution du sol par la végétation et la forte contribution de volume issue de la végétation réduisent énormément la sensibilité du signal radar à l’humidité du sol. Des études portées sur des couverts forestiers ont montré que le signal radar en bande C provient principalement de la couche supérieure et sature vite avec la densité de la végétation. Cependant, très peu d’études ont exploré le potentiel des paramètres polarimétriques, dérivés d’un capteur polarimétrique comme RADARSAT-2, pour suivre l’humidité du sol sur les couverts forestiers. L’effet du couvert végétal est moins important avec la bande L en raison de son importante profondeur de pénétration qui permet de mieux informer sur l’humidité du sol. L’objectif principal de ce projet est de suivre l’humidité du sol à partir de données radar entièrement polarimétriques en bandes C et L sur des sites forestiers. Les données utilisées sont celles de la campagne terrain Soil Moisture Active Passive Validation EXperiment 2012 (SMAPVEX12) tenue du 6 juin au 17 juillet 2012 au Manitoba (Canada). Quatre sites forestiers de feuillus ont été échantillonnés. L’espèce majoritaire présente est le peuplier faux-tremble. Les données utilisées incluent des mesures de l’humidité du sol, de la rugosité de surface du sol, des caractéristiques des sites forestiers (arbres, sous-bois, litières…) et des données radar entièrement polarimétriques aéroportées et satellitaires acquises respectivement, en bande L (UAVSAR) à 30˚ et 40˚ et en bande C (RADARSAT-2) entre 20˚ et 30˚. Plusieurs paramètres polarimétriques ont été dérivés des données UAVSAR et RADARSAT-2 : les coefficients de corrélation (ρHHVV, φHHVV, etc); la hauteur du socle; l’entropie (H), l’anisotropie (A) et l’angle alpha extraits de la décomposition de Cloude-Pottier; les puissances de diffusion de surface (Ps), de double bond (Pd) extraites de la décomposition de Freeman-Durden, etc. Des relations entre les données radar (coefficients de rétrodiffusion multifréquences et multipolarisations (linéaires et circulaires) et les paramètres polarimétriques) et l’humidité du sol ont été développées et analysées. Les résultats ont montré que 1) En bande L, plusieurs paramètres optimaux permettent le suivi de l’humidité du sol en zone forestière avec un coefficient de corrélation significatif (p-value < 0,05): σ[indice supérieur 0] linéaire et σ[indice supérieur 0] circulaire (le coefficient de corrélation, r, varie entre 0,60 et 0,96), Ps (r entre 0,59 et 0,84), Pd (r entre 0,6 et 0,82), ρHHHV_30˚, ρVVHV_30˚, φHHHV_30˚ and φHHVV_30˚ (r entre 0,56 et 0,81) alors qu’en bande C, ils sont réduits à φHHHV, φVVHV et φHHVV (r est autour de 0,90). 2) En bande L, les paramètres polarimétriques n’ont pas montré de valeur ajoutée par rapport aux signaux conventionnels multipolarisés d’amplitude, pour le suivi de l’humidité du sol sur les sites forestiers. En revanche, en bande C, certains paramètres polarimétriques ont montré de meilleures relations significatives avec l’humidité du sol que les signaux conventionnels multipolarisés d’amplitude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En plus d’être associé à une espérance de vie précaire, les gliomes de haut grade (GHG) s’accompagnent de déficits cognitifs ayant le potentiel d’avoir un impact majeur sur la qualité de vie. Il demeure une compréhension limitée de l’étendue et de la nature des déficits cognitifs des patients en début de parcours de soins, de l’effet de la tumeur elle-même sur les fonctions cognitives tout comme de son lien avec la qualité de vie. L’objectif général de la présente étude était d’effectuer une évaluation cognitive de patients atteints de GHG avant tout traitement afin de décrire leur profil cognitif. Plus précisément, on visait à décrire l’étendue et la nature des déficits cognitifs des patients et explorer la relation entre les fonctions cognitives des patients et les caractéristiques tumorales (volume tumoral et de l’atteinte parenchymateuse) et le niveau de qualité de vie. Une seconde partie de l’étude visait à explorer l’utilité du Montreal Cognitive Assessment (MOCA), un test de dépistage, pour détecter des déficits cognitifs chez des patients atteints d’un GHG. Une étude descriptive transversale exploratoire, comportant un échantillon de 14 patients atteints de GHG nouvellement diagnostiqués et recrutés au Centre Hospitalier Universitaire de Sherbrooke, a été conduite. Les évaluations cognitives ont été effectuées à l’aide d’une batterie de six tests neuropsychologiques et du MOCA. Les volumes tumoraux provenant des imageries par résonance magnétique ont été obtenus grâce à une méthode volumétrique rigoureuse alors que la qualité de vie a été évaluée à l’aide du Sherbrooke Neuro-oncology Assessment Scale. Les résultats ont démontré que des déficits cognitifs sont bien présents en début de parcours de soins chez ces patients. En ce qui à trait aux caractéristiques tumorales, notre étude n’a pu démontrer de corrélation entre les déficits cognitifs et le volume tumoral, soulevant la possibilité d’une absence de lien entre ces deux variables. L’atteinte parenchymateuse créée par la tumeur corrèle avec un test d’évaluation de la vitesse de traitement de l’information (⍴ = -0,784, p = 0,01). Il semblerait par ailleurs que les fonctions cognitives ne soit pas corrélées avec le niveau de qualité de vie. Finalement, le MOCA semble être un outil prometteur pour l’évaluation cognitive des patients présentant des GHG, alors qu’il semble présenter une valeur prédictive positive satisfaisante malgré une sensibilité plus modeste.