8 resultados para Modèle non-standard

em Université Laval Mémoires et thèses électroniques


Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’effet du climat sur la croissance de la végétation est depuis longtemps un fait acquis. Les changements climatiques globaux ont entrainé une augmentation des efforts de recherche sur l’impact de ces changements en milieux naturels, à la fois en termes de distribution et d’abondance des espèces, mais également à travers l’étude des rendements des espèces commerciales. La présente étude vise à déterminer, à travers l’utilisation de relevés dendrochronologiques, les effets de variables climatiques sur la croissance de l’épinette noire et du sapin baumier à l’échelle de la forêt boréale du Québec. Le but est d’identifier les principaux modificateurs climatiques responsables de la croissance des peuplements boréaux en fonction de leur âge et de leur localisation. Se focalisant sur un modèle non-linéaire des moindres carrés incorporant les modificateurs climatiques et un modificateur d’âge, la modélisation de la croissance en surface terrière en fonction de ces critères a permis de détecter des différences entre le sapin baumier et l’épinette noire. Les résultats montrent que les deux espèces réagissent surtout à la longueur de la saison de croissance et aux températures estivales maximales. L’épinette noire semble également plus sensible aux conditions de sécheresse. Les modèles basés sur l’âge ainsi que sur la localisation le long d’un gradient nord-sud révèlent quelques différences, notamment concernant la réaction plus prononcée des jeunes peuplements au climat, en particulier aux températures, tandis que les vieux peuplements sont sensibles au rayonnement solaire. L’étude démontre tout de même une relative indépendance de l’épinette vis-à-vis du gradient latitudinal, à l’inverse du sapin. Les résultats permettent de discuter des modifications de productivité de ces espèces liées à l’allongement de la saison de croissance (gain pour les deux essences) et aux températures croissantes en conjonction avec les précipitations (perte due à la sécheresse pour l’épinette), dans un contexte de changements climatiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les protéines membranaires intégrales jouent un rôle indispensable dans la survie des cellules et 20 à 30% des cadres de lectures ouverts codent pour cette classe de protéines. La majorité des protéines membranaires se trouvant sur la Protein Data Bank n’ont pas une orientation et une insertion connue. L’orientation, l’insertion et la conformation que les protéines membranaires ont lorsqu’elles interagissent avec une bicouche lipidique sont importantes pour la compréhension de leur fonction, mais ce sont des caractéristiques difficiles à obtenir par des méthodes expérimentales. Des méthodes computationnelles peuvent réduire le temps et le coût de l’identification des caractéristiques des protéines membranaires. Dans le cadre de ce projet de maîtrise, nous proposons une nouvelle méthode computationnelle qui prédit l’orientation et l’insertion d’une protéine dans une membrane. La méthode est basée sur les potentiels de force moyenne de l’insertion membranaire des chaînes latérales des acides aminés dans une membrane modèle composèe de dioléoylphosphatidylcholine.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Au cours des dernières décennies, l’effort sur les applications de capteurs infrarouges a largement progressé dans le monde. Mais, une certaine difficulté demeure, en ce qui concerne le fait que les objets ne sont pas assez clairs ou ne peuvent pas toujours être distingués facilement dans l’image obtenue pour la scène observée. L’amélioration de l’image infrarouge a joué un rôle important dans le développement de technologies de la vision infrarouge de l’ordinateur, le traitement de l’image et les essais non destructifs, etc. Cette thèse traite de la question des techniques d’amélioration de l’image infrarouge en deux aspects, y compris le traitement d’une seule image infrarouge dans le domaine hybride espacefréquence, et la fusion d’images infrarouges et visibles employant la technique du nonsubsampled Contourlet transformer (NSCT). La fusion d’images peut être considérée comme étant la poursuite de l’exploration du modèle d’amélioration de l’image unique infrarouge, alors qu’il combine les images infrarouges et visibles en une seule image pour représenter et améliorer toutes les informations utiles et les caractéristiques des images sources, car une seule image ne pouvait contenir tous les renseignements pertinents ou disponibles en raison de restrictions découlant de tout capteur unique de l’imagerie. Nous examinons et faisons une enquête concernant le développement de techniques d’amélioration d’images infrarouges, et ensuite nous nous consacrons à l’amélioration de l’image unique infrarouge, et nous proposons un schéma d’amélioration de domaine hybride avec une méthode d’évaluation floue de seuil amélioré, qui permet d’obtenir une qualité d’image supérieure et améliore la perception visuelle humaine. Les techniques de fusion d’images infrarouges et visibles sont établies à l’aide de la mise en oeuvre d’une mise en registre précise des images sources acquises par différents capteurs. L’algorithme SURF-RANSAC est appliqué pour la mise en registre tout au long des travaux de recherche, ce qui conduit à des images mises en registre de façon très précise et des bénéfices accrus pour le traitement de fusion. Pour les questions de fusion d’images infrarouges et visibles, une série d’approches avancées et efficaces sont proposés. Une méthode standard de fusion à base de NSCT multi-canal est présente comme référence pour les approches de fusion proposées suivantes. Une approche conjointe de fusion, impliquant l’Adaptive-Gaussian NSCT et la transformée en ondelettes (Wavelet Transform, WT) est propose, ce qui conduit à des résultats de fusion qui sont meilleurs que ceux obtenus avec les méthodes non-adaptatives générales. Une approche de fusion basée sur le NSCT employant la détection comprime (CS, compressed sensing) et de la variation totale (TV) à des coefficients d’échantillons clairsemés et effectuant la reconstruction de coefficients fusionnés de façon précise est proposée, qui obtient de bien meilleurs résultats de fusion par le biais d’une pré-amélioration de l’image infrarouge et en diminuant les informations redondantes des coefficients de fusion. Une procédure de fusion basée sur le NSCT utilisant une technique de détection rapide de rétrécissement itératif comprimé (fast iterative-shrinking compressed sensing, FISCS) est proposée pour compresser les coefficients décomposés et reconstruire les coefficients fusionnés dans le processus de fusion, qui conduit à de meilleurs résultats plus rapidement et d’une manière efficace.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

OBJECTIFS: La libération de dopamine par les afférences à sérotonine (5-HT) du striatum constitue un déterminant pré-synaptique important des dyskinésies induites par la L-Dopa (DILs), un effet délétère du traitement pharmacologique de la maladie de Parkinson. En effet, les axones 5-HT seraient en mesure de libérer de façon non-physiologique de la dopamine lorsque la L-Dopa est administrée au patient, contribuant ainsi à l’expression des DILs. Certaines afférences striatales 5-HT contiennent un transporteur vésiculaire du glutamate (VGluT3) et nous croyons que sa présence puisse avoir un effet synergique sur la libération de dopamine. L’objectif général de ce mémoire est donc d’évaluer la quantité de VGluT3 présent au sein des axones 5-HT et de mesurer son implication dans l’expression des DILs. MÉTHODES : Dix-huit souris C57/Bl6 ont été séparées en trois groupes expérimentaux. Douze souris ont reçu une injection intracérébrale de 6- hydroxydopamine (6-OHDA) dans le faisceau prosencéphalique médian afin de léser les afférences dopaminergiques du striatum. Six souris lésées ont reçu des injections systémiques de L-Dopa (12 jours, 1 fois/jour). Six autres souris ont reçu une injection intracérébrale du véhicule afin de servir de contrôle. La sévérité des mouvements involontaires anormaux induits par la L-Dopa (équivalent des dyskinésies) a été quantifiée selon une échelle reconnue. Un double marquage en immunofluorescence pour le transporteur membranaire de la 5-HT (SERT) et le VGluT3 a permis d’évaluer la densité des varicosités SERT+ et SERT+/VGluT3+ dans le striatum dorsal et de comparer ces données entre les trois groupes expérimentaux. RÉSULTATS: Chez les trois groupes de souris, un faible pourcentage des varicosités axonales 5-HT sont également VGluT3+. Ces varicosités doublement marquées sont souvent retrouvées sur une même branche axonale. Aucune différence significative n’a été observée entre les trois groupes expérimentaux en ce qui a trait à la proportion de varicosités SERT+ qui contiennent le VGluT3+. CONCLUSION: Nos données expérimentales ne nous permettent pas de conclure que la densité des varicosités axonales SERT+ ou SERT+/VGluT3+ au sein du striatum dorsal varie en fonction de la sévérité des mouvements involontaires anormaux induits par l’administration de L-Dopa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’accessibilité universelle est de nos jours très importante pour nos villes, car elle permet à toute personne, ayant des incapacités physiques ou non, de mener à bien ses activités socio-professionnelles. À travers le monde, plusieurs projets ont vu le jour comme AXS Map à New York ou AccesSIG en France. Au Canada, un projet multidisciplinaire nommé MobiliSIG ayant pour lieu d’expérimentation la ville de Québec a vu le jour en 2013. L’objectif du projet MobiliSIG est de concevoir et développer une application multimodale d’assistance au déplacement des personnes à mobilité réduite. Ce projet se concentre principalement sur la constitution d’une base de données d’accessibilité se référant au modèle PPH (Processus de Production du Handicap). Nos travaux visent à définir la diffusion d’itinéraires adaptés, adaptables et adaptatifs liés à des contextes multi-utilisateurs, multiplateformes, multimodaux (interfaces et transports) et multi-environnements. Après une revue de littérature et afin d’identifier et définir les besoins liés à cette diffusion des données de navigation, nous nous sommes attelés à la description de plusieurs scénarios pour mieux comprendre les besoins des utilisateurs : planification d’un déplacement et navigation dans le milieu urbain ; parcours multimodal ; recherche d’un point d’intérêt (toilettes accessibles). Cette démarche nous a permis également d’identifier les modes de communication et représentations souhaitées de l’itinéraire (carte, texte, image, parole, …) et de proposer une approche basée sur la transformation de l’itinéraire reçu de la base de données d’accessibilité. Cette transformation est effectuée en tenant compte des préférences de l’utilisateur, de son appareil et de son environnement. La diffusion de l’itinéraire se fait ensuite par un service web de diffusion conçu selon le standard du W3C sur les architectures multimodales (MMI) en combinaison avec le concept de la plasticité des interfaces. Le prototype développé a permis d’avoir comme résultat un système qui diffuse de façon générique l’information de navigation adaptée, adaptable et adaptative à l’utilisateur, à son appareil et à son environnement.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire s’intéresse à l’étude du critère de validation croisée pour le choix des modèles relatifs aux petits domaines. L’étude est limitée aux modèles de petits domaines au niveau des unités. Le modèle de base des petits domaines est introduit par Battese, Harter et Fuller en 1988. C’est un modèle de régression linéaire mixte avec une ordonnée à l’origine aléatoire. Il se compose d’un certain nombre de paramètres : le paramètre β de la partie fixe, la composante aléatoire et les variances relatives à l’erreur résiduelle. Le modèle de Battese et al. est utilisé pour prédire, lors d’une enquête, la moyenne d’une variable d’intérêt y dans chaque petit domaine en utilisant une variable auxiliaire administrative x connue sur toute la population. La méthode d’estimation consiste à utiliser une distribution normale, pour modéliser la composante résiduelle du modèle. La considération d’une dépendance résiduelle générale, c’est-à-dire autre que la loi normale donne une méthodologie plus flexible. Cette généralisation conduit à une nouvelle classe de modèles échangeables. En effet, la généralisation se situe au niveau de la modélisation de la dépendance résiduelle qui peut être soit normale (c’est le cas du modèle de Battese et al.) ou non-normale. L’objectif est de déterminer les paramètres propres aux petits domaines avec le plus de précision possible. Cet enjeu est lié au choix de la bonne dépendance résiduelle à utiliser dans le modèle. Le critère de validation croisée sera étudié à cet effet.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette étude exploratoire menée à Mirebalais (Haïti) vise à mieux comprendre les stratégies d’autogestion utilisées par les personnes diabétiques vivant dans cette commune. Nous nous sommes basés sur le modèle de la triade desease / illness / sickness décrit par Kleinman et al. (1978) et Young (1982) pour appréhender l’adaptation des personnes diabétiques dans leur environnement social et familial. Treize entrevues individuelles semi-structurées de diabétiques ont été réalisées. Les personnes qui arrivent à mieux vivre avec le diabète sont celles qui ont combiné les recommandations médicales, le savoir populaire et leur contexte de vie. Les résultats de cette étude peuvent être utilisés comme piste d’intervention dans des programmes entourant la prévention des complications de la maladie et l’amélioration des conditions de vie des diabétiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avec la disponibilité de capteurs fiables de teneur en eau exploitant la spectroscopie proche infrarouge (NIR pour near-infrared) et les outils chimiométriques, il est maintenant possible d’appliquer des stratégies de commande en ligne sur plusieurs procédés de séchage dans l’industrie pharmaceutique. Dans cet ouvrage, le séchage de granules pharmaceutiques avec un séchoir à lit fluidisé discontinu (FBD pour fluidized bed dryer) de taille pilote est étudié à l’aide d’un capteur d’humidité spectroscopique. Des modifications électriques sont d’abord effectuées sur le séchoir instrumenté afin d’acheminer les signaux mesurés et manipulés à un périphérique d’acquisition. La conception d’une interface homme-machine permet ensuite de contrôler directement le séchoir à l’aide d’un ordinateur portable. Par la suite, un algorithme de commande prédictive (NMPC pour nonlinear model predictive control), basée sur un modèle phénoménologique consolidé du FBD, est exécuté en boucle sur ce même ordinateur. L’objectif est d’atteindre une consigne précise de teneur en eau en fin de séchage tout en contraignant la température des particules ainsi qu’en diminuant le temps de lot. De plus, la consommation énergétique du FBD est explicitement incluse dans la fonction objectif du NMPC. En comparant à une technique d’opération typique en industrie (principalement en boucle ouverte), il est démontré que le temps de séchage et la consommation énergétique peuvent être efficacement gérés sur le procédé pilote tout en limitant plusieurs problèmes d’opération comme le sous-séchage, le surséchage ou le surchauffage des granules.