1000 resultados para Modèles multi-niveaux


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les logiciels utilisés sont Splus et R.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A l’époque de la Nouvelle-France, il n’était pas rare que des enfants de moins d’un an décèdent. Les parents acceptaient avec sagesse et résignation le décès de leurs enfants. Telle était la volonté du Tout-Puissant. Grâce au Registre de la Population du Québec Ancien (R.P.Q.A.) élaboré par le Programme de Recherche en Démographie Historique (P.R.D.H), l’ampleur de la mortalité infantile a pu être mesurée selon plusieurs critères, quelques facteurs déterminants examinés ainsi qu’une composante intergénérationnelle identifiée. Couvrant pour la première fois la totalité de l’existence de la colonie, nos résultats confirment l’importance de la mortalité des enfants aux XVIIe et XVIIIe siècles (entre 140 et 260‰ avant correction pour le sous-enregistrement des décès). Des disparités tangibles ont été constatées entre les sexes, selon le lieu de naissance ainsi que selon la catégorie professionnelle à laquelle appartient le père de l’enfant. L’inégalité des probabilités de survie des tout-petits reflète l’iniquité physiologique entre les genres, avec une surmortalité masculine de l’ordre de 20%, et l’influence de l’environnement dans lequel vit la famille : les petits de la ville de Québec décédaient en moyenne 1,5 à 1,2 fois plus que les petits des campagnes. Montréal, véritable hécatombe pour l’instant inexpliquée, perdait 50% de ses enfants avant l’âge d’un an, ce qui représente 1,9 fois plus de décès infantiles que ceux des enfants de la campagne, qui jouissent malgré tout des bienfaits de leur environnement. Les effets délétères de l’usage de la mise en nourrice, qui touche plus de la moitié des enfants des classes aisées citadines, ravagent leur descendance de plus en plus profondément. L’examen de la mortalité infantile sous ses composantes endogène et exogène révèle que la mortalité de causes exogènes explique au moins 70% de tous les décès infantiles. La récurrence des maladies infectieuses, l’absence d’hygiène personnelle, l’insalubrité des villes constituaient autant de dangers pour les enfants. Dans une perspective davantage familiale et intergénérationnelle où l’enfant est partie intégrante d’une fratrie, des risques significatifs ont été obtenus pour plusieurs caractéristiques déterminantes. Les mères de moins de 20 ans ou de plus de 30 ans, les enfants de rang de naissance supérieur à 8, un intervalle intergénésique inférieur à 21 mois ou avoir son aîné décédé accroissent les risques de décéder avant le premier anniversaire de l’ordre de 10 à 70%, parce que le destin d’un enfant n’est pas indépendant des caractéristiques de sa mère ou de sa fratrie. Nous avons aussi constaté une relation positive entre la mortalité infantile expérimentée par une mère et celle de ses filles. La distribution observée des filles ayant perdu au moins 40% de leurs enfants au même titre que leur mère est 1,3 à 1,9 fois plus grande que celle attendue pour les filles ayant eu 9 enfants et moins ou 10 enfants et plus. Il existerait une transmission intergénérationnelle de la mortalité infantile même lorsqu’on contrôle pour la période et la taille de la famille.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les tumeurs du cortex surrénalien sont variées et fréquentes dans la population. Bien que des mutations aient été identifiées dans certains syndromes familiaux, les causes génétiques menant à la formation de tumeur du cortex surrénalien ne sont encore que peu connues. Un sous-type de ces tumeurs incluent les hyperplasies macronodulaires et sont pressenties comme la voie d’entrée de la tumorigenèse du cortex surrénalien. L’événement génétique le plus fréquemment observé dans ces tumeurs est l’expression aberrante d’un ou plusieurs récepteurs couplés aux protéines G qui contrôle la production de stéroïdes ainsi que la prolifération cellulaire. L’événement génétique menant à l’expression aberrante de ces récepteurs est encore inconnu. En utilisant le récepteur au peptide insulinotropique dépendant du glucose (GIP) comme modèle, cette étude se propose d’identifier les mécanismes moléculaires impliqués dans l’expression aberrante du récepteur au GIP (GIPR) dans les tumeurs du cortex surrénalien. Une partie clinique de cette étude se penchera sur l’identification de nouveaux cas de tumeurs surrénaliennes exprimant le GIPR de façon aberrante. Les patients étudiés seront soumis à un protocole d’investigation in vivo complet et les tumeurs prélevées seront étudiées extensivement in vitro par RT-PCR en temps réel, culture primaire des tumeurs, immunohistochimie et biopuces. Le lien entre le GIP et la physiologie normal sera également étudiée de cette façon. Une autre partie de l’étude utilisera les nouvelles techniques d’investigation à grande échelle en identifiant le transcriptome de différents cas de tumeurs exprimant le GIPR de façon aberrante. L’importance fonctionnelle des gènes identifiée par ces techniques sera confirmée dans des modèles cellulaires. Cette étude présente pour la première des cas de tumeurs productrices d’aldostérone présentant des réponses aberrantes, auparavant confinées aux tumeurs productrice de cortisol ou d’androgènes surrénaliens. Le cas probant présenté avait une production d’aldostérone sensible au GIP, le GIPR était surexprimé au niveau de l’ARNm et un fort marquage a été identifié dans la tumeur spécifiquement. Dans les surrénales normales, cette étude démontre que le GIP est impliqué dans le contrôle de la production d’aldostérone. Ces résultats ont été confirmés in vitro. Finalement, le profilage à grande échelle des niveaux d’expression de tous les gènes du génome a permis d’isoler une liste de gènes spécifiquement liés à la présence du GIPR dans des hyperplasies du cortex surrénalien. Cette liste inclus la périlipine, une protéine de stockage des lipides dans les adipocytes et la glande surrénale, dont l’expression est fortement réprimée dans les cas GIP-dépendant. Des études dans un modèle cellulaire démontrent que la répression de ce gène par siRNA est suffisante pour induire l’expression du récepteur au GIP et que cette protéine est impliquée dans la stimulation de la stéroïdogénèse par le GIP. En alliant des méthodes d’investigation in vivo de pointe à des techniques in vitro avancée, cette étude offre de nouveaux regards sur les liens entre le GIP et la physiologie de la glande surrénale, que ce soit dans des conditions normales ou pathologiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La prééclampsie est la première cause de mortalité et de morbidité périnatale et aucun traitement, mis à part l’accouchement, n’est connu à ce jour. Pour mieux comprendre cette maladie, nous avons utilisé trois modèles animaux. Dans un premier temps, nous avons voulu confirmer la présence de prééclampsie chez les souris déficientes en p57kip2, une protéine impliquée dans le cycle cellulaire des trophoblastes. Contrairement au groupe japonais, l’hypertension et la protéinurie au cours de la gestation ne survenaient pas, malgré une perte de structure des trophoblastes dans le labyrinthe ainsi qu’une microcalcification au niveau de leurs placentas. Nous avons alors observé que la diète japonaise induisait à elle seule une diminution de la croissance fœtale, ainsi qu’une dysfonction endothéliale chez ces souris. Nos résultats démontrent que ni les altérations placentaires, ni la génétique ne sont suffisantes pour induire les symptômes de la prééclampsie dans ce modèle, et que la diète peut avoir des effets délétères chez la souris gestante peu importe le génotype. Ensuite, nous avons démontré que les souris hypertendues surexprimant la rénine et l’angiotensinogène humaine développent de la protéinurie et une augmentation de la pression artérielle au cours de la gestation. Leurs placentas sont affectés par de la nécrose et une perte de structure des trophoblastes du labyrinthe en plus de surexprimer le gène du récepteur sFlt-1. Ces souris représentent le premier modèle animal de prééclampsie superposée à de l’hypertension chronique. Finalement, en utilisant des femelles normotendues surexprimant l’angiotensinogène humaine qui développent les symptômes de la prééclampsie lorsqu’elles sont accouplées à des mâles qui surexpriment la rénine humaine, nous avons établi que l’entraînement physique normalisait la hausse de pression ainsi que l’apparition de protéinurie en fin de gestation. Aussi, l'entraînement améliorait la croissance fœtale et placentaire ainsi que la réponse vasculaire indépendante de l’endothélium, et ce, indépendamment du génotype des souris. La présence d’une prolifération exagérée et désorganisée des trophoblastes dans ce modèle était aussi normalisée. L’entraînement physique prévient donc l’apparition des symptômes de la prééclampsie dans ce modèle. Mis ensemble, nos résultats aideront à mieux comprendre les mécanismes à l’origine de la prééclampsie et de sa prévention.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche part du constat de l’utilisation des nouvelles technologies qui se généralise dans l’enseignement universitaire (tant sur campus qu’en enseignement à distance), et traite cette question sous trois aspects institutionnel, pédagogique et technologique. La recherche a été menée à travers quinze universités canadiennes où nous avons interrogé vingt-quatre universitaires, nommément des responsables de centres de pédagogie universitaire et des experts sur la question de l’intégration des technologies à l’enseignement universitaire. Pour le volet institutionnel, nous avons eu recours à un cadre théorique qui met en relief le changement de structure et de fonctionnement des universités à l’ère d’Internet, suivant le modèle théorique de l’Open System Communications Net de Kershaw et Safford (1998, 2001). Les résultats, à l’aune de ce modèle, confirment que les universités conventionnelles sont dans une phase de transformation due à l’utilisation des technologies de l'information et de la communication (TIC). De plus, les cours hybrides, la bimodalité, des universités entièrement à distance visant une clientèle estudiantine au-delà des frontières régionales et nationales, des universités associant plusieurs modèles, des universités fonctionnant à base d’intelligence artificielle, sont les modèles principaux qui ont la forte possibilité de s’imposer dans le paysage universitaire nord-américain au cours des prochaines décennies. Enfin, à la lumière du modèle théorique, nous avons exploré le rôle de l’université, ainsi en transformation, au sein de la société tout comme les rapports éventuels entre les institutions universitaires. S’agissant de l’aspect pédagogique, nous avons utilisé une perspective théorique fondée sur le modèle du Community of Inquiry (CoI) de Garrison, Anderson et Archer (2000), revu par Vaughan et Garrison (2005) et Garrison et Arbaugh (2007) qui prône notamment une nouvelle culture de travail à l’université fondée sur trois niveaux de présence. Les résultats indiquent l’importance d’éléments relatifs à la présence d’enseignement, à la présence cognitive et à la présence sociale, comme le suggère le modèle. Cependant, la récurrence -dans les trois niveaux de présence- de certains indicateurs, suggérés par les répondants, tels que l’échange d’information, la discussion et la collaboration, nous ont amenés à conclure à la non-étanchéité du modèle du CoI. De plus, certaines catégories, de par leur fréquence d’apparition dans les propos des interviewés, mériteraient d’avoir une considération plus grande dans les exigences pédagogiques que requiert le nouveau contexte prévalant dans les universités conventionnelles. C’est le cas par exemple de la catégorie « cohésion de groupe ». Enfin, dans le troisième volet de la recherche relatif à la dimension technologique, nous nous sommes inspirés du modèle théorique d’Olapiriyakul et Scher (2006) qui postule que l’infrastructure dans l’enseignement doit être à la fois une technologie pédagogique et une technologie d’apprentissage pour les étudiants (instructional technology and student learning technology). Partant de cette approche, le volet technologique de notre recherche a consisté à identifier les fonctionnalités exigées de la technologie pour induire une évolution institutionnelle et pédagogique. Les résultats à cet égard ont indiqué que les raisons pour lesquelles les universités choisissent d’intégrer les TIC à l’enseignement ne sont pas toujours d’ordre pédagogique, ce qui explique que la technologie elle-même ne revête pas forcément les qualités a priori requises pour une évolution pédagogique et institutionnelle. De ce constat, les technologies appropriées pour une réelle évolution pédagogique et institutionnelle des universités ont été identifiées.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’approche psycholinguistique suggère que la rétention à court terme verbale et le langage dépendent de mécanismes communs. Elle prédit que les caractéristiques linguistiques des items verbaux (e.g. phonologiques, lexicales, sémantiques) influencent le rappel immédiat (1) et que la contribution des niveaux de représentations linguistiques dépend du contexte de rappel, certaines conditions expérimentales (e.g. format des stimuli) favorisant l’utilisation de codes spécifiques (2). Ces prédictions sont évaluées par le biais de deux études empiriques réalisées auprès d’une patiente cérébrolésée qui présente une atteinte du traitement phonologique (I.R.) et de participants contrôles. Une première étude (Article 1) teste l’impact des modes de présentation et de rappel sur les effets de similarité phonologique et de catégorie sémantique de listes de mots. Une seconde étude (Article 2) évalue la contribution du code orthographique en mémoire à court terme (MCT) verbale en testant l’effet de la densité du voisinage orthographique des mots sur le rappel sériel immédiat de mots présentés visuellement. Compte tenu du rôle déterminant du code phonologique en MCT et du type d’atteinte de I.R., des effets linguistiques distincts étaient attendus chez elle et chez les contrôles. Selon le contexte de rappel, des effets sémantiques (Article 1) et orthographiques (Article 2) plus importants étaient prédits chez I.R. et des effets phonologiques plus marqués étaient attendus chez les participants contrôles. Chez I.R., le rappel est influencé par les caractéristiques sémantiques et orthographiques des mots, mais peu par leurs caractéristiques phonologiques et le contexte de rappel module l’utilisation de différents niveaux de représentations linguistiques. Chez les contrôles, une contribution relativement plus stable des représentations phonologiques est observée. Les données appuient une approche psycholinguistique qui postule que des mécanismes communs régissent la rétention à court terme verbale et le langage. Les implications théoriques et cliniques des résultats sont discutées en regard de modèles psycholinguistiques actuels.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé Depuis le début des années 1990, la recherche sur le développement régional a pris une importance considérable dans les disciplines de l’économie et de la géographie dans la plupart des pays. De nombreuses études ont été consacrées à ce sujet et l’on constate une approche analytique de plus en plus sophistiquée. Que les économies pauvres ont tendance à converger vers les pays riches, ou bien à diverger au fil du temps est une question qui a attiré l'attention des décideurs et des universitaires depuis quelques décennies. Convergence ou de divergence économique est un sujet d'intérêt et de débat, non seulement pour valider ou non les deux modèles principaux de croissance qui sont considérés comme concurrent (l’approche néo-classique et celle des approches de croissance endogène), mais aussi pour ses implications pour les publiques politiques. En se basant sur une analyse des politiques de développement régional et des analyses statistiques de la convergence et des disparités régionales, les objectifs de cette thèse sont de tenter de fournir une explication des différents processus et des modèles de développement économique régional poursuivis dans le cas de territoires immenses en utilisant le Canada et la Chine comme études de cas, d'entreprendre une analyse des différents facteurs et des forces motrices qui sous-tendent le développement régional dans ces deux pays, et d'explorer à la fois les réussites et les échecs apparents dans les politiques de développement régional en comparant et contrastant les expériences de développement régional et les modèles de ces deux pays. A fin d'atteindre cet objectif, la recherche utilise une approche multi-scalaire et des méthodes de mesure multidimensionnelle dans le cadre des analyses sur les disparités « régionales » entre les macro régions (sous-ensembles de provinces) des deux pays, des provinces et des régions urbaines sélectionnées, dans le but ultime d’identifier des problèmes existants en termes de développement régional et de pouvoir proposer des solutions. Les étapes principales de la recherche sont : 1. La cueillette des données statistiques pour le Canada et la Chine (incluant les provinces de Québec et de Xinjiang) pour une gamme d’indicateurs (voir ci-dessous). 2. D’entreprendre une analyse de chaque dimension dans les deux juridictions: Population (p.ex. composition, structure, changement); Ressources (p. ex. utilisation, exploitation de l’énergie); Environnement (p.ex. la pollution); et le Développement socioéconomique (p.ex. le développement et la transformation des secteurs clé, et les modèles de développement rural et urbain), et les disparités changeantes par rapport à ces dimensions. 3. La définition d’une typologie de différents types de région en fonction de leurs trajectoires de développement, ce qui servira pour critiquer l’hypothèse centre-périphérie. 4. Le choix d’une région métropolitaine dans chaque juridiction (province). 5. D’entreprendre une analyse temporelle des événements clé (politiques, investissements) dans chaque région et les facteurs impliqués dans chaque événement, en utilisant l’information documentaire générale et des agences institutionnelles impliqués actuellement et dans un passée récent. Cette étude a tenté d'expliquer les schémas et les processus des deux économies, ainsi que la présentation d'études de cas qui illustrent et examinent les différences dans les deux économies à partir de l’échelle nationale jusqu’au niveau régional et provincial et aussi pour certaines zones urbaines. Cette étude a essayé de répondre aux questions de recherche comme: Est-il vrai que les pays avec des plus grandes territoires sont associés avec des plus grandes disparités interrégionales? Quel est le résultat des comparaisons entre pays développés et pays en développement? Quels sont les facteurs les plus importants dans le développement économique de vastes territoires dans les pays développés et pays en développement? Quel est le mécanisme de convergence et de divergence dans les pays développés et, respectivement, les pays en développement? Dans l'introduction à la thèse, le cadre général de l'étude est présenté, suivie dans le chapitre 1 d'une discussion sur les théories et les concepts utilisés dans la littérature théorique principale qui est pertinent à l'étude. Le chapitre 2 décrit la méthodologie de recherche. Le chapitre 3 présente une vue d'ensemble des politiques de développement économique régional et les programmes du Canada et de la Chine dans des périodes différentes à différentes échelles. Au chapitre 4, la convergence des deux pays à l'échelle nationale et la convergence provinciale pour chaque pays sont examinés en utilisant différentes méthodes de mesure telles que les méthodes traditionnelles, la convergence bêta et la convergence sigma. Dans le chapitre le plus complexe, le chapitre 5, les analyses comparatives sont présentées à l'aide de données statistiques, à partir des analyses des cas régionaux et provinciaux retenus des deux pays. Au chapitre 6, ces dispositions sont complétées par une analyse des régions urbaines choisies, qui permet également des aperçus sur les régions les plus périphériques. Dans la recherche proposée pour cette thèse, la politique, la population, le revenu, l'emploi, la composition industrielle, l'investissement, le commerce et le facteur de la migration sont également pris en compte comme facteurs importants de l'analyse régionale compte tenu de la superficie du territoire des deux pays et les différences de population entre eux. Cette thèse a évalué dans quelle mesure les politiques gouvernementales ont réussi à induire la convergence régionale ou ont encore ont creusé davantage les disparités régionales, ce qui implique nécessairement une évaluation de la durabilité des patrons et des programmes de développement régional. Cette étude a également mis l'accent sur les disparités régionales et la politique de développement régional, les comparaisons entre pays, pour mesurer la convergence entre les pays et entre les régions, y compris l'analyse spatiale, d'identifier les facteurs les plus actifs tels que la population, les ressources, la politique, l'urbanisation, les migrations, l'ouverture économique et leurs différents rôles dans le développement économique de ces grands territoires (au Canada et Chine). Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionales et les disparités régionales dans les deux économies. L'approche adoptée a révélé les différentes mosaïques complexes du développement régional dans les deux pays. Les résultats de cette étude ont démontré que la disparité en termes de revenu régional est une réalité dans chaque zone géographique, et que les causes sont nombreuses et complexes. Les deux économies ont certains parallèles dans la mise en œuvre des politiques de développement économique régional, mais il existe des différences importantes aussi et elles se sont développées à différentes vitesses. Les deux économies se sont développées depuis la Seconde Guerre mondiale, mais la Chine a connu une croissance rapide que le Canada comme témoignent de nombreux indicateurs depuis 1980. Cependant, la Chine est maintenant confrontée à un certain nombre de problèmes économiques et sociaux, y compris les disparités régionales marquées, un fossé toujours croissant entre les revenus ruraux et urbains, une population vieillissante, le chômage, la pauvreté et la dégradation rapide de l'environnement avec toujours plus de demandes en énergie. Le développement économique régional en Chine est plus déséquilibré. Le Canada accuse un degré de disparités régionales et provinciales moins important que la Chine. Dans les cas provinciaux, il existe d'importantes différences et de disparités dans la structure économique et spatiale du Québec et du Xinjiang. Les disparités infra provinciales sont plus grandes que celles à l’échelle des provinces et des grandes régions (des sous-ensembles de provinces). Les mécanismes de convergence et de divergence dans les deux pays sont différents. Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionale et les disparités régionales dans les deux économies. Cette étude démontre également que l'urbanisation (les métropoles et les villes) s’avère être le facteur le plus actif et contribue à l'économie régionale dans ces grands territoires. L'ouverture a joué un rôle important dans les économies des deux pays. La migration est un facteur majeur dans la stimulation de l'économie des deux pays mais de façons différentes. Les résultats empiriques démontrent que les disparités régionales ne peuvent pas être évitées et elles existent presque partout. Il n'y a pas une formule universelle et de politiques spécifiques sont de mise pour chaque région. Mais il semble possible pour les décideurs politiques nationaux et régionaux d’essayer de maintenir l'écart à une échelle raisonnable pour éviter l'instabilité sociale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire traite d'abord du problème de la modélisation de l'interprétation des pianistes à l'aide de l'apprentissage machine. Il s'occupe ensuite de présenter de nouveaux modèles temporels qui utilisent des auto-encodeurs pour améliorer l'apprentissage de séquences. Dans un premier temps, nous présentons le travail préalablement fait dans le domaine de la modélisation de l'expressivité musicale, notamment les modèles statistiques du professeur Widmer. Nous parlons ensuite de notre ensemble de données, unique au monde, qu'il a été nécessaire de créer pour accomplir notre tâche. Cet ensemble est composé de 13 pianistes différents enregistrés sur le fameux piano Bösendorfer 290SE. Enfin, nous expliquons en détail les résultats de l'apprentissage de réseaux de neurones et de réseaux de neurones récurrents. Ceux-ci sont appliqués sur les données mentionnées pour apprendre les variations expressives propres à un style de musique. Dans un deuxième temps, ce mémoire aborde la découverte de modèles statistiques expérimentaux qui impliquent l'utilisation d'auto-encodeurs sur des réseaux de neurones récurrents. Pour pouvoir tester la limite de leur capacité d'apprentissage, nous utilisons deux ensembles de données artificielles développées à l'Université de Toronto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’effort physique a été reconnu comme l’un des déterminants majeurs qui affecte l’absorption pulmonaire et la cinétique des solvants industriels, composés volatils très répandus dans le milieu de travail. L’objectif global de ce projet était de caractériser la relation entre divers niveaux de charge de travail et les concentrations biologiques de l’acétone et du styrène ou de ses métabolites utilisés comme des indicateurs biologiques de l’exposition (IBEs) à ces solvants. Des modèles pharmacocinétiques à base physiologique ont été développés et validés afin de reproduire une exposition professionnelle à l’acétone et au styrène, individuellement et en combinaison, durant une semaine complète de travail (8h/jour, 5 jours). Les simulations ont été effectuées suivant une exposition aux valeurs limite d’exposition (500 ppm et 20 ppm, respectivement) et à des charges de travail de 12,5 W (repos), 25 W et 50 W. Les valeurs prédites par les modèles ont été comparées aux valeurs de référence des IBEs actuels. Le niveau d’acétone dans l’urine obtenu à la fin du dernier quart de travail était 3,5 fois supérieur à la valeur au repos (28 mg/L) pour un effort de 50 W, tandis que les niveaux de styrène dans le sang veineux et de ses métabolites dans l’urine ont augmenté d’un facteur d’environ 3,0 en comparaison avec les valeurs au repos, respectivement de 0,17 mg/L et 144 mg/g créatinine. Pour une co-exposition à des concentrations de 20 ppm de styrène et 200 ppm d’acétone et à une activité physique de 50 W, les simulations ont montré une augmentation de 10% du styrène sanguin et une faible diminution de ses métabolites dans l’urine. Les valeurs simulées par les modèles pour l’acétone ou le styrène montrent que des travailleurs dont la charge de travail équivaut à plus de 25 W sont susceptibles d’avoir des concentrations internes pouvant dépasser les valeurs de référence des IBEs respectifs de ces solvants et peuvent être à risque. Les résultats soulignent ainsi l’importance de tenir compte de la charge de travail dans la détermination d’une valeur de référence pour la surveillance biologique de l’acétone et du styrène.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse examine les effets des imperfections des marchés financiers sur la macroéconomie. Plus particulièrement, elle se penche sur les conséquences de la faillite dans les contrats financiers dans une perspective d'équilibre général dynamique. Le premier papier construit un modèle qui utilise l'avantage comparatif des banques dans la gestion des situations de détresse financière pour expliquer le choix des firmes entre les prêts bancaires et les prêts du marché financier. Le modèle réussit à expliquer pourquoi les firmes plus petites préfèrent le financement bancaire et pourquoi les prêts bancaires sont plus répandus en Europe. Le premier fait est expliqué par le lien négatif entre la valeur nette de l'entreprise et la probabilité de faire faillite. Le deuxième fait s'explique par le coût fixe d'émission de bons plus élevé en Europe. Le deuxième papier examine l'interaction entre les contraintes de financement affectant les ménages et les firmes. Une interaction positive pourrait amplifier et augmenter la persistance de l'effet d'un choc agrégé sur l'économie. Je construis un nouveau modèle qui contient des primes de financement externes pour les firmes et les ménages. Dans le modèle de base avec prix et salaires flexibles, j'obtiens une faible interaction négative entre les coûts de financement des firmes et des ménages. Le facteur clé qui explique ce résultat est l'effet du changement contre cyclique du coût de financement des ménages sur leur offre de travail et leur demande de prêts. Dans une période d'expansion, cet effet augmente les taux d'intérêt, réduit l'investissement et augmente le coût de financement des entreprises. Le troisième papier ajoute les contraintes de financement des banques dans un modèle macroéconomiques avec des prêts hypothécaires et des fluctuations dans les prix de l'immobilier. Les banques dans le modèle ne peuvent pas complètement diversifier leurs prêts, ce qui génère un lien entre les risques de faillite des ménages et des banques. Il y a deux effets contraires des cycles économiques qui affectent la prime de financement externe de la banque. Premièrement, il y a un lien positif entre le risque de faillite des banques et des emprunteurs qui contribue à rendre le coût de financement externe des banques contre cyclique. Deuxiément, le lissage de la consommation par les ménages rend la proportion de financement externe des banques pro cyclique, ce qui tend à rendre le coût de financement bancaire pro cyclique. En combinant ces deux effets, le modèle peut reproduire des profits bancaires et des ratios d'endettement bancaires pro cycliques comme dans les données, mais pour des chocs non-financiers les frictions de financement bancaire dans le modèle n'ont pas un effet quantitativement significatif sur les principales variables agrégées comme la consommation ou l'investissement.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Selon plusieurs auteurs, l’intelligence générale et les traits de personnalité sont des construits fondamentaux nécessaires à l’adaptation psychosociale des individus. Bien que plusieurs études menées à partir d’échantillons d’adultes aient démontré des liens significatifs entre ces deux construits, peu d’entre elles ont tenté de vérifier si ces relations pouvaient être observées aussi chez les adolescents. De plus, un nombre très restreint d’études ont étudié la question de savoir si les relations entre l’intelligence générale et les traits de personnalité étaient significatives de façon prospective avec un intervalle de temps entre les évaluations. Enfin, les études disponibles ne permettent pas de déterminer si les relations entre l’intelligence générale et les traits de personnalité sont différentes selon le sexe. La présente étude visait à combler ces vides. Les objectifs étaient, d’une part, de déterminer s’il existe des relations prédictives concurrentes et prospectives entre l’intelligence générale et les traits de personnalité chez les adolescents et, d’autre part, de vérifier si ces relations sont différentes entre les garçons et les filles. Les données utilisées proviennent de l’étude longitudinale de la Stratégie d’intervention agir autrement (SIAA). Un large échantillon d’adolescents évalués une première fois en secondaire un et réévalués à nouveau quatre ans plus tard en secondaire cinq a été employé. À la première vague de collecte de données, seule l’intelligence générale a été évaluée, tandis qu’à la deuxième vague, autant l’intelligence générale que les traits de personnalité l’ont été. La modélisation par équations structurales sur des variables latentes a été utilisée pour tester les différentes hypothèses de recherche. Les résultats ont démontré que, sur le plan concurrent, l’intelligence générale et tous les traits de personnalité considérés sont reliés significativement de façon positive, ce qui va partiellement à l’encontre des données obtenues à partir des échantillons d’adultes. Sur le plan prospectif, les résultats ont confirmé que les corrélations diminuent avec le temps, et ce, pour presque tous les traits étudiés. Finalement, les modèles d’équations structurales multi-groupes ont confirmé la présence de différences significatives entre les garçons et les filles pour certains traits de personnalité. Dans l’ensemble, bien que plusieurs résultats de la présente étude obtenus à partir d’un échantillon d’adolescents soient conformes à ceux observés auprès d’échantillons d’adultes, certaines différences intéressantes sont observées.