997 resultados para Composantes principales


Relevância:

60.00% 60.00%

Publicador:

Resumo:

L'objectif de cette étude est de vérifier la validité interne de la version française du questionnaire d'impulsivité d'Eysenck (I7), traduite par Dupont et al., sur un échantillon d'étudiants suisses (n = 220). Dans leur questionnaire, Eysenck et Eysenck proposent trois échelles : les deux premières évaluant deux composantes distinctes de l'impulsivité (l'Impulsivité caractérisant les individus qui agissent sans penser, sans être conscients des risques associés à leurs actions, et la Recherche d'aventure caractérisant les individus qui agissent en étant conscients, et en tenant compte des risques associés à leurs actions), et la troisième servant de « distracteur » (l'Empathie caractérisant les individus qui ont la faculté de s'identifier à l'autre). La structure à trois facteurs de l'instrument a été confirmée par notre analyse factorielle en composantes principales. La solution factorielle retenue n'explique toutefois qu'une faible proportion de la variance (21.9 %). L'homogénéité interne des échelles, mesurée à l'aide d'alphas de Cronbach, est acceptable pour l'échelle d'Impulsivité (.78) et de Recherche d'aventure (.71), mais elle est, en revanche, faible pour l'échelle d'Empathie (.62). Les échelles de l'I7 d'Eysenck entretiennent des corrélations cohérentes avec les cinq grandes dimensions de la personnalité mesurées par le NEO PI-R. L'Impulsivité est associée négativement à la dimension Conscience (r = - .32), alors que la Recherche d'aventures est associée positivement à la dimension Extraversion (r = .33). Le sexe a un impact sur les échelles Recherche d'aventure et Empathie. Les qualités métrologiques de la version française du questionnaire d'impulsivité d'Eysenck (I7) sont satisfaisantes, mais l'estimation d'autres indices de validité, comme la fidélité test-retest et la validité convergente, devrait être réalisée.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Combining theories on social trust and social capital with sociopsychological approaches and applying contextual analyses to Swiss and European survey data, this thesis examines under what circumstances generalised trust, often understood as public good, may not benefit everyone, but instead amplify inequality. The empirical investigation focuses on the Swiss context, but considers different scales of analysis. Two broader questions are addressed. First, might generalised trust imply more or less narrow visions of community and solidarity in different contexts? Applying nonlinear principal component analysis to aggregate indicators, Study 1 explores inclusive and exclusive types of social capital in Europe, measured as regional configurations of generalised trust, civic participation and attitudes towards diversity. Study 2 employs multilevel models to examine how generalised trust, as an individual predisposition and an aggregate climate at the level of Swiss cantons, is linked to equality- directed collective action intention versus radical right support. Second, might high-trust climates impact negatively on disadvantaged members of society, precisely because they reflect a normative discourse of social harmony that impedes recognition of inequality? Study 3 compares how climates of generalised trust at the level of Swiss micro-regions and subjective perceptions of neighbourhood cohesion moderate the negative relationship between socio-economic disadvantage and mental health. Overall, demonstrating beneficial, as well as counterintuitive effects of social trust, this thesis proposes a critical and contextualised approach to the sources and dynamics of social cohesion in democratic societies. -- Cette thèse combine des théories sur le capital social et la confiance sociale avec des approches psychosociales et s'appuie sur des analyses contextuelles de données d'enquêtes suisses et européennes, afin d'étudier dans quelles circonstances la confiance généralisée, souvent présentée comme un bien public, pourrait ne pas bénéficier à tout le monde, mais amplifier les inégalités. Les études empiriques, centrées sur le contexte suisse, intègrent différentes échelles d'analyse et investiguent deux questions principales. Premièrement, la confiance généralisée implique-t-elle des visions plus ou moins restrictives de la communauté et de la solidarité selon le contexte? Dans l'étude 1, une analyse à composantes principales non-linéaire sur des indicateurs agrégés permet d'explorer des types de capital social inclusif et exclusif en Europe, mesurés par des configurations régionales de confiance généralisée, de participation civique, et d'attitudes envers la diversité. L'étude 2 utilise des modèles multiniveaux afin d'analyser comment la confiance généralisée, en tant que prédisposition individuelle et climat agrégé au niveau des cantons suisses, est associée à l'intention de participer à des actions collectives en faveur de l'égalité ou, au contraire, à l'intention de voter pour la droite radicale. Deuxièmement, des climats de haute confiance peuvent-ils avoir un impact négatif sur des membres désavantagés de la société, précisément parce qu'ils reflètent un discours normatif d'harmonie sociale qui empêche la reconnaissance des inégalités? L'étude 3 analyse comment des climats de confiance au niveau des micro-régions suisses et la perception subjective de faire partie d'un environnement cohésif modèrent la relation négative entre le désavantage socio-économique et la santé mentale. En démontrant des effets bénéfiques mais aussi contre-intuitifs de la confiance sociale, cette thèse propose une approche critique et contextualisée des sources et dynamiques de la cohésion sociale dans les sociétés démocratiques.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this paper, we introduce a new approach for volatility modeling in discrete and continuous time. We follow the stochastic volatility literature by assuming that the variance is a function of a state variable. However, instead of assuming that the loading function is ad hoc (e.g., exponential or affine), we assume that it is a linear combination of the eigenfunctions of the conditional expectation (resp. infinitesimal generator) operator associated to the state variable in discrete (resp. continuous) time. Special examples are the popular log-normal and square-root models where the eigenfunctions are the Hermite and Laguerre polynomials respectively. The eigenfunction approach has at least six advantages: i) it is general since any square integrable function may be written as a linear combination of the eigenfunctions; ii) the orthogonality of the eigenfunctions leads to the traditional interpretations of the linear principal components analysis; iii) the implied dynamics of the variance and squared return processes are ARMA and, hence, simple for forecasting and inference purposes; (iv) more importantly, this generates fat tails for the variance and returns processes; v) in contrast to popular models, the variance of the variance is a flexible function of the variance; vi) these models are closed under temporal aggregation.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Notre patrimoine génétique dévoile, de plus en plus, les passerelles démogénétiques d’une susceptibilité plus accrue de certains individus à des maladies infectieuses complexes. En vue d’une caractérisation de la variabilité génétique des populations ouest-africaines, nous avons analysé 659 chromosomes X au locus dys44 qui comprend, 35 SNPs et un microsatellite distribués sur 2853 pb en amont et 5034 pb en aval de l’exon 44 du gène de la dystrophine en Xp21.3. Les génotypes obtenus, par ASO dynamique et électrophorèse sur gel d’acrylamide, ont servi à la détermination des haplotypes. Des paramètres comme la diversité haplotypique (G) et l'indice de fixation (Fst) ont été calculés. Des analyses en composantes principales ainsi que multidimensionnelles ont été réalisées. Sur 68 haplotypes détectés, 26 sont nouveaux, et cette région, avec une diversité haplotypique moyenne (Gmoy) de 0,91 ± 0,03, se révèle beaucoup plus hétérogène que le reste du continent (Gmoy = 0,85 ± 0,04). Toutefois, malgré l’existence de disparités sous régionales dans la distribution des variants du marqueur dys44, l’AMOVA montre d’une manière générale, une faible érosion de l’éloignement génétique entre les populations subsahariennes (Fst = 1,5% ; p<10-5). Certains variants tel que l’haplotype eurasien B006 paraissent indiquer des flux transsahariens de gènes entre les populations nord-africaines et celles subsahariennes, comme l’exemplifie le pool génétique de l’une des populations ubiquitaires de la famille linguistique Nigéro-congolaise : Les Fulani. Nos résultats vont aussi dans le sens d’un héritage phylétique commun entre les Biaka, les Afro-américains et les populations de la sous-famille de langues Volta-Congo.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cette étude a pour but de tester si l’ajout de variables biomécaniques, telles que celles associées à la morphologie, la posture et l’équilibre, permet d’améliorer l’efficacité à dissocier 29 sujets ayant une scoliose progressive de 45 sujets ayant une scoliose non progressive. Dans une étude rétrospective, un groupe d’apprentissage (Cobb: 27,1±10,6°) a été utilisé avec cinq modèles faisant intervenir des variables cliniques, morphologiques, posturales et d’équilibre et la progression de la scoliose. Un groupe test (Cobb: 14,2±8,3°) a ensuite servit à évaluer les modèles dans une étude prospective. Afin d’établir l’efficacité de l’ajout de variables biomécaniques, le modèle de Lonstein et Carlson (1984) a été utilisé à titre d’étalon de mesures. Le groupe d’apprentissage a été utilisé pour développer quatre modèles de classification. Le modèle sans réduction fut composé de 35 variables tirées de la littérature. Dans le modèle avec réduction, une ANCOVA a servit de méthode de réduction pour passer de 35 à 8 variables et l’analyse par composantes principales a été utilisée pour passer de 35 à 7 variables. Le modèle expert fut composé de huit variables sélectionnées d’après l’expérience clinque. L’analyse discriminante, la régression logistique et l’analyse par composantes principales ont été appliquées afin de classer les sujets comme progressifs ou non progressifs. La régression logistique utilisée avec le modèle sans réduction a présenté l’efficience la plus élevée (0,94), tandis que l’analyse discriminante utilisée avec le modèle expert a montré l’efficience la plus faible (0,87). Ces résultats montrent un lien direct entre un ensemble de paramètres cliniques et biomécaniques et la progression de la scoliose idiopathique. Le groupe test a été utilisé pour appliquer les modèles développés à partir du groupe d’apprentissage. L’efficience la plus élevée (0,89) fut obtenue en utilisant l’analyse discriminante et la régression logistique avec le modèle sans réduction, alors que la plus faible (0,78) fut obtenue en utilisant le modèle de Lonstein et Carlson (1984). Ces valeurs permettent d’avancer que l’ajout de variables biomécaniques aux données cliniques améliore l’efficacité de la dissociation entre des sujets scoliotiques progressifs et non progressifs. Afin de vérifier la précision des modèles, les aires sous les courbes ROC ont été calculées. L’aire sous la courbe ROC la plus importante (0,93) fut obtenue avec l’analyse discriminante utilisée avec le modèle sans réduction, tandis que la plus faible (0,63) fut obtenue avec le modèle de Lonstein et Carlson (1984). Le modèle de Lonstein et Carlson (1984) n’a pu séparer les cas positifs des cas négatifs avec autant de précision que les modèles biomécaniques. L’ajout de variables biomécaniques aux données cliniques a permit d’améliorer l’efficacité de la dissociation entre des sujets scoliotiques progressifs et non progressifs. Ces résultats permettent d’avancer qu’il existe d’autres facteurs que les paramètres cliniques pour identifier les patients à risque de progresser. Une approche basée sur plusieurs types de paramètres tient compte de la nature multifactorielle de la scoliose idiopathique et s’avère probablement mieux adaptée pour en prédire la progression.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La dystocie représente une des causes principales de la mortalité maternelle et fœtale lors de l’accouchement. Une relation trop étroite entre les dimensions maternelles et fœtales résultent souvent en une césarienne d’urgence. Les manuels obstétricaux actuels proposent qu’une forme gynoïde de la cavité obstétricale est normale car elle favorise une descente fœtale sans difficulté lors de la parturition parce qu’elle est arrondie. Ce mémoire de maîtrise porte sur l’étude de la variation inter-populationnelle de la forme du canal obstétrique chez trois populations génétiquement différentes pour tester si ces populations ont toutes une forme gynoïde ou si elles sont variables morphologiquement. Les cavités pelviennes analysées sont constituées de 59 bassins d’Américaines d’origine européenne, 74 bassins d’Américaines d’origine africaine et 19 bassins de Sadlermiuts. Vingt points anatomiques sur la cavité pelvienne ont été digitalisés à partir du bassin articulé pour permettre une visualisation tridimensionnelle de la forme du canal obstétrique. Une analyse Procrustes suivie d’une analyse en composantes principales ont été faites pour faire ressortir les composantes qui permettent de faire des distinctions entre les trois populations. L’existence d’une relation d’une part entre la taille et/ou la masse et d’autre part la morphologie du canal obstétrique a aussi été explorée. Résultats : La morphologie qui décrit les Sadlermiuts est la forme platypelloïde, soit un diamètre médio-latéral plus grand que le diamètre antéro-postérieur, et ce à tous les détroits. Les Américaines africaines présentent une morphologie qui tend vers une forme gynoïde aux détroits supérieur et moyen, et les Américaines européennes démontrent une morphologie intermédiaire entre les formes gynoïde et androïde au détroit supérieur. Seule la taille du bassin (taille centroïde) est corrélée à des changements de la forme du canal obstétrique pour les détroits supérieur et moyen. Discussion: La forme gynoïde n’est pas représentative de la cavité obstétricale chez les trois populations. Il est possible que la forme platypelloïde des Sadlermiuts soit une conséquence de comportements induisant des changements morphologiques lors du développement squelettique. D’autres études sont requises pour évaluer cette hypothèse.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dans ce mémoire nous allons présenter une méthode de diffusion d’erreur originale qui peut reconstruire des images en demi-ton qui plaisent à l’œil. Cette méthode préserve des détails fins et des structures visuellement identifiables présentes dans l’image originale. Nous allons tout d’abord présenter et analyser quelques travaux précédents afin de montrer certains problèmes principaux du rendu en demi-ton, et nous allons expliquer pourquoi nous avons décidé d’utiliser un algorithme de diffusion d’erreur pour résoudre ces problèmes. Puis nous allons présenter la méthode proposée qui est conceptuellement simple et efficace. L’image originale est analysée, et son contenu fréquentiel est détecté. Les composantes principales du contenu fréquentiel (la fréquence, l’orientation et le contraste) sont utilisées comme des indices dans un tableau de recherche afin de modifier la méthode de diffusion d’erreur standard. Le tableau de recherche est établi dans un étape de pré-calcul et la modification est composée par la modulation de seuil et la variation des coefficients de diffusion. Ensuite le système en entier est calibré de façon à ce que ces images reconstruites soient visuellement proches d’images originales (des aplats d’intensité constante, des aplats contenant des ondes sinusoïdales avec des fréquences, des orientations et des constrastes différents). Finalement nous allons comparer et analyser des résultats obtenus par la méthode proposée et des travaux précédents, et démontrer que la méthode proposée est capable de reconstruire des images en demi-ton de haute qualité (qui préservent des structures) avec un traitement de temps très faible.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

60.00% 60.00%

Publicador:

Resumo:

De nos jours les cartes d’utilisation/occupation du sol (USOS) à une échelle régionale sont habituellement générées à partir d’images satellitales de résolution modérée (entre 10 m et 30 m). Le National Land Cover Database aux États-Unis et le programme CORINE (Coordination of information on the environment) Land Cover en Europe, tous deux fondés sur les images LANDSAT, en sont des exemples représentatifs. Cependant ces cartes deviennent rapidement obsolètes, spécialement en environnement dynamique comme les megacités et les territoires métropolitains. Pour nombre d’applications, une mise à jour de ces cartes sur une base annuelle est requise. Depuis 2007, le USGS donne accès gratuitement à des images LANDSAT ortho-rectifiées. Des images archivées (depuis 1984) et des images acquises récemment sont disponibles. Sans aucun doute, une telle disponibilité d’images stimulera la recherche sur des méthodes et techniques rapides et efficaces pour un monitoring continue des changements des USOS à partir d’images à résolution moyenne. Cette recherche visait à évaluer le potentiel de telles images satellitales de résolution moyenne pour obtenir de l’information sur les changements des USOS à une échelle régionale dans le cas de la Communauté Métropolitaine de Montréal (CMM), une métropole nord-américaine typique. Les études précédentes ont démontré que les résultats de détection automatique des changements dépendent de plusieurs facteurs tels : 1) les caractéristiques des images (résolution spatiale, bandes spectrales, etc.); 2) la méthode même utilisée pour la détection automatique des changements; et 3) la complexité du milieu étudié. Dans le cas du milieu étudié, à l’exception du centre-ville et des artères commerciales, les utilisations du sol (industriel, commercial, résidentiel, etc.) sont bien délimitées. Ainsi cette étude s’est concentrée aux autres facteurs pouvant affecter les résultats, nommément, les caractéristiques des images et les méthodes de détection des changements. Nous avons utilisé des images TM/ETM+ de LANDSAT à 30 m de résolution spatiale et avec six bandes spectrales ainsi que des images VNIR-ASTER à 15 m de résolution spatiale et avec trois bandes spectrales afin d’évaluer l’impact des caractéristiques des images sur les résultats de détection des changements. En ce qui a trait à la méthode de détection des changements, nous avons décidé de comparer deux types de techniques automatiques : (1) techniques fournissant des informations principalement sur la localisation des changements et (2)techniques fournissant des informations à la fois sur la localisation des changements et sur les types de changement (classes « de-à »). Les principales conclusions de cette recherche sont les suivantes : Les techniques de détection de changement telles les différences d’image ou l’analyse des vecteurs de changements appliqués aux images multi-temporelles LANDSAT fournissent une image exacte des lieux où un changement est survenu d’une façon rapide et efficace. Elles peuvent donc être intégrées dans un système de monitoring continu à des fins d’évaluation rapide du volume des changements. Les cartes des changements peuvent aussi servir de guide pour l’acquisition d’images de haute résolution spatiale si l’identification détaillée du type de changement est nécessaire. Les techniques de détection de changement telles l’analyse en composantes principales et la comparaison post-classification appliquées aux images multi-temporelles LANDSAT fournissent une image relativement exacte de classes “de-à” mais à un niveau thématique très général (par exemple, bâti à espace vert et vice-versa, boisés à sol nu et vice-versa, etc.). Les images ASTER-VNIR avec une meilleure résolution spatiale mais avec moins de bandes spectrales que LANDSAT n’offrent pas un niveau thématique plus détaillé (par exemple, boisés à espace commercial ou industriel). Les résultats indiquent que la recherche future sur la détection des changements en milieu urbain devrait se concentrer aux changements du couvert végétal puisque les images à résolution moyenne sont très sensibles aux changements de ce type de couvert. Les cartes indiquant la localisation et le type des changements du couvert végétal sont en soi très utiles pour des applications comme le monitoring environnemental ou l’hydrologie urbaine. Elles peuvent aussi servir comme des indicateurs des changements de l’utilisation du sol. De techniques telles l’analyse des vecteurs de changement ou les indices de végétation son employées à cette fin.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les référentiels de compétences et la formation professionnelle des enseignants sont devenus des sujets qui suscitent beaucoup d’intérêt de la part de plusieurs chercheurs en éducation, dont Paquay (1994), Perrenoud (2001) et Berchoud (2007). La présente étude est une recherche-développement qui se donne pour objectif principal de concevoir et d’élaborer un référentiel de compétences pour les futurs enseignants de français langue étrangère (FLE). Pour y parvenir, notre démarche générale consistait à partir de l’analyse des référentiels de formation des enseignants ainsi que des standards de performance que nous pouvions déjà trouver partout dans le monde. Cette analyse nous a amenée à repérer les points communs et, par la suite, à les synthétiser pour trouver les éléments pertinents qui pourraient nous inspirer pour une première ébauche de notre référentiel. Ainsi, nous avons dressé une liste des domaines de performance nécessaires à la formation des futurs enseignants que nous avons repérés dans les écrits. Pour enrichir cette liste, nous avons mené des consultations auprès de quelques experts en Égypte où le français est enseigné comme deuxième langue étrangère dans les écoles publiques. Et, à l’aide de trois outils de recherche, les entrevues individuelles, le focus-group et le questionnaire, nous avons pu développer et valider des standards de performance pertinents à chacun des domaines identifiés ainsi que des indicateurs pour chaque standard. L’analyse statistique des données recueillies nous a permis d’en faire une description globale, de confirmer des points de convergence de façon significative, et aussi de repérer des éléments sujets à discussion. Ainsi, nous sommes parvenue à élaborer un référentiel qui comprend trois composantes principales : les domaines de performance, les standards et les indicateurs. Ce référentiel contient vingt standards de performance essentiels à la formation des futurs enseignants de FLE. Les standards sont regroupés sous six catégories appelées domaines : compétence linguistique, communication, processus d’enseignement, gestion de classe, évaluation et professionnalité. Le référentiel comprend aussi soixante-trois indicateurs reliés aux standards retenus. Le résultat de notre recherche est donc ce référentiel de compétences destiné aux futurs enseignants de FLE et dont les éléments ont été validés en Égypte. Nous croyons que cet outil servira, d’une part, de cadre de référence pour les professeurs des facultés d’éducation surtout lors du choix de contenu de leurs cours et, d’autre part, comme un guide pour les futurs enseignants qui leur permettra de s’autoévaluer et de se situer par rapport aux différents standards de performance identifiés dans ce référentiel.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Peu d’études ont évalué les caractéristiques des parcs pouvant encourager l’activité physique spécifiquement chez les jeunes. Cette étude vise à estimer la fiabilité d’un outil d’observation des parcs orienté vers les jeunes, à identifier les domaines conceptuels des parcs capturés par cet outil à l’aide d’une opérationnalisation du modèle conceptuel des parcs et de l’activité physique et à identifier différents types de parcs. Un total de 576 parcs ont été évalués en utilisant un outil d’évaluation des parcs. La fiabilité intra-juges et la fiabilité inter-juges de cet outil ont été estimées. Une analyse exploratoire par composantes principales (ACP) a été effectuée en utilisant une rotation orthogonale varimax et les variables étaient retenues si elles saturaient à ≥0.3 sur une composante. Une analyse par grappes (AG) à l’aide de la méthode de Ward a ensuite été réalisée en utilisant les composantes principales et une mesure de l’aire des parcs. L’outil était généralement fiable et l’ACP a permis d'identifier dix composantes principales qui expliquaient 60% de la variance totale. L’AG a donné un résultat de neuf grappes qui expliquaient 40% de la variance totale. Les méthodes de l’ACP et l’AG sont donc faisables avec des données de parcs. Les résultats ont été interprétés en utilisant l’opérationnalisation du modèle conceptuel.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les distributions spatiales des racines fines de Quercus rubra L. (CHR), Populus deltoides x nigra (DN3570) (PEH) et d’une culture fourragère (FOUR) ont été étudiées dans un système agroforestier de culture intercalaire (SCI) du sud du Québec (Canada). L’étude ne révèle pas d’enracinement plus profond des arbres en SCI, mais des profils superficiels à l’instar de nombreuses espèces d’arbres en plantations ou en milieu naturel. Une séparation spatiale existe entre les systèmes racinaires du FOUR et des CHR dont la densité relative selon la profondeur est plus faible que celle de la culture de 0 à 10 cm, mais plus élevée de 10 à 30 cm. Les PEH ne présentent pas d’adaptation racinaire et les hautes valeurs de densités de longueur racinaires (FRLD) de surface près du tronc entraînent une diminution de 45 % de la densité racinaire de surface du fourrage, suggérant une forte compétition pour les ressources du sol. L’étude du rendement agricole a d’ailleurs révélé des réductions de biomasse fourragère particulièrement près des PEH. Cependant, les résultats d’une analyse à composantes principales suggèrent un impact secondaire de la compétition racinaire sur le rendement agricole, et une plus grande importance de la compétition pour la lumière. L’impact des PEH à croissance rapide sur la culture est plus grand que celui du CHR. Cependant, ils seront récoltés plus rapidement et l’espace libéré favorisera la croissance de la culture intercalaire. Cet aspect dynamique des SCI les rapproche des écosystèmes naturels et devrait être réfléchi et approfondi pour leur succès futur.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cette thèse est organisée en trois chapitres. Les deux premiers s'intéressent à l'évaluation, par des méthodes d'estimations, de l'effet causal ou de l'effet d'un traitement, dans un environnement riche en données. Le dernier chapitre se rapporte à l'économie de l'éducation. Plus précisément dans ce chapitre j'évalue l'effet de la spécialisation au secondaire sur le choix de filière à l'université et la performance. Dans le premier chapitre, j'étudie l'estimation efficace d'un paramètre de dimension finie dans un modèle linéaire où le nombre d'instruments peut être très grand ou infini. L'utilisation d'un grand nombre de conditions de moments améliore l'efficacité asymptotique des estimateurs par variables instrumentales, mais accroit le biais. Je propose une version régularisée de l'estimateur LIML basée sur trois méthodes de régularisations différentes, Tikhonov, Landweber Fridman, et composantes principales, qui réduisent le biais. Le deuxième chapitre étend les travaux précédents, en permettant la présence d'un grand nombre d'instruments faibles. Le problème des instruments faibles est la consequence d'un très faible paramètre de concentration. Afin d'augmenter la taille du paramètre de concentration, je propose d'augmenter le nombre d'instruments. Je montre par la suite que les estimateurs 2SLS et LIML régularisés sont convergents et asymptotiquement normaux. Le troisième chapitre de cette thèse analyse l'effet de la spécialisation au secondaire sur le choix de filière à l'université. En utilisant des données américaines, j'évalue la relation entre la performance à l'université et les différents types de cours suivis pendant les études secondaires. Les résultats suggèrent que les étudiants choisissent les filières dans lesquelles ils ont acquis plus de compétences au secondaire. Cependant, on a une relation en U entre la diversification et la performance à l'université, suggérant une tension entre la spécialisation et la diversification. Le compromis sous-jacent est évalué par l'estimation d'un modèle structurel de l'acquisition du capital humain au secondaire et de choix de filière. Des analyses contrefactuelles impliquent qu'un cours de plus en matière quantitative augmente les inscriptions dans les filières scientifiques et technologiques de 4 points de pourcentage.