999 resultados para Alignements de la structure
Resumo:
Questionnant avec J.-C. Breton les situations anthropologiques nouvelles qui interpellent la vie spirituelle, cette étude en propose une approche sous l’angle de la symbolisation. Une lecture de la symbolisation à partir de la structure même du symbole précède l’analyse de son usage psychanalytique selon Winnicott, avec ses notions d’espace potentiel et de phénomènes transitionnels. Suit l’exposé de points clés du témoignage de Marcel Légaut sur la vie spirituelle. La partie synthèse détaille trois éléments clés de la symbolisation : la brisure-faille, la créativité-accueil et le passage à un autre niveau. Deux niveaux de symbolisation, primaire et secondaire, complètent la trame partagée par la lecture de la psychanalyse et de la vie spirituelle. L’étude démontre que la symbolisation permet un passage en l’humain vers son propre mystère et celui de Dieu en lui. L’humain se présente alors comme être de symbolisation en devenir.
Resumo:
Les biofilms sont des communautés de microorganismes incorporés dans une matrice exo-polymérique complexe. Ils sont reconnus pour jouer un rôle important comme barrière de diffusion dans les systèmes environnementaux et la santé humaine, donnant lieu à une résistance accrue aux antibiotiques et aux désinfectants. Comme le transfert de masse dans un biofilm est principalement dû à la diffusion moléculaire, il est primordial de comprendre les principaux paramètres influençant les flux de diffusion. Dans ce travail, nous avons étudié un biofilm de Pseudomonas fluorescens et deux hydrogels modèles (agarose et alginate) pour lesquels l’autodiffusion (mouvement Brownien) et les coefficients de diffusion mutuels ont été quantifiés. La spectroscopie par corrélation de fluorescence a été utilisée pour mesurer les coefficients d'autodiffusion dans une volume confocal de ca. 1 m3 dans les gels ou les biofilms, tandis que les mesures de diffusion mutuelle ont été faites par cellule de diffusion. En outre, la voltamétrie sur microélectrode a été utilisée pour évaluer le potentiel de Donnan des gels afin de déterminer son impact sur la diffusion. Pour l'hydrogel d'agarose, les observations combinées d'une diminution du coefficient d’autodiffusion et de l’augmentation de la diffusion mutuelle pour une force ionique décroissante ont été attribuées au potentiel de Donnan du gel. Des mesures de l'effet Donnan (différence de -30 mV entre des forces ioniques de 10-4 et 10-1 M) et l'accumulation correspondante d’ions dans l'hydrogel (augmentation d’un facteur de 13 par rapport à la solution) ont indiqué que les interactions électrostatiques peuvent fortement influencer le flux de diffusion de cations, même dans un hydrogel faiblement chargé tel que l'agarose. Curieusement, pour un gel plus chargé comme l'alginate de calcium, la variation de la force ionique et du pH n'a donné lieu qu'à de légères variations de la diffusion de sondes chargées dans l'hydrogel. Ces résultats suggèrent qu’en influençant la diffusion du soluté, l'effet direct des cations sur la structure du gel (compression et/ou gonflement induits) était beaucoup plus efficace que l'effet Donnan. De même, pour un biofilm bactérien, les coefficients d'autodiffusion étaient pratiquement constants sur toute une gamme de force ionique (10-4-10-1 M), aussi bien pour des petits solutés chargés négativement ou positivement (le rapport du coefficient d’autodiffusion dans biofilm sur celui dans la solution, Db/Dw ≈ 85 %) que pour des nanoparticules (Db/Dw≈ 50 %), suggérant que l'effet d'obstruction des biofilms l’emporte sur l'effet de charge. Les résultats de cette étude ont montré que parmi les divers facteurs majeurs qui affectent la diffusion dans un biofilm environnemental oligotrophe (exclusion stérique, interactions électrostatiques et hydrophobes), les effets d'obstruction semblent être les plus importants lorsque l'on tente de comprendre la diffusion du soluté. Alors que les effets de charge ne semblaient pas être importants pour l'autodiffusion de substrats chargés dans l'hydrogel d'alginate ou dans le biofilm bactérien, ils ont joué un rôle clé dans la compréhension de la diffusion à travers l’agarose. L’ensemble de ces résultats devraient être très utiles pour l'évaluation de la biodisponibilité des contaminants traces et des nanoparticules dans l'environnement.
Resumo:
La structure du cartilage articulaire adulte est caractérisée par la présence de couches créées par l’orientation des fibres de collagène (Benninghoff, 1925). Avant de présenter la structure adulte classique en arcades “de Benninghoff”, le cartilage subit une série de changements au cours de sa maturation (Julkunen et al., 2010; Lecocq et al., 2008). Toutefois, un faible nombre d’études s’est intéressé à la structure du collagène du cartilage articulaire in utero. Notre objectif était d’étudier la maturation de la surface articulaire de l’épiphyse fémorale distale chez le cheval, en employant à la fois l’imagerie par résonance magnétique (IRM) et la microscopie en lumière polarisée après coloration au rouge picrosirius, au niveau de sites utilisés dans les études de réparation tissulaire et de sites prédisposés à l’ostéochondrose (OC). Le but était de décrire le développement normal du réseau de collagène et la relation entre les images IRM et la structure histologique. Des sections provenant de cinq sites de l’épiphyse fémorale distale de 14 fœtus et 10 poulains et adultes ont été colorées au rouge picrosirius, après que le grasset ait été imagé par IRM, dans l’optique de visualiser l’agencement des fibres de collagène de type II. Les deux modalités utilisées, IRM et microscopie en lumière polarisée, ont démontré la mise en place progressive d’une structure en couches du réseau de collagène, avant la naissance et la mise en charge de l’articulation.
Resumo:
«Building Blocks: Children’s Literature and the Formation of a Nation, 1750-1825» examine la façon dont la littérature pour enfants imprègne les jeunes lecteurs avec un sens de nationalisme et d'identité nationale à travers la compréhension des espaces et des relations spatiales. La thèse étudie les œuvres d’enfants par Thomas Day, Sarah Fielding, Mary Wollstonecraft, Richard Lovell et Maria Edgeworth, Charles et Mary Lamb, Sarah Trimmer, Lucy Peacock, Priscilla Wakefield, John Aikin, et Anna Laetitia Barbauld. Les différents sujets thématiques reflètent la façon dont les frontières entre les dimensions extérieures et intérieures, entre le monde physique et le domaine psychologique, sont floues. En s'appuyant sur les travaux de penseurs éducatifs, John Locke et Jean-Jacques Rousseau, les écritures pour les enfants soulignent l'importance des expériences sensorielles qui informent l’évolution interne des individus. En retour, la projection de l'imagination et l'investissement des sentiments aident à former la manière dont les gens interagissent avec le monde matériel et les uns envers les autres afin de former une nation. En utilisant une approche Foucaldienne, cette thèse montre comment la discipline est inculquée chez les enfants et les transforme en sujets réglementés. Grâce à des confessions et des discours, les enfants souscrivent à la notion de surveillance et de transparence tandis que l'appréciation de l'opinion publique encourage la pratique de la maîtrise de soi. Les enfants deviennent non seulement des ébauches, sensibles à des impressions, mais des corps d'écriture lisibles. Les valeurs et les normes de la société sont internalisées pendant que les enfants deviennent une partie intégrale du système qu'ils adoptent. L'importance de la visibilité est également soulignée dans la popularité du système de Linné qui met l'accent sur l'observation et la catégorisation. L'histoire naturelle dans la littérature enfantine renforce la structure hiérarchique de la société, ce qui souligne la nécessité de respecter les limites de classes et de jouer des rôles individuels pour le bien-être de la collectivité. Les connotations religieuses dans l'histoire naturelle peuvent sembler justifier l'inégalité des classes, mais elles diffusent aussi des messages de charité, de bienveillance et d'empathie, offrant une alternative ou une forme d’identité nationale «féminine» qui est en contraste avec le militarisme et le nationalisme patricien. La seconde moitié de la thèse examine comment la théorie des « communautés imaginées » de Benedict Anderson devient une possibilité à travers le développement du goût national et une compréhension de l'interconnexion entre les individus. Le personnage du barde pointe à la centralité de l'esprit communautaire dans l'identité nationale. Parallèlement à la commercialisation croissante de produits culturels et nationaux durant cette période, on retrouve l’augmentation de l’attachement affectif envers les objets et la nécessité de découvrir l'authentique dans la pratique de la réflexion critique. La propriété est redéfinie à travers la question des «vrais» droits de propriété et devient partagée dans l'imaginaire commun. Des cartes disséquées enseignent aux enfants comment visualiser des espaces et des frontières et conceptualisent la place de l’individu dans la société. Les enfants apprennent que des actions disparates effectuées dans la sphère domestique ont des répercussions plus importantes dans le domaine public de la nation.
Resumo:
Parmi les méthodes d’estimation de paramètres de loi de probabilité en statistique, le maximum de vraisemblance est une des techniques les plus populaires, comme, sous des conditions l´egères, les estimateurs ainsi produits sont consistants et asymptotiquement efficaces. Les problèmes de maximum de vraisemblance peuvent être traités comme des problèmes de programmation non linéaires, éventuellement non convexe, pour lesquels deux grandes classes de méthodes de résolution sont les techniques de région de confiance et les méthodes de recherche linéaire. En outre, il est possible d’exploiter la structure de ces problèmes pour tenter d’accélerer la convergence de ces méthodes, sous certaines hypothèses. Dans ce travail, nous revisitons certaines approches classiques ou récemment d´eveloppées en optimisation non linéaire, dans le contexte particulier de l’estimation de maximum de vraisemblance. Nous développons également de nouveaux algorithmes pour résoudre ce problème, reconsidérant différentes techniques d’approximation de hessiens, et proposons de nouvelles méthodes de calcul de pas, en particulier dans le cadre des algorithmes de recherche linéaire. Il s’agit notamment d’algorithmes nous permettant de changer d’approximation de hessien et d’adapter la longueur du pas dans une direction de recherche fixée. Finalement, nous évaluons l’efficacité numérique des méthodes proposées dans le cadre de l’estimation de modèles de choix discrets, en particulier les modèles logit mélangés.
Resumo:
Les résultats ont été obtenus avec le logiciel "Insight-2" de Accelris (San Diego, CA)
Resumo:
La compréhension des objets dans les programmes orientés objet est une tâche impor- tante à la compréhension du code. JavaScript (JS) est un langage orienté-objet dyna- mique, et son dynamisme rend la compréhension du code source très difficile. Dans ce mémoire, nous nous intéressons à l’analyse des objets pour les programmes JS. Notre approche construit de façon automatique un graphe d’objets inspiré du diagramme de classes d’UML à partir d’une exécution concrète d’un programme JS. Le graphe résul- tant montre la structure des objets ainsi que les interactions entre eux. Notre approche utilise une transformation du code source afin de produire cette in- formation au cours de l’exécution. Cette transformation permet de recueillir de l’infor- mation complète au sujet des objets crées ainsi que d’intercepter toutes les modifications de ces objets. À partir de cette information, nous appliquons plusieurs abstractions qui visent à produire une représentation des objets plus compacte et intuitive. Cette approche est implémentée dans l’outil JSTI. Afin d’évaluer l’utilité de l’approche, nous avons mesuré sa performance ainsi que le degré de réduction dû aux abstractions. Nous avons utilisé les dix programmes de réfé- rence de V8 pour cette comparaison. Les résultats montrent que JSTI est assez efficace pour être utilisé en pratique, avec un ralentissement moyen de 14x. De plus, pour 9 des 10 programmes, les graphes sont suffisamment compacts pour être visualisés. Nous avons aussi validé l’approche de façon qualitative en inspectant manuellement les graphes gé- nérés. Ces graphes correspondent généralement très bien au résultat attendu. Mots clés: Analyse de programmes, analyse dynamique, JavaScript, profilage.
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.
Resumo:
De plus en plus de recherches sur les Interactions Humain-Machine (IHM) tentent d’effectuer des analyses fines de l’interaction afin de faire ressortir ce qui influence les comportements des utilisateurs. Tant au niveau de l’évaluation de la performance que de l’expérience des utilisateurs, on note qu’une attention particulière est maintenant portée aux réactions émotionnelles et cognitives lors de l’interaction. Les approches qualitatives standards sont limitées, car elles se fondent sur l’observation et des entrevues après l’interaction, limitant ainsi la précision du diagnostic. L’expérience utilisateur et les réactions émotionnelles étant de nature hautement dynamique et contextualisée, les approches d’évaluation doivent l’être de même afin de permettre un diagnostic précis de l’interaction. Cette thèse présente une approche d’évaluation quantitative et dynamique qui permet de contextualiser les réactions des utilisateurs afin d’en identifier les antécédents dans l’interaction avec un système. Pour ce faire, ce travail s’articule autour de trois axes. 1) La reconnaissance automatique des buts et de la structure de tâches de l’utilisateur, à l’aide de mesures oculométriques et d’activité dans l’environnement par apprentissage machine. 2) L’inférence de construits psychologiques (activation, valence émotionnelle et charge cognitive) via l’analyse des signaux physiologiques. 3) Le diagnostic de l‘interaction reposant sur le couplage dynamique des deux précédentes opérations. Les idées et le développement de notre approche sont illustrés par leur application dans deux contextes expérimentaux : le commerce électronique et l’apprentissage par simulation. Nous présentons aussi l’outil informatique complet qui a été implémenté afin de permettre à des professionnels en évaluation (ex. : ergonomes, concepteurs de jeux, formateurs) d’utiliser l’approche proposée pour l’évaluation d’IHM. Celui-ci est conçu de manière à faciliter la triangulation des appareils de mesure impliqués dans ce travail et à s’intégrer aux méthodes classiques d’évaluation de l’interaction (ex. : questionnaires et codage des observations).
Resumo:
Les interactions entre les squelettes sucre-phosphate de nucléotides jouent un rôle important dans la stabilisation des structures tertiaires de larges molécules d’ARN. Elles sont régies par des règles particulières qui gouverne leur formation mais qui jusque là demeure quasiment inconnues. Un élément structural d’ARN pour lequel les interactions sucre-phosphate sont importantes est le motif d’empaquetage de deux doubles hélices d’ARN le long du sillon mineur. Ce motif se trouve à divers endroits dans la structure du ribosome. Il consiste en deux doubles hélices interagissant de manière à ce que le squelette sucre-phosphate de l’une se niche dans le sillon mineur de l’autre et vice versa. La surface de contact entre les deux hélices est majoritairement formée par les riboses et implique au total douze nucléotides. La présente thèse a pour but d’analyser la structure interne de ce motif et sa dépendance de stabilité résultant de l’association optimale ou non des hélices, selon leurs séquences nucléotidiques. Il est démontré dans cette thèse qu’un positionnement approprié des riboses leur permet de former des contacts inter-hélices, par l’entremise d’un choix particulier de l’identité des pairs de bases impliquées. Pour différentes pairs de bases participant à ce contact inter-hélices, l’identité optimale peut être du type Watson-Crick, GC/CG, or certaines pairs de bases non Watson-Crick. Le choix adéquat de paires de bases fournit une interaction inter-hélice stable. Dans quelques cas du motif, l’identité de certaines paires de bases ne correspond pas à la structure la plus stable, ce qui pourrait refléter le fait que ces motifs devraient avoir une liberté de formation et de déformation lors du fonctionnement du ribosome.
Resumo:
L'aimant organique NIT-2Py a été caractérisé expérimentalement et ses propriétés ont été simulées numériquement à partir de la théorie de la fonctionnelle de la densité. Le magnétisme dans ce matériau provient de la présence d'un électron non apparié sur chaque molécule qui a ainsi un moment magnétique non nul. Ceci a été confirmé par des simulations sur une molécule isolée. Les molécules de NIT-2Py cristallisent dans le groupe d'espace P21/c avec huit molécules par maille élémentaire pour former la structure cristalline Alpha étudiée dans ce document. Le moment effectif de la susceptibilité et l'entropie magnétique totale montre que ce matériau est un système de spins 1/2 avec un spin par molécule. Les mesures de chaleur spécifique ont mis en évidence la présence de deux phases magnétiques ordonnées à basse température qui sont séparées par un plateau en aimantation. Une première phase est observée à des champs magnétiques inférieurs à 2.2 T et a une température de transition de 1.32 K en champ nul. Les mesures de susceptibilité magnétique et d'aimantation ont permis d'établir que cette phase ordonnée est antiferromagnétique. Ceci est confirmé par les simulations numériques. La deuxième phase est induite par le champ magnétique avec une température de transition de 0.53 K à 6 T. L'information disponible sur cette phase est limitée et l'étude du système à l'extérieur des phases ordonnées en donne une meilleure compréhension. Un modèle de spins S=1/2 isolés et de dimères S=0 isolés reproduit bien les mesures d'aimantation et de chaleur spécifique au-dessus de 3 K. L'application d'un champ magnétique réduit l'écart d'énergie entre le singulet et le triplet du dimère jusqu'au croisement qui se produit à 6 T. La phase induite émerge précisément à ce croisement et on spécule l'existence d'un condensat de Bose-Einstein des états triplets.
Resumo:
Depuis que le concept d’habilitation (empowerment) a été introduit dans le monde du travail, il est rapidement devenu à la mode dû à ses bénéfices anticipés à la fois pour les organisations et pour les travailleurs. Toutefois, bien que l’état d’habilitation psychologique des travailleurs ainsi que ses déterminants soient bien documentés (Seibert, Wang, & Courtright, 2011), il existe peu d’outils pour évaluer de façon comportementale l’habilitation des travailleurs (Boudrias & Savoie, 2006). Cette réalité nuit aux organisations qui tentent de mettre en place des programmes d’habilitation des employés et qui souhaitent en mesurer leurs effets comportementaux. En 2006, Boudrias et Savoie ont amorcé le travail pour pallier cette lacune en créant un cadre conceptuel de l’habilitation comportementale au travail composé de deux approches distinctes, soit l’approche émergente (comportements discrétionnaires) et l’approche structurelle (implication dans la gestion du travail) et en validant un premier questionnaire permettant de mesurer l’approche émergente. La présente thèse vise à poursuivre le travail amorcé, en instrumentant la seconde approche et en poursuivant la validation du concept d’habilitation comportementale. Plus spécifiquement, la thèse vise à : a) valider un questionnaire qui mesure l’implication des employés dans la gestion de leur travail, en deux versions, à savoir une version auto-rapportée ainsi qu’une version destinée au supérieur hiérarchique; b) établir la structure factorielle de l’habilitation comportementale à l’aide des deux approches opérationnalisées; c) vérifier la spécificité du construit d’habilitation comportementale par rapport à d’autres mesures connexes (p.ex. comportements de citoyenneté organisationnelle, comportements d’innovation, comportements d’auto-leadership et d’autogestion), et d) vérifier un modèle structurel incluant trois déterminants de l’environnement de travail, à savoir le style de supervision, le soutien des collègues et la latitude décisionnelle, comme prédicteur de l’habilitation individuelle au travail, évaluée à l’aide d’une mesure d’habilitation psychologique et des mesures des deux approches d’habilitation comportementale. Pour ce faire, trois études distinctes ont été réalisées auprès de travailleurs variés et quatre échantillons ont été constitués dont trois comprenant uniquement des données auto-rapportées (N = 274, 104, 249) et un quatrième incluant aussi des données rapportées par le supérieur (N = 151). Les résultats des analyses factorielles confirmatoires démontrent que la structure de l’instrument d’implication dans la gestion ainsi que celle de l’habilitation comportementale composée des deux approches sont constantes d’un échantillon à l’autre et dans ses deux versions. De plus, les propriétés métriques du questionnaire validé sont satisfaisantes. D’autre part, les résultats des analyses corrélationnelles indiquent que les mesures d’habilitation comportementale présentent une validité discriminante par rapport à des mesures d’autres construits connexes. Enfin, les analyses acheminatoires pour vérifier le modèle structurel anticipé indiquent que l’habilitation psychologique agit comme variable médiatrice dans les relations entre, d’une part, la latitude décisionnelle et les pratiques de gestion des supérieurs, et, d’autre part, les deux approches d’habilitation comportementale. Le soutien des collègues, de son côté, n’est pas relié à l’habilitation des travailleurs.
Resumo:
Dans cette thèse, je me suis interessé à l’identification partielle des effets de traitements dans différents modèles de choix discrets avec traitements endogènes. Les modèles d’effets de traitement ont pour but de mesurer l’impact de certaines interventions sur certaines variables d’intérêt. Le type de traitement et la variable d’intérêt peuvent être défini de manière générale afin de pouvoir être appliqué à plusieurs différents contextes. Il y a plusieurs exemples de traitement en économie du travail, de la santé, de l’éducation, ou en organisation industrielle telle que les programmes de formation à l’emploi, les techniques médicales, l’investissement en recherche et développement, ou l’appartenance à un syndicat. La décision d’être traité ou pas n’est généralement pas aléatoire mais est basée sur des choix et des préférences individuelles. Dans un tel contexte, mesurer l’effet du traitement devient problématique car il faut tenir compte du biais de sélection. Plusieurs versions paramétriques de ces modèles ont été largement étudiées dans la littérature, cependant dans les modèles à variation discrète, la paramétrisation est une source importante d’identification. Dans un tel contexte, il est donc difficile de savoir si les résultats empiriques obtenus sont guidés par les données ou par la paramétrisation imposée au modèle. Etant donné, que les formes paramétriques proposées pour ces types de modèles n’ont généralement pas de fondement économique, je propose dans cette thèse de regarder la version nonparamétrique de ces modèles. Ceci permettra donc de proposer des politiques économiques plus robustes. La principale difficulté dans l’identification nonparamétrique de fonctions structurelles, est le fait que la structure suggérée ne permet pas d’identifier un unique processus générateur des données et ceci peut être du soit à la présence d’équilibres multiples ou soit à des contraintes sur les observables. Dans de telles situations, les méthodes d’identifications traditionnelles deviennent inapplicable d’où le récent développement de la littérature sur l’identification dans les modèles incomplets. Cette littérature porte une attention particuliere à l’identification de l’ensemble des fonctions structurelles d’intérêt qui sont compatibles avec la vraie distribution des données, cet ensemble est appelé : l’ensemble identifié. Par conséquent, dans le premier chapitre de la thèse, je caractérise l’ensemble identifié pour les effets de traitements dans le modèle triangulaire binaire. Dans le second chapitre, je considère le modèle de Roy discret. Je caractérise l’ensemble identifié pour les effets de traitements dans un modèle de choix de secteur lorsque la variable d’intérêt est discrète. Les hypothèses de sélection du secteur comprennent le choix de sélection simple, étendu et généralisé de Roy. Dans le dernier chapitre, je considère un modèle à variable dépendante binaire avec plusieurs dimensions d’hétérogéneité, tels que les jeux d’entrées ou de participation. je caractérise l’ensemble identifié pour les fonctions de profits des firmes dans un jeux avec deux firmes et à information complète. Dans tout les chapitres, l’ensemble identifié des fonctions d’intérêt sont écrites sous formes de bornes et assez simple pour être estimées à partir des méthodes d’inférence existantes.
Resumo:
Introduction: L’arthrose est une maladie fréquente chez le chien. Même si des traitements palliatifs ont prouvé leur efficacité pour soulager les signes cliniques associés, aucun n’a permis de restaurer la structure des cartilages ou la fonction des patients. De nouvelles modalités de traitement sont proposées mais très peu d’évidences existent quant à leur efficacité. Un problème récurrent pour apporter plus d’évidence est le manque d’outils d’évaluation dûment validés. Objectif: Evaluer l’efficacité d’une diète contenant de la moule verte, ainsi que la validité de différentes méthodes pour évaluer les effets de ce traitement sur la condition arthrosique de chiens de propriétaire. Méthodes: Une étude prospective croisée contrôlée en aveugle a été conduite sur 30 chiens de propriétaires. Leur condition était stable et non traitée. Ils ont reçu une diète contrôle pendant 30 jours puis la diète thérapeutique pendant 60 jours. A J0 (inclusion), J30 (fin de la période contrôle) et J90 (fin du traitement), les concentrations plasmatiques en acides gras ω–3 (EPA et DHA), le pic de force verticale (PVF – critère de référence), un questionnaire multifactoriel standardisé (MFQ), et la conductance électrodermique (EDA) ont été mesurés. Deux fois par semaine, les propriétaires remplissaient un questionnaire sur la fonction spécifique à leur animal (CODI). L’activité locomotrice (actimétrie) a été enregistrée en continu sur 7 chiens. Résultats: Aucun effet secondaire n’a été documenté excepté une augmentation du poids des chiens durant la période traitement. La localisation -thoracique ou pelvienne- du membre étudié et le poids ont interagi avec PVF. Les taux d’EPA et DHA ont augmenté durant la période traitement (p=0.026 et p<0.001, respectivement), tout comme PVF corrigé pour l’effet du poids et de la localisation du membre (p=0.003). La validité technique de PVF a été vérifiée. La validité technique et selon-critère du CODI ont été vérifiées. MFQ n’a pas montré d’homogénéité suffisante entre ses différents composants, bien que les résultats du composite convergent partiellement avec PVF. L’EDA n’a pas montré de validité technique suffisante. L’actimétrie a montré une validité technique satisfaisante ainsi que des résultats convergeant avec ceux de PVF. Conclusions: La méthode choisie comme référence a montré un effet bénéfique de la diète testée et sa validité technique a été vérifiée. À la fois, CODI et l’actimétrie ont été validés. La validité d’EDA et de MFQ a été remise en question. L’actimétrie a donné des résultats prometteurs, probablement complémentaires de PVF.
Resumo:
Ce mémoire traite des propriétés du La2CuO4 dopé en trous, le premier supraconducteur à haute température critique ayant été découvert. Les différentes phases électroniques du cristal y seront présentées, ainsi que le diagramme de phases en dopage de ce matériau. Les trois structures dans lesquelles on peut retrouver ce cristal seront décrites en détail, et leurs liens présumés avec les phases électroniques seront présentés. Il s’en suivra une étude utilisant la théorie de la fonctionnelle de la densité combinée au modèle de Hubbard (DFT+U) des différentes phases structurales, en plus des phases antiferromagnétiques et paramagnétiques. L’effet de la corrélation électronique sur la structure cristalline sera également étudié par l’intermédiaire du paramètre de Hubbard. Le but sera de vérifier si la DFT+U reproduit bien le diagramme de phases expérimentales, et sous quelles conditions. Une étude des effets de l’inclinaison des octaèdres d’oxygène sur la structure électronique sera également présentée.