101 resultados para Unconditional Convergence
Resumo:
22q11.2 deletion syndrome (22q11DS) is associated with an increased susceptibility to develop schizophrenia. Despite a large body of literature documenting abnormal brain structure in 22q11DS, cerebral changes associated with brain maturation in 22q11DS remained largely unexplored. To map cortical maturation from childhood to adulthood in 22q11.2 deletion syndrome, we used cerebral MRI from 59 patients with 22q11DS, aged 6 to 40, and 80 typically developing controls; three year follow-up assessments were also available for 32 patients and 31 matched controls. Cross-sectional cortical thickness trajectories during childhood and adolescence were approximated in age bins. Repeated-measures were also conducted with the longitudinal data. Within the group of patients with 22q11DS, exploratory measures of cortical thickness differences related to COMT polymorphism, IQ, and schizophrenia were also conducted. We observed deviant trajectories of cortical thickness changes with age in patients with 22q11DS. In affected preadolescents, larger prefrontal thickness was observed compared to age-matched controls. Afterward, we observed greater cortical loss in 22q11DS with a convergence of cortical thickness values by the end of adolescence. No compelling evidence for an effect of COMT polymorphism on cortical maturation was observed. Within 22q11DS, significant differences in cortical thickness were related to cognitive level in children and adolescents, and to schizophrenia in adults. Deviant trajectories of cortical thickness from childhood to adulthood provide strong in vivo cues for a defect in the programmed synaptic elimination, which in turn may explain the susceptibility of patients with 22q11DS to develop psychosis.
Resumo:
L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.
Resumo:
PURPOSE OF REVIEW: One of the seven key scientific priorities identified in the road map on HIV cure research is to 'determine the host mechanisms that control HIV replication in the absence of therapy'. This review summarizes the recent work in genomics and in epigenetic control of viral replication that is relevant for this mission. RECENT FINDINGS: New technologies allow the joint analysis of host and viral transcripts. They identify the patterns of antisense transcription of the viral genome and its role in gene regulation. High-throughput studies facilitate the assessment of integration at the genome scale. Integration site, orientation and host genomic context modulate the transcription and should also be assessed at the level of single cells. The various models of latency in primary cells can be followed using dynamic study designs to acquire transcriptome and proteome data of the process of entry, maintenance and reactivation of latency. Dynamic studies can be applied to the study of transcription factors and chromatin modifications in latency and upon reactivation. SUMMARY: The convergence of primary cell models of latency, new high-throughput quantitative technologies applied to the study of time series and the identification of compounds that reactivate viral transcription bring unprecedented precision to the study of viral latency.
Resumo:
The response of shallow-water sequences to oceanic anoxic event 2 and mid-Cenomanian events 1a and 1b was investigated along the west African margin of Morocco north of Agadir (Azazoul) and correlated with the deep-water sequence of the Tarfaya Basin (Mohammed Beach) based on biostratigraphy, mineralogy, phosphorus and stable isotopes. In the deeper Mohammed Beach section results show double peaks in delta 13C(org) for mid-Cenomanian events 1a and 1b (Rotalipora reicheli biozone, lower CC10a biozone), the characteristic oceanic anoxic event 2 delta 13C excursion (Rotalipora cushmani extinction, top of CC10a biozone) and laminated (anoxic) black shale. In the shallow environment north of Agadir, a fluctuating sea-level associated with dysoxic, brackish and mesotrophic conditions prevailed during the middle to late Cenomanian, as indicated by oyster biostromes, nannofossils, planktonic and benthonic foraminiferal assemblages. Anoxic conditions characteristic of oceanic anoxic event 2 (for example, laminated black shales) did not reach into shallow-water environments until the maximum transgression of the early Turonian. Climate conditions decoupled along the western margin of Morocco between mid-Cenomanian event 1b and the Cenomanian-Turonian boundary, as also observed in eastern Tethys. North of Agadir alternating humid and dry seasonal conditions prevailed, whereas in the Tarfaya Basin the climate was dry and seasonal. This climatic decoupling can be attributed to variations in the Intertropical Convergence Zone and in the intensity of the north-east trade winds in tropical areas.
Resumo:
Résumé Cette recherche analyse les transformations de la gouvernance d'entreprise et des relations industrielles entre 1970 et 2008 dans le contexte suisse, en mettant l'accent sur les changements survenus depuis les années 1990. Elle se centre sur le secteur de l'industrie des machines, de l'électrotechnique et de la métallurgie -noyau historique du capitalisme helvétique et principal employeur et exportateur industriel du pays - et discute l'hypothèse de la convergence des économies coordonnées vers le modèle libéral. Elle examine d'abord les formes de coordination hors-marché qui se sont consolidées entre les élites économiques suisses au cours de la période d'après-guerre. Les stratégies d'innovation incrémentale des grandes sociétés étaient soutenues par une gouvernance marquée par la faible pression des marchés des capitaux, en raison notamment de la forte concentration de l'actionnariat, de mécanismes protectionnistes en matière d'accès au contrôle des sociétés, ainsi que d'une grande interdépendance entre banques et entreprises. Cette interdépendance apparaît dans la forte densité du réseau d'interconnexions des Conseils d'administration, où les principales banques tiennent une place centrale. Le réseau met également en relation les sociétés du secteur entre elles, ainsi qu'avec des firmes actives sur d'autres marchés, ce qui témoigne de l'irréductibilité des stratégies industrielles à une pure logique de compétition centrée sur les marchés. Les stratégies à long terme du management peuvent également s'appuyer sur un système pacifié de relations industrielles, caractérisé par l'autorégulation des acteurs privés dans le cadre d'un partenariat social de branche entre des associations aux stratégies modérées, « néocorporatistes ». Nous analysons alors l'impact de la libéralisation et de la financiarisation de l'économie suisse sur la coordination des élites économiques durant les années 1990. Nous montrons que l'affirmation des fonds d'investissement a déstabilisé le système traditionnel de gouvernance d'entreprise. Ce dernier a ainsi été marqué par l'émergence d'un marché pour le contrôle de l'entreprise -fin du «capital patient » -, la dissolution de l'interdépendance entre banques et industries et plus globalement des formes de coordination hors-marché reposant sur le réseau d'interconnexions des Conseils d'administration, ainsi que par de profondes restructurations des grandes sociétés orientées vers la création de richesse pour les actionnaires. La recherche explore alors les logiques d'interactions entre la sphère de la gouvernance d'entreprise et celle des relations industrielles, l'affirmation du capital financier faisant pression sur le partenariat social dans le sens d'une flexibilisation et déréglementation du marché du travail. Par ailleurs, nous mettons en perspective le rôle central des élites dans le changement institutionnel. Loin de subir la pression des actionnaires, les préférences d'une nouvelle élite managériale au profil financier ont convergé avec les intérêts des investisseurs dans le processus de financiarisation. Ces préférences ont également participé à l'érosion du partenariat social de branche. Du côté syndical, l'émergence -ici aussi - d'une nouvelle élite, académique et issue de la gauche politique, au cours des années 1990, a remis en cause les recettes de l'ancienne génération de syndicalistes ouvriers. La principale association du secteur a ainsi diversifié ses registres d'action en investissant la sphère politique et en relativisant la paix absolue du travail, deux stratégies activement rejetées par le syndicat au cours du régime de croissance d'après-guerre. Tout en mettant la sociologie des élites au service d'une meilleure compréhension des processus de changement institutionnel dans les capitalismes contemporains, cette recherche souligne des logiques de changement différentes dans les sphères sous revue :changement disruptif dans la gouvernance d'entreprise, incrémentai dans les relations industrielles. L'analyse s'est appuyée sur le croisement de différentes méthodes : analyse documentaire, entretiens semi-directifs, analyse du parcours et profil des élites, analyse de réseau, études de cas.
Resumo:
The integration of specific institutions for teacher education into the higher education system represents a milestone in the Swiss educational policy and has broad implications. This thesis explores organizational and institutional change resulting from this policy reform, and attempts to assess structural change in terms of differentiation and convergence within the system of higher education. Key issues that are dealt with are, on the one hand, the adoption of a research function by the newly conceptualized institutions of teacher education, and on the other, the positioning of the new institutions within the higher education system. Drawing on actor-centred approaches to differentiation, this dissertation discusses system-level specificities of tertiarized teacher education and asks how this affects institutional configurations and actor constellations. On the basis of qualitative and quantitative empirical data, a comparative analysis has been carried out including case studies of four universities of teacher education as well as multivariate regression analysis of micro-level data on students' educational choices. The study finds that the process of system integration and adaption to the research function by the various institutions have unfolded differently depending on the institutional setting and the specific actor constellations. The new institutions have clearly made a strong push to position themselves as a new institutional type and to find their identity beyond the traditional binary divide which assigns the universities of teacher education to the college sector. Potential conflicts have been identified in divergent cognitive normative orientations and perceptions of researchers, teacher educators, policy-makers, teachers, and students as to the mission and role of the new type of higher education institution. - L'intégration dans le système d'enseignement supérieur d'institutions qui ont pour tâche spécifique de former des enseignants peut être considérée comme un événement majeur dans la politique éducative suisse, qui se trouve avoir des conséquences importantes à plusieurs niveaux. Cette thèse explore les changements organisationnels et institutionnels résultant de cette réforme politique, et elle se propose d'évaluer en termes de différentiation et de convergence les changements structurels intervenus dans le système d'éducation tertiaire. Les principaux aspects traités sont d'une part la nouvelle mission de recherche attribuée à ces institutions de formation pédagogique, et de l'autre la place par rapport aux autres institutions du système d'éducation tertiaire. Recourant à une approche centrée sur les acteurs pour étudier les processus de différen-tiation, la thèse met en lumière et en discussion les spécificités inhérentes au système tertiaire au sein duquel se joue la formation des enseignants nouvellement conçue et soulève la question des effets de cette nouvelle façon de former les enseignants sur les configurations institutionnelles et les constellations d'acteurs. Une analyse comparative a été réalisée sur la base de données qualitatives et quantitatives issues de quatre études de cas de hautes écoles pédagogiques et d'analyses de régression multiple de données de niveau micro concernant les choix de carrière des étudiants. Les résultats montrent à quel point le processus d'intégration dans le système et la nouvelle mission de recherche peuvent apparaître de manière différente selon le cadre institutionnel d'une école et la constellation spécifique des acteurs influents. A pu clairement être observée une forte aspiration des hautes écoles pédagogiques à se créer une identité au-delà de la structure binaire du système qui assigne la formation des enseignants au secteur des hautes écoles spéciali-sées. Des divergences apparaissent dans les conceptions et perceptions cognitives et normatives des cher-cheurs, formateurs, politiciens, enseignants et étudiants quant à la mission et au rôle de ce nouveau type de haute école. - Die Integration spezieller Institutionen für die Lehrerbildung ins Hochschulsystem stellt einen bedeutsamen Schritt mit weitreichenden Folgen in der Entwicklung des schweizerischen Bildungswesens dar. Diese Dissertation untersucht die mit der Neuerung verbundenen Veränderungen auf organisatorischer und institutioneller Ebene und versucht, die strukturelle Entwicklung unter den Gesichtspunkten von Differenzierung und Konvergenz innerhalb des tertiären Bildungssystems einzuordnen. Zentrale Themen sind dabei zum einen die Einführung von Forschung und Entwicklung als zusätzlichem Leistungsauftrag in der Lehrerbildung und zum andern die Positionierung der pädagogischen Hochschulen innerhalb des Hochschulsystems. Anhand akteurzentrierter Ansätze zur Differenzierung werden die Besonderheiten einer tertiarisierten Lehrerbildung hinsichtlich der Systemebenen diskutiert und Antworten auf die Frage gesucht, wie die Reform die institutionellen Konfigurationen und die Akteurkonstellationen beeinflusst. Auf der Grundlage qualitativer und quantitativer Daten wurde eine vergleichende Analyse durchgeführt, welche Fallstudien zu vier pädagogischen Hochschulen umfasst sowie Regressionsanalysen von Mikrodaten zur Studienwahl von Maturanden. Die Ergebnisse machen deutlich, dass sich der Prozess der Systemintegration und die Einführung von Forschung in die Lehrerbildung in Abhängigkeit von institutionellen Ordnungen und der jeweiligen Akteurkonstellation unterschiedlich gestalten. Es lässt sich bei den neu gegründeten pädagogischen Hochschulen ein starkes Bestreben feststellen, sich als neuen Hochschultypus zu positionieren und sich eine Identität zu schaffen jenseits der herkömmlichen binären Struktur, welche die pädagogischen Hochschulen dem Fachhochschul-Sektor zuordnet. Potentielle Konflikte zeichnen sich ab in den divergierenden kognitiven und normativen Orientierungen und Wahrnehmungen von Forschern, Ausbildern, Bildungspolitikern, Lehrern und Studierenden hinsichtlich des Auftrags und der Rolle dieses neuen Typs Hochschule.
Resumo:
Résumé La théorie de l'autocatégorisation est une théorie de psychologie sociale qui porte sur la relation entre l'individu et le groupe. Elle explique le comportement de groupe par la conception de soi et des autres en tant que membres de catégories sociales, et par l'attribution aux individus des caractéristiques prototypiques de ces catégories. Il s'agit donc d'une théorie de l'individu qui est censée expliquer des phénomènes collectifs. Les situations dans lesquelles un grand nombre d'individus interagissent de manière non triviale génèrent typiquement des comportements collectifs complexes qui sont difficiles à prévoir sur la base des comportements individuels. La simulation informatique de tels systèmes est un moyen fiable d'explorer de manière systématique la dynamique du comportement collectif en fonction des spécifications individuelles. Dans cette thèse, nous présentons un modèle formel d'une partie de la théorie de l'autocatégorisation appelée principe du métacontraste. À partir de la distribution d'un ensemble d'individus sur une ou plusieurs dimensions comparatives, le modèle génère les catégories et les prototypes associés. Nous montrons que le modèle se comporte de manière cohérente par rapport à la théorie et est capable de répliquer des données expérimentales concernant divers phénomènes de groupe, dont par exemple la polarisation. De plus, il permet de décrire systématiquement les prédictions de la théorie dont il dérive, notamment dans des situations nouvelles. Au niveau collectif, plusieurs dynamiques peuvent être observées, dont la convergence vers le consensus, vers une fragmentation ou vers l'émergence d'attitudes extrêmes. Nous étudions également l'effet du réseau social sur la dynamique et montrons qu'à l'exception de la vitesse de convergence, qui augmente lorsque les distances moyennes du réseau diminuent, les types de convergences dépendent peu du réseau choisi. Nous constatons d'autre part que les individus qui se situent à la frontière des groupes (dans le réseau social ou spatialement) ont une influence déterminante sur l'issue de la dynamique. Le modèle peut par ailleurs être utilisé comme un algorithme de classification automatique. Il identifie des prototypes autour desquels sont construits des groupes. Les prototypes sont positionnés de sorte à accentuer les caractéristiques typiques des groupes, et ne sont pas forcément centraux. Enfin, si l'on considère l'ensemble des pixels d'une image comme des individus dans un espace de couleur tridimensionnel, le modèle fournit un filtre qui permet d'atténuer du bruit, d'aider à la détection d'objets et de simuler des biais de perception comme l'induction chromatique. Abstract Self-categorization theory is a social psychology theory dealing with the relation between the individual and the group. It explains group behaviour through self- and others' conception as members of social categories, and through the attribution of the proto-typical categories' characteristics to the individuals. Hence, it is a theory of the individual that intends to explain collective phenomena. Situations involving a large number of non-trivially interacting individuals typically generate complex collective behaviours, which are difficult to anticipate on the basis of individual behaviour. Computer simulation of such systems is a reliable way of systematically exploring the dynamics of the collective behaviour depending on individual specifications. In this thesis, we present a formal model of a part of self-categorization theory named metacontrast principle. Given the distribution of a set of individuals on one or several comparison dimensions, the model generates categories and their associated prototypes. We show that the model behaves coherently with respect to the theory and is able to replicate experimental data concerning various group phenomena, for example polarization. Moreover, it allows to systematically describe the predictions of the theory from which it is derived, specially in unencountered situations. At the collective level, several dynamics can be observed, among which convergence towards consensus, towards frag-mentation or towards the emergence of extreme attitudes. We also study the effect of the social network on the dynamics and show that, except for the convergence speed which raises as the mean distances on the network decrease, the observed convergence types do not depend much on the chosen network. We further note that individuals located at the border of the groups (whether in the social network or spatially) have a decisive influence on the dynamics' issue. In addition, the model can be used as an automatic classification algorithm. It identifies prototypes around which groups are built. Prototypes are positioned such as to accentuate groups' typical characteristics and are not necessarily central. Finally, if we consider the set of pixels of an image as individuals in a three-dimensional color space, the model provides a filter that allows to lessen noise, to help detecting objects and to simulate perception biases such as chromatic induction.
Resumo:
Complex adaptive polymorphisms are common in nature, but what mechanisms maintain the underlying favorable allelic combinations [1-4]? The convergent evolution of polymorphic social organization in two independent ant species provides a great opportunity to investigate how genomes evolved under parallel selection. Here, we demonstrate that a large, nonrecombining "social chromosome" is associated with social organization in the Alpine silver ant, Formica selysi. This social chromosome shares architectural characteristics with that of the fire ant Solenopsis invicta [2], but the two show no detectable similarity in gene content. The discovery of convergence at two levels-the phenotype and the genetic architecture associated with alternative social forms-points at general genetic mechanisms underlying transitions in social organization. More broadly, our findings are consistent with recent theoretical studies suggesting that suppression of recombination plays a key role in facilitating coordinated shifts in coadapted traits [5, 6].
Resumo:
Only limited data is available on the relationship between family history of laryngeal and other neoplasms and laryngeal cancer risk. We investigated the issue using data from a multicentre case-control study conducted in Italy and Switzerland between 1992 and 2009 including 852 cases with histologically confirmed laryngeal cancer and 1970 controls admitted to hospital for acute, non neoplastic conditions. Unconditional logistic regression models adjusted for age, sex, study center, education, tobacco smoking, alcohol drinking and number of siblings were used to estimate the odds ratios (ORs) of laryngeal cancer. The multivariate OR was 2.8 (95% confidence interval [CI], 1.5-5.3) in subjects reporting a first-degree relative with laryngeal cancer, as compared to subjects with no family history. The OR was higher when the relative was diagnosed before 60 years of age (OR = 3.5, 95% CI 1.4-8.8). As compared to subjects without family history, non-smokers, and moderate drinkers, the OR was 37.1 (95% CI 9.9-139.4) for current smokers, heavy drinkers, with family history of laryngeal cancer. Family history of colorectal (OR = 1.5, 95% CI 1.0-2.3) and kidney (OR = 3.8, 95% CI 1.2-12.1) cancer were also associated to an increased risk of laryngeal cancer, while no significant increase in risk was found for family history of cancer at all sites, excluding the larynx (OR = 1.1).
Resumo:
Executive Summary The unifying theme of this thesis is the pursuit of a satisfactory ways to quantify the riskureward trade-off in financial economics. First in the context of a general asset pricing model, then across models and finally across country borders. The guiding principle in that pursuit was to seek innovative solutions by combining ideas from different fields in economics and broad scientific research. For example, in the first part of this thesis we sought a fruitful application of strong existence results in utility theory to topics in asset pricing. In the second part we implement an idea from the field of fuzzy set theory to the optimal portfolio selection problem, while the third part of this thesis is to the best of our knowledge, the first empirical application of some general results in asset pricing in incomplete markets to the important topic of measurement of financial integration. While the first two parts of this thesis effectively combine well-known ways to quantify the risk-reward trade-offs the third one can be viewed as an empirical verification of the usefulness of the so-called "good deal bounds" theory in designing risk-sensitive pricing bounds. Chapter 1 develops a discrete-time asset pricing model, based on a novel ordinally equivalent representation of recursive utility. To the best of our knowledge, we are the first to use a member of a novel class of recursive utility generators to construct a representative agent model to address some long-lasting issues in asset pricing. Applying strong representation results allows us to show that the model features countercyclical risk premia, for both consumption and financial risk, together with low and procyclical risk free rate. As the recursive utility used nests as a special case the well-known time-state separable utility, all results nest the corresponding ones from the standard model and thus shed light on its well-known shortcomings. The empirical investigation to support these theoretical results, however, showed that as long as one resorts to econometric methods based on approximating conditional moments with unconditional ones, it is not possible to distinguish the model we propose from the standard one. Chapter 2 is a join work with Sergei Sontchik. There we provide theoretical and empirical motivation for aggregation of performance measures. The main idea is that as it makes sense to apply several performance measures ex-post, it also makes sense to base optimal portfolio selection on ex-ante maximization of as many possible performance measures as desired. We thus offer a concrete algorithm for optimal portfolio selection via ex-ante optimization over different horizons of several risk-return trade-offs simultaneously. An empirical application of that algorithm, using seven popular performance measures, suggests that realized returns feature better distributional characteristics relative to those of realized returns from portfolio strategies optimal with respect to single performance measures. When comparing the distributions of realized returns we used two partial risk-reward orderings first and second order stochastic dominance. We first used the Kolmogorov Smirnov test to determine if the two distributions are indeed different, which combined with a visual inspection allowed us to demonstrate that the way we propose to aggregate performance measures leads to portfolio realized returns that first order stochastically dominate the ones that result from optimization only with respect to, for example, Treynor ratio and Jensen's alpha. We checked for second order stochastic dominance via point wise comparison of the so-called absolute Lorenz curve, or the sequence of expected shortfalls for a range of quantiles. As soon as the plot of the absolute Lorenz curve for the aggregated performance measures was above the one corresponding to each individual measure, we were tempted to conclude that the algorithm we propose leads to portfolio returns distribution that second order stochastically dominates virtually all performance measures considered. Chapter 3 proposes a measure of financial integration, based on recent advances in asset pricing in incomplete markets. Given a base market (a set of traded assets) and an index of another market, we propose to measure financial integration through time by the size of the spread between the pricing bounds of the market index, relative to the base market. The bigger the spread around country index A, viewed from market B, the less integrated markets A and B are. We investigate the presence of structural breaks in the size of the spread for EMU member country indices before and after the introduction of the Euro. We find evidence that both the level and the volatility of our financial integration measure increased after the introduction of the Euro. That counterintuitive result suggests the presence of an inherent weakness in the attempt to measure financial integration independently of economic fundamentals. Nevertheless, the results about the bounds on the risk free rate appear plausible from the view point of existing economic theory about the impact of integration on interest rates.
Resumo:
Optimizing collective behavior in multiagent systems requires algorithms to find not only appropriate individual behaviors but also a suitable composition of agents within a team. Over the last two decades, evolutionary methods have emerged as a promising approach for the design of agents and their compositions into teams. The choice of a crossover operator that facilitates the evolution of optimal team composition is recognized to be crucial, but so far, it has never been thoroughly quantified. Here, we highlight the limitations of two different crossover operators that exchange entire agents between teams: restricted agent swapping (RAS) that exchanges only corresponding agents between teams and free agent swapping (FAS) that allows an arbitrary exchange of agents. Our results show that RAS suffers from premature convergence, whereas FAS entails insufficient convergence. Consequently, in both cases, the exploration and exploitation aspects of the evolutionary algorithm are not well balanced resulting in the evolution of suboptimal team compositions. To overcome this problem, we propose combining the two methods. Our approach first applies FAS to explore the search space and then RAS to exploit it. This mixed approach is a much more efficient strategy for the evolution of team compositions compared to either strategy on its own. Our results suggest that such a mixed agent-swapping algorithm should always be preferred whenever the optimal composition of individuals in a multiagent system is unknown.
Resumo:
Résumé La cryptographie classique est basée sur des concepts mathématiques dont la sécurité dépend de la complexité du calcul de l'inverse des fonctions. Ce type de chiffrement est à la merci de la puissance de calcul des ordinateurs ainsi que la découverte d'algorithme permettant le calcul des inverses de certaines fonctions mathématiques en un temps «raisonnable ». L'utilisation d'un procédé dont la sécurité est scientifiquement prouvée s'avère donc indispensable surtout les échanges critiques (systèmes bancaires, gouvernements,...). La cryptographie quantique répond à ce besoin. En effet, sa sécurité est basée sur des lois de la physique quantique lui assurant un fonctionnement inconditionnellement sécurisé. Toutefois, l'application et l'intégration de la cryptographie quantique sont un souci pour les développeurs de ce type de solution. Cette thèse justifie la nécessité de l'utilisation de la cryptographie quantique. Elle montre que le coût engendré par le déploiement de cette solution est justifié. Elle propose un mécanisme simple et réalisable d'intégration de la cryptographie quantique dans des protocoles de communication largement utilisés comme les protocoles PPP, IPSec et le protocole 802.1li. Des scénarios d'application illustrent la faisabilité de ces solutions. Une méthodologie d'évaluation, selon les critères communs, des solutions basées sur la cryptographie quantique est également proposée dans ce document. Abstract Classical cryptography is based on mathematical functions. The robustness of a cryptosystem essentially depends on the difficulty of computing the inverse of its one-way function. There is no mathematical proof that establishes whether it is impossible to find the inverse of a given one-way function. Therefore, it is mandatory to use a cryptosystem whose security is scientifically proven (especially for banking, governments, etc.). On the other hand, the security of quantum cryptography can be formally demonstrated. In fact, its security is based on the laws of physics that assure the unconditional security. How is it possible to use and integrate quantum cryptography into existing solutions? This thesis proposes a method to integrate quantum cryptography into existing communication protocols like PPP, IPSec and the 802.l1i protocol. It sketches out some possible scenarios in order to prove the feasibility and to estimate the cost of such scenarios. Directives and checkpoints are given to help in certifying quantum cryptography solutions according to Common Criteria.
Resumo:
Rapport de synthèse : L'article constituant le présent travail de thèse décrit une recherche portant sur des couples adultes recrutés dans la population générale, décrivant rétrospectivement les attitudes de leurs parents respectifs envers eux au cours de leur enfance. Le rôle joué par les attitudes d'attachement dans les relations adultes, et notamment les relations de couples, est bien démontré. De même, il est établi que les relations établies avec les parents dans l'enfance influencent le type d'attitude d'attachement qui prédominera à l'âge adulte. Dès lors, nous avons investigué l'existence, au sein de ces couples adultes, de souvenirs similaires quant aux attitudes prodiguées par les parents. Pour réaliser cette recherche, nous avons contacté tous les parents des enfants scolarisés en 2e/3e années et en 6e/7e années au sein des écoles de plusieurs communes de la région lausannoise, permettant de constituer un échantillon de 563 couples de parents. Au moyen d'autoquestionnaires, nous avons évalué pour chaque membre du couple : 1) sa description rétrospective des attitudes de ses deux parents envers lui pendant son enfance ; 2) le degré de sa symptomatologie psychiatrique actuelle ; et 3) son évaluation du degré d'ajustement dyadique actuel au sein du couple. La comparaison des scores des époux respectifs sur « l'échelle de lien parental » (PBI : Parental Bonding Instrument) a montré une ressemblance, au sein des couples, concernant la c chaleur et affection » (« Care ») témoignée au cours de l'enfance parle parent de même sexe que le sujet. Les analyses complémentaires effectuées semblent exclure que cette similarité soit due à des facteurs confondant comme l'âge, l'origine culturelle, le niveau socio-économique, ou le degré de symptomatologie psychiatrique. De même, cette similarité ne semble pas être attribuable à une convergence de vue grandissante des conjoints au cours de leur union. Par ailleurs, le degré d'ajustement dyadique s'est révélé être dépendant du degré cumulé de chaleur et d'affection tel que remémoré par chaque conjoint, et non du degré de similarité dans le couple pour ce qui concerne le souvenir de la chaleur et de l'affection reçues. Bien que basée sur des évaluations rétrospectives des attitudes parentales, et ne disposant pas d'une investigation psychiatrique standardisée incluant les critères diagnostiques, cette étude repose néanmoins sur un grand échantillon, recruté dans la population générale. Nos résultats ont notamment des implications concernant la santé des enfants. En effet, en raison de la similarité mise en évidence dans nos résultats, un enfant dont un des parents a reçu peu de chaleur et d'affection dans son enfance a plus de chances que son autre parent aie lui-même également reçu moins de chaleur et d'affection. De ce fait, d'une part l'ajustement dyadique du couple parental sera particulièrement bas, ce qui peut se répercuter sur les enfants du couple. D'autre part, comme les attitudes parentales se transmettent en partie de génération en génération, le même enfant risque d'être exposé, de la part de ses deux parents, à une attitude comportant peu de chaleur et d'affection, ce qui représente un risque de développement ultérieur des pathologies psychiatriques chez cet enfant.
Resumo:
Preface The starting point for this work and eventually the subject of the whole thesis was the question: how to estimate parameters of the affine stochastic volatility jump-diffusion models. These models are very important for contingent claim pricing. Their major advantage, availability T of analytical solutions for characteristic functions, made them the models of choice for many theoretical constructions and practical applications. At the same time, estimation of parameters of stochastic volatility jump-diffusion models is not a straightforward task. The problem is coming from the variance process, which is non-observable. There are several estimation methodologies that deal with estimation problems of latent variables. One appeared to be particularly interesting. It proposes the estimator that in contrast to the other methods requires neither discretization nor simulation of the process: the Continuous Empirical Characteristic function estimator (EGF) based on the unconditional characteristic function. However, the procedure was derived only for the stochastic volatility models without jumps. Thus, it has become the subject of my research. This thesis consists of three parts. Each one is written as independent and self contained article. At the same time, questions that are answered by the second and third parts of this Work arise naturally from the issues investigated and results obtained in the first one. The first chapter is the theoretical foundation of the thesis. It proposes an estimation procedure for the stochastic volatility models with jumps both in the asset price and variance processes. The estimation procedure is based on the joint unconditional characteristic function for the stochastic process. The major analytical result of this part as well as of the whole thesis is the closed form expression for the joint unconditional characteristic function for the stochastic volatility jump-diffusion models. The empirical part of the chapter suggests that besides a stochastic volatility, jumps both in the mean and the volatility equation are relevant for modelling returns of the S&P500 index, which has been chosen as a general representative of the stock asset class. Hence, the next question is: what jump process to use to model returns of the S&P500. The decision about the jump process in the framework of the affine jump- diffusion models boils down to defining the intensity of the compound Poisson process, a constant or some function of state variables, and to choosing the distribution of the jump size. While the jump in the variance process is usually assumed to be exponential, there are at least three distributions of the jump size which are currently used for the asset log-prices: normal, exponential and double exponential. The second part of this thesis shows that normal jumps in the asset log-returns should be used if we are to model S&P500 index by a stochastic volatility jump-diffusion model. This is a surprising result. Exponential distribution has fatter tails and for this reason either exponential or double exponential jump size was expected to provide the best it of the stochastic volatility jump-diffusion models to the data. The idea of testing the efficiency of the Continuous ECF estimator on the simulated data has already appeared when the first estimation results of the first chapter were obtained. In the absence of a benchmark or any ground for comparison it is unreasonable to be sure that our parameter estimates and the true parameters of the models coincide. The conclusion of the second chapter provides one more reason to do that kind of test. Thus, the third part of this thesis concentrates on the estimation of parameters of stochastic volatility jump- diffusion models on the basis of the asset price time-series simulated from various "true" parameter sets. The goal is to show that the Continuous ECF estimator based on the joint unconditional characteristic function is capable of finding the true parameters. And, the third chapter proves that our estimator indeed has the ability to do so. Once it is clear that the Continuous ECF estimator based on the unconditional characteristic function is working, the next question does not wait to appear. The question is whether the computation effort can be reduced without affecting the efficiency of the estimator, or whether the efficiency of the estimator can be improved without dramatically increasing the computational burden. The efficiency of the Continuous ECF estimator depends on the number of dimensions of the joint unconditional characteristic function which is used for its construction. Theoretically, the more dimensions there are, the more efficient is the estimation procedure. In practice, however, this relationship is not so straightforward due to the increasing computational difficulties. The second chapter, for example, in addition to the choice of the jump process, discusses the possibility of using the marginal, i.e. one-dimensional, unconditional characteristic function in the estimation instead of the joint, bi-dimensional, unconditional characteristic function. As result, the preference for one or the other depends on the model to be estimated. Thus, the computational effort can be reduced in some cases without affecting the efficiency of the estimator. The improvement of the estimator s efficiency by increasing its dimensionality faces more difficulties. The third chapter of this thesis, in addition to what was discussed above, compares the performance of the estimators with bi- and three-dimensional unconditional characteristic functions on the simulated data. It shows that the theoretical efficiency of the Continuous ECF estimator based on the three-dimensional unconditional characteristic function is not attainable in practice, at least for the moment, due to the limitations on the computer power and optimization toolboxes available to the general public. Thus, the Continuous ECF estimator based on the joint, bi-dimensional, unconditional characteristic function has all the reasons to exist and to be used for the estimation of parameters of the stochastic volatility jump-diffusion models.
Resumo:
The Late Triassic and Jurassic platform and the oceanic complexes in Evvoia, Greece, share a complementary plate-tectonic evolution. Shallow marine carbonate deposition responded to changing rates of subsidence and uplift, whilst the adjacent ocean underwent spreading, and then convergence, collision and finally obduction over the platform complex. Late Triassic ocean spreading correlated with platform subsidence and the formation of a long-persisting peritidal passive-margin platform. Incipient drowning occurred from the Sinemurian to the late Middle Jurassic. This subsidence correlated with intra-oceanic subduction and plate convergence that led to supra-subduction calc-alkaline magmatism and the formation of a primitive volcanic arc. During the Middle Jurassic, plate collision caused arc uplift above the carbonate compensation depth (CCD) in the oceanic realm, and related thrust-faulting, on the platform, led to sub-aerial exposures. Patch-reefs developed there during the Late Oxfordian to Kimmeridgian. Advanced oceanic nappe-loading caused platform drowning below the CCD during the Tithonian, which is documented by intercalations of reefal turbidites with non-carbonate radiolarites. Radiolarites and bypass-turbidites, consisting of siliciclastic greywacke, terminate the platform succession beneath the emplaced oceanic nappe during late Tithonian to Valanginian time.