121 resultados para A priori commitments
Resumo:
Natural selection drives local adaptation, potentially even at small temporal and spatial scales. As a result, adaptive genetic and phenotypic divergence can occur among populations living in different habitats. We investigated patterns of differentiation between contrasting lake and stream habitats in the cyprinid fish European minnow (Phoxinus phoxinus) at both the morphological and genomic levels using geometric morphometrics and AFLP markers, respectively. We also used a spatial correlative approach to identify AFLP loci associated with environmental variables representing potential selective forces responsible for adaptation to divergent habitats. Our results identified different morphologies between lakes and streams, with lake fish presenting a deeper body and caudal peduncle compared to stream fish. Body shape variation conformed to a priori predictions concerning biomechanics and swimming performance in lakes vs. streams. Moreover, morphological differentiation was found to be associated with several environmental variables, which could impose selection on body and caudal peduncle shape. We found adaptive genetic divergence between these contrasting habitats in the form of 'outlier' loci (2.9%) whose genetic divergence exceeded neutral expectations. We also detected additional loci (6.6%) not associated with habitat type (lake vs. stream), but contributing to genetic divergence between populations. Specific environmental variables related to trophic dynamics, landscape topography and geography were associated with several neutral and outlier loci. These results provide new insights into the morphological divergence and genetic basis of adaptation to differentiated habitats.
Resumo:
We modelled the future distribution in 2050 of 975 endemic plant species in southern Africa distributed among seven life forms, including new methodological insights improving the accuracy and ecological realism of predictions of global changes studies by: (i) using only endemic species as a way to capture the full realized niche of species, (ii) considering the direct impact of human pressure on landscape and biodiversity jointly with climate, and (iii) taking species' migration into account. Our analysis shows important promises for predicting the impacts of climate change in conjunction with land transformation. We have shown that the endemic flora of Southern Africa on average decreases with 41% in species richness among habitats and with 39% on species distribution range for the most optimistic scenario. We also compared the patterns of species' sensitivity with global change across life forms, using ecological and geographic characteristics of species. We demonstrate here that species and life form vulnerability to global changes can be partly explained according to species' (i) geographical distribution along climatic and biogeographic gradients, like climate anomalies, (ii) niche breadth or (iii) proximity to barrier preventing migration. Our results confirm that the sensitivity of a given species to global environmental changes depends upon its geographical distribution and ecological proprieties, and makes it possible to estimate a priori its potential sensitivity to these changes.
Resumo:
MOTIVATION: The analysis of molecular coevolution provides information on the potential functional and structural implication of positions along DNA sequences, and several methods are available to identify coevolving positions using probabilistic or combinatorial approaches. The specific nucleotide or amino acid profile associated with the coevolution process is, however, not estimated, but only known profiles, such as the Watson-Crick constraint, are usually considered a priori in current measures of coevolution. RESULTS: Here, we propose a new probabilistic model, Coev, to identify coevolving positions and their associated profile in DNA sequences while incorporating the underlying phylogenetic relationships. The process of coevolution is modeled by a 16 × 16 instantaneous rate matrix that includes rates of transition as well as a profile of coevolution. We used simulated, empirical and illustrative data to evaluate our model and to compare it with a model of 'independent' evolution using Akaike Information Criterion. We showed that the Coev model is able to discriminate between coevolving and non-coevolving positions and provides better specificity and specificity than other available approaches. We further demonstrate that the identification of the profile of coevolution can shed new light on the process of dependent substitution during lineage evolution.
Resumo:
L'article aborde la façon dont la série BD Le Linceul (2003-2006) s'approprie, dans le cadre de la fiction et du récit d'action grand public, le contexte de la réception de l'image acheiropoïète du Saint Suaire, intégrant la référence à des enjeux théologiques et scientifiques au sein d'une histoire à suspense située à différentes époques et dont les nombreux rebondissements s'articulent autour d'une croyance progressive dans le statut sacré de la vera icon. L'examen détaillé de certains choix narratifs et graphiques de l'auteur Laurent Bidot permet de dégager les modalités d'une exploitation contemporaine et (a priori) laïcisée de la figure de Jésus qui, à l'ère des technologies numériques, conserve sa part de mystère. Dans une perspective narratologique, l'interprétation procède principalement de constats liés à l'organisation énonciative de cette production bédéique.
Resumo:
This paper surveys the literature on the implications of trade liberalisation for intra-national economic geographies. Three results stand out. First, neither urban systems models nor new economic geography models imply a robust prediction for the impact of trade openness on spatial concentration. Whether trade promotes concentration or dispersion depends on subtle modelling choices among which it is impossible to adjudicate a priori. Second, empirical evidence mirrors the theoretical indeterminacy: a majority of cross-country studies find no significant effect of openness on urban concentration or regional inequality. Third, the available models predict that, other things equal, regions with inherently less costly access to foreign markets, such as border or port regions, stand to reap the largest gains from trade liberalisation. This prediction is confirmed by the available evidence. Whether trade liberalisation raises or lowers regional inequality therefore depends on each country's specific geography.
Resumo:
Electroencephalography (EEG) is an easily accessible and low-cost modality that might prove to be a particularly powerful tool for the identification of subtle functional changes preceding structural or metabolic deficits in progressive mild cognitive impairment (PMCI). Most previous contributions in this field assessed quantitative EEG differences between healthy controls, MCI and Alzheimer's disease(AD) cases leading to contradictory data. In terms of MCI conversion to AD, certain longitudinal studies proposed various quantitative EEG parameters for an a priori distinction between PMCI and stable MCI. However, cross-sectional comparisons revealed a substantial overlap in these parameters between MCI patients and elderly controls. Methodological differences including variable clinical definition of MCI cases and substantial interindividual differences within the MCI group could partly explain these discrepancies. Most importantly, EEG measurements without cognitive demand in both cross-sectional and longitudinal designs have demonstrated limited sensitivity and generally do not produce significant group differences in spectral EEG parameters. Since the evolution of AD is characterized by the progressive loss of functional connectivity within neocortical association areas, event-modulated EEG dynamic analysis which makes it possible to investigate the functional activation of neocortical circuits may represent a more sensitive method to identify early alterations of neuronal networks predictive of AD development among MCI cases. The present review summarizes clinically significant results of EEG activation studies in this field and discusses future perspectives of research aiming to reach an early and individual prediction of cognitive decline in healthy elderly controls.
Resumo:
The paper argues that the formulation of quantum mechanics proposed by Ghirardi, Rimini and Weber (GRW) is a serious candidate for being a fundamental physical theory and explores its ontological commitments from this perspective. In particular, we propose to conceive of spatial superpositions of non-massless microsystems as dispositions or powers, more precisely propensities, to generate spontaneous localizations. We set out five reasons for this view, namely that (1) it provides for a clear sense in which quantum systems in entangled states possess properties even in the absence of definite values; (2) it vindicates objective, single-case probabilities; (3) it yields a clear transition from quantum to classical properties; (4) it enables to draw a clear distinction between purely mathematical and physical structures, and (5) it grounds the arrow of time in the time-irreversible manifestation of the propensities to localize.
Resumo:
La gouvernance de l'Internet est une thématique récente dans la politique mondiale. Néanmoins, elle est devenue au fil des années un enjeu économique et politique important. La question a même pris une importance particulière au cours des derniers mois en devenant un sujet d'actualité récurrent. Forte de ce constat, c ette recherche retrace l'histoire de la gouvernance de l'Internet depuis son émergence comme enjeu politique dans les années 1980 jusqu'à la fin du Sommet Mondial sur la Société de l'Information (SMSI) en 2005. Plutôt que de se focaliser sur l'une ou l'autre des institutions impliquées dans la régulation du réseau informatique mondial, cette recherche analyse l'émergence et l'évolution historique d'un espace de luttes rassemblant un nombre croissant d'acteurs différents. Cette évolution est décrite à travers le prisme de la relation dialectique entre élites et non-élites et de la lutte autour de la définition de la gouvernance de l'Internet. Cette thèse explore donc la question de comment les relations au sein des élites de la gouvernance de l'Internet et entre ces élites et les non-élites expliquent l'emergence, l'évolution et la structuration d'un champ relativement autonome de la politique mondiale centré sur la gouvernance de l'Internet. Contre les perspectives dominantes réaliste et libérales, cette recherche s'ancre dans une approche issue de la combinaison des traditions hétérodoxes en économie politique internationale et des apports de la sociologie politique internationale. Celle-ci s'articule autour des concepts de champ, d'élites et d'hégémonie. Le concept de champ, développé par Bourdieu inspire un nombre croissant d'études de la politique mondiale. Il permet à la fois une étude différenciée de la mondialisation et l'émergence d'espaces de lutte et de domination au niveau transnational. La sociologie des élites, elle, permet une approche pragmatique et centrée sur les acteurs des questions de pouvoir dans la mondialisation. Cette recherche utilise plus particulièrement le concept d'élite du pouvoir de Wright Mills pour étudier l'unification d'élites a priori différentes autour de projets communs. Enfin, cette étude reprend le concept néo-gramscien d'hégémonie afin d'étudier à la fois la stabilité relative du pouvoir d'une élite garantie par la dimension consensuelle de la domination, et les germes de changement contenus dans tout ordre international. A travers l'étude des documents produits au cours de la période étudiée et en s'appuyant sur la création de bases de données sur les réseaux d'acteurs, cette étude s'intéresse aux débats qui ont suivi la commercialisation du réseau au début des années 1990 et aux négociations lors du SMSI. La première période a abouti à la création de l'Internet Corporation for Assigned Names and Numbers (ICANN) en 1998. Cette création est le résultat de la recherche d'un consensus entre les discours dominants des années 1990. C'est également le fruit d'une coalition entre intérêts au sein d'une élite du pouvoir de la gouvernance de l'Internet. Cependant, cette institutionnalisation de l'Internet autour de l'ICANN excluait un certain nombre d'acteurs et de discours qui ont depuis tenté de renverser cet ordre. Le SMSI a été le cadre de la remise en cause du mode de gouvernance de l'Internet par les États exclus du système, des universitaires et certaines ONG et organisations internationales. C'est pourquoi le SMSI constitue la seconde période historique étudiée dans cette thèse. La confrontation lors du SMSI a donné lieu à une reconfiguration de l'élite du pouvoir de la gouvernance de l'Internet ainsi qu'à une redéfinition des frontières du champ. Un nouveau projet hégémonique a vu le jour autour d'éléments discursifs tels que le multipartenariat et autour d'insitutions telles que le Forum sur la Gouvernance de l'Internet. Le succès relatif de ce projet a permis une stabilité insitutionnelle inédite depuis la fin du SMSI et une acceptation du discours des élites par un grand nombre d'acteurs du champ. Ce n'est que récemment que cet ordre a été remis en cause par les pouvoirs émergents dans la gouvernance de l'Internet. Cette thèse cherche à contribuer au débat scientifique sur trois plans. Sur le plan théorique, elle contribue à l'essor d'un dialogue entre approches d'économie politique mondiale et de sociologie politique internationale afin d'étudier à la fois les dynamiques structurelles liées au processus de mondialisation et les pratiques localisées des acteurs dans un domaine précis. Elle insiste notamment sur l'apport de les notions de champ et d'élite du pouvoir et sur leur compatibilité avec les anlayses néo-gramsciennes de l'hégémonie. Sur le plan méthodologique, ce dialogue se traduit par une utilisation de méthodes sociologiques telles que l'anlyse de réseaux d'acteurs et de déclarations pour compléter l'analyse qualitative de documents. Enfin, sur le plan empirique, cette recherche offre une perspective originale sur la gouvernance de l'Internet en insistant sur sa dimension historique, en démontrant la fragilité du concept de gouvernance multipartenaire (multistakeholder) et en se focalisant sur les rapports de pouvoir et les liens entre gouvernance de l'Internet et mondialisation. - Internet governance is a recent issue in global politics. However, it gradually became a major political and economic issue. It recently became even more important and now appears regularly in the news. Against this background, this research outlines the history of Internet governance from its emergence as a political issue in the 1980s to the end of the World Summit on the Information Society (WSIS) in 2005. Rather than focusing on one or the other institution involved in Internet governance, this research analyses the emergence and historical evolution of a space of struggle affecting a growing number of different actors. This evolution is described through the analysis of the dialectical relation between elites and non-elites and through the struggle around the definition of Internet governance. The thesis explores the question of how the relations among the elites of Internet governance and between these elites and non-elites explain the emergence, the evolution, and the structuration of a relatively autonomous field of world politics centred around Internet governance. Against dominant realist and liberal perspectives, this research draws upon a cross-fertilisation of heterodox international political economy and international political sociology. This approach focuses on concepts such as field, elites and hegemony. The concept of field, as developed by Bourdieu, is increasingly used in International Relations to build a differentiated analysis of globalisation and to describe the emergence of transnational spaces of struggle and domination. Elite sociology allows for a pragmatic actor-centred analysis of the issue of power in the globalisation process. This research particularly draws on Wright Mill's concept of power elite in order to explore the unification of different elites around shared projects. Finally, this thesis uses the Neo-Gramscian concept of hegemony in order to study both the consensual dimension of domination and the prospect of change contained in any international order. Through the analysis of the documents produced within the analysed period, and through the creation of databases of networks of actors, this research focuses on the debates that followed the commercialisation of the Internet throughout the 1990s and during the WSIS. The first time period led to the creation of the Internet Corporation for Assigned Names and Numbers (ICANN) in 1998. This creation resulted from the consensus-building between the dominant discourses of the time. It also resulted from the coalition of interests among an emerging power elite. However, this institutionalisation of Internet governance around the ICANN excluded a number of actors and discourses that resisted this mode of governance. The WSIS became the institutional framework within which the governance system was questioned by some excluded states, scholars, NGOs and intergovernmental organisations. The confrontation between the power elite and counter-elites during the WSIS triggered a reconfiguration of the power elite as well as a re-definition of the boundaries of the field. A new hegemonic project emerged around discursive elements such as the idea of multistakeholderism and institutional elements such as the Internet Governance Forum. The relative success of the hegemonic project allowed for a certain stability within the field and an acceptance by most non-elites of the new order. It is only recently that this order began to be questioned by the emerging powers of Internet governance. This research provides three main contributions to the scientific debate. On the theoretical level, it contributes to the emergence of a dialogue between International Political Economy and International Political Sociology perspectives in order to analyse both the structural trends of the globalisation process and the located practices of actors in a given issue-area. It notably stresses the contribution of concepts such as field and power elite and their compatibility with a Neo-Gramscian framework to analyse hegemony. On the methodological level, this perspective relies on the use of mixed methods, combining qualitative content analysis with social network analysis of actors and statements. Finally, on the empirical level, this research provides an original perspective on Internet governance. It stresses the historical dimension of current Internet governance arrangements. It also criticise the notion of multistakeholde ism and focuses instead on the power dynamics and the relation between Internet governance and globalisation.
Resumo:
The decision-making process regarding drug dose, regularly used in everyday medical practice, is critical to patients' health and recovery. It is a challenging process, especially for a drug with narrow therapeutic ranges, in which a medical doctor decides the quantity (dose amount) and frequency (dose interval) on the basis of a set of available patient features and doctor's clinical experience (a priori adaptation). Computer support in drug dose administration makes the prescription procedure faster, more accurate, objective, and less expensive, with a tendency to reduce the number of invasive procedures. This paper presents an advanced integrated Drug Administration Decision Support System (DADSS) to help clinicians/patients with the dose computing. Based on a support vector machine (SVM) algorithm, enhanced with the random sample consensus technique, this system is able to predict the drug concentration values and computes the ideal dose amount and dose interval for a new patient. With an extension to combine the SVM method and the explicit analytical model, the advanced integrated DADSS system is able to compute drug concentration-to-time curves for a patient under different conditions. A feedback loop is enabled to update the curve with a new measured concentration value to make it more personalized (a posteriori adaptation).
Resumo:
Independent regulatory agencies are the institutional foundations of the regulatory state that, during the past 15 years, has gained prominence throughout Europe. This article studies the rise of independent authorities in European countries by comparing regulatory agencies and central banks. Delegation to independent central banks and to independent regulatory agencies is similar in many respects. In both cases, agents are deliberately made independent from political principals through a specific institutional design. Moreover, it has been argued that delegation to both central banks and regulatory agencies is linked to the need for policy-makers to improve the credibility of policy commitments, to the wish of incumbent politicians to tie the hands of future majorities, and to the extent to which the institutional contexts safeguard policy stability. Through an analysis of the formal independence of central banks and regulatory agencies in Western Europe, this article identifies an empirical puzzle that casts doubts on the accuracy of current explanations. Veto players and the uncertainty of incumbent policy-makers in respect to their re-election prospects matter for delegation to both central banks and regulatory agencies, but in opposite ways. Making sense of these anomalies is necessary to achieve a better understanding of delegation to independent authorities.
Resumo:
BACKGROUND: The proportion of surgery performed as a day case varies greatly between countries. Low rates suggest a large growth potential in many countries. Measuring the potential development of one day surgery should be grounded on a comprehensive list of eligible procedures, based on a priori criteria, independent of local practices. We propose an algorithmic method, using only routinely available hospital data to identify surgical hospitalizations that could have been performed as one day treatment. METHODS: Moving inpatient surgery to one day surgery was considered feasible if at least one surgical intervention was eligible for one day surgery and if none of the following criteria were present: intervention or affection requiring an inpatient stay, patient transferred or died, and length of stay greater than four days. The eligibility of a procedure to be treated as a day case was mainly established on three a priori criteria: surgical access (endoscopic or not), the invasiveness of the procedure and the size of the operated organ. Few overrides of these criteria occurred when procedures were associated with risk of immediate complications, slow physiological recovery or pain treatment requiring hospital infrastructure. The algorithm was applied to a random sample of one million inpatient US stays and more than 600 thousand Swiss inpatient stays, in the year 2002. RESULTS: The validity of our method was demonstrated by the few discrepancies between the a priori criteria based list of eligible procedures, and a state list used for reimbursement purposes, the low proportion of hospitalizations eligible for one day care found in the US sample (4.9 versus 19.4% in the Swiss sample), and the distribution of the elective procedures found eligible in Swiss hospitals, well supported by the literature. There were large variations of the proportion of candidates for one day surgery among elective surgical hospitalizations between Swiss hospitals (3 to 45.3%). CONCLUSION: The proposed approach allows the monitoring of the proportion of inpatient stay candidates for one day surgery. It could be used for infrastructure planning, resources negotiation and the surveillance of appropriate resource utilization.
Resumo:
Résumé : La radiothérapie par modulation d'intensité (IMRT) est une technique de traitement qui utilise des faisceaux dont la fluence de rayonnement est modulée. L'IMRT, largement utilisée dans les pays industrialisés, permet d'atteindre une meilleure homogénéité de la dose à l'intérieur du volume cible et de réduire la dose aux organes à risque. Une méthode usuelle pour réaliser pratiquement la modulation des faisceaux est de sommer de petits faisceaux (segments) qui ont la même incidence. Cette technique est appelée IMRT step-and-shoot. Dans le contexte clinique, il est nécessaire de vérifier les plans de traitement des patients avant la première irradiation. Cette question n'est toujours pas résolue de manière satisfaisante. En effet, un calcul indépendant des unités moniteur (représentatif de la pondération des chaque segment) ne peut pas être réalisé pour les traitements IMRT step-and-shoot, car les poids des segments ne sont pas connus à priori, mais calculés au moment de la planification inverse. Par ailleurs, la vérification des plans de traitement par comparaison avec des mesures prend du temps et ne restitue pas la géométrie exacte du traitement. Dans ce travail, une méthode indépendante de calcul des plans de traitement IMRT step-and-shoot est décrite. Cette méthode est basée sur le code Monte Carlo EGSnrc/BEAMnrc, dont la modélisation de la tête de l'accélérateur linéaire a été validée dans une large gamme de situations. Les segments d'un plan de traitement IMRT sont simulés individuellement dans la géométrie exacte du traitement. Ensuite, les distributions de dose sont converties en dose absorbée dans l'eau par unité moniteur. La dose totale du traitement dans chaque élément de volume du patient (voxel) peut être exprimée comme une équation matricielle linéaire des unités moniteur et de la dose par unité moniteur de chacun des faisceaux. La résolution de cette équation est effectuée par l'inversion d'une matrice à l'aide de l'algorithme dit Non-Negative Least Square fit (NNLS). L'ensemble des voxels contenus dans le volume patient ne pouvant être utilisés dans le calcul pour des raisons de limitations informatiques, plusieurs possibilités de sélection ont été testées. Le meilleur choix consiste à utiliser les voxels contenus dans le Volume Cible de Planification (PTV). La méthode proposée dans ce travail a été testée avec huit cas cliniques représentatifs des traitements habituels de radiothérapie. Les unités moniteur obtenues conduisent à des distributions de dose globale cliniquement équivalentes à celles issues du logiciel de planification des traitements. Ainsi, cette méthode indépendante de calcul des unités moniteur pour l'IMRT step-andshootest validée pour une utilisation clinique. Par analogie, il serait possible d'envisager d'appliquer une méthode similaire pour d'autres modalités de traitement comme par exemple la tomothérapie. Abstract : Intensity Modulated RadioTherapy (IMRT) is a treatment technique that uses modulated beam fluence. IMRT is now widespread in more advanced countries, due to its improvement of dose conformation around target volume, and its ability to lower doses to organs at risk in complex clinical cases. One way to carry out beam modulation is to sum smaller beams (beamlets) with the same incidence. This technique is called step-and-shoot IMRT. In a clinical context, it is necessary to verify treatment plans before the first irradiation. IMRT Plan verification is still an issue for this technique. Independent monitor unit calculation (representative of the weight of each beamlet) can indeed not be performed for IMRT step-and-shoot, because beamlet weights are not known a priori, but calculated by inverse planning. Besides, treatment plan verification by comparison with measured data is time consuming and performed in a simple geometry, usually in a cubic water phantom with all machine angles set to zero. In this work, an independent method for monitor unit calculation for step-and-shoot IMRT is described. This method is based on the Monte Carlo code EGSnrc/BEAMnrc. The Monte Carlo model of the head of the linear accelerator is validated by comparison of simulated and measured dose distributions in a large range of situations. The beamlets of an IMRT treatment plan are calculated individually by Monte Carlo, in the exact geometry of the treatment. Then, the dose distributions of the beamlets are converted in absorbed dose to water per monitor unit. The dose of the whole treatment in each volume element (voxel) can be expressed through a linear matrix equation of the monitor units and dose per monitor unit of every beamlets. This equation is solved by a Non-Negative Least Sqvare fif algorithm (NNLS). However, not every voxels inside the patient volume can be used in order to solve this equation, because of computer limitations. Several ways of voxel selection have been tested and the best choice consists in using voxels inside the Planning Target Volume (PTV). The method presented in this work was tested with eight clinical cases, which were representative of usual radiotherapy treatments. The monitor units obtained lead to clinically equivalent global dose distributions. Thus, this independent monitor unit calculation method for step-and-shoot IMRT is validated and can therefore be used in a clinical routine. It would be possible to consider applying a similar method for other treatment modalities, such as for instance tomotherapy or volumetric modulated arc therapy.
Resumo:
Si on raconte volontiers que les Muses sont des divinités féminines d'origine grecque, en lien avec l'art et à l'inspiration, on est toutefois bien démuni lorsqu'il s'agit d'en présenter une image claire. Liées qu'elles sont aux mystères de la création, elles ne s'inscrivent que difficilement dans notre vision pragmatique et utilitaire du monde, - et par suite dans les concepts, catégories et autres réflexes inhérents à notre raison moderne. N'étant pas des figures historiques factuelles et univoques, mais des déesses et personnages mythiques, par définition multiples et ambigus, elles sont impossibles à déterminer en bonne et due forme en leur complexe réalité. Comment faire alors pour ne pas se fourvoyer en se mettant à l'écoute des Muses telles qu'elles apparaissent à l'aube de notre tradition, dans les textes de la Grèce archaïque (8è-5è s. av. J.-C.) ? Il faut d'abord constituer un corpus cohérent : à l'exception des tragédies et comédies ainsi que des écrits aujourd'hui classés en philosophie, l'étude prend en considération tous les passages explicitement ou implicitement musicaux de cette époque - un ensemble de 250 extraits de 22 auteurs et 2 corpus de textes pour un total de 279 occurrences musicales. Il s'agit ensuite de faire un pari : gager que loin d'être de simples fictions ou enjolivures, les Muses ont une existence, importance et partant influence bien réelle pour les Grecs ; que chacune de leurs mentions ou évocations exprime une expérience sincère, dénuée de faux-semblant et forte d'une certaine cohérence logique. Il convient enfin d'employer - par-delà les diverses écoles et chapelles - tous les moyens d'investigation à disposition pour creuser et déployer en toute patience et toute rigueur chacun des passages qui concerne, directement ou indirectement, les divinités ; non sans à la fois tout mettre en oeuvre pour ne pas y plaquer nos vues et par suite éviter tout anachronisme. Au vu des divergences que présentent les textes - en fonction de l'époque, des genres poétiques, sans doute également de la sensibilité des auteurs et de la nature de leur auditoire -, on a tôt fait de remarquer que loin de former une vérité unique, les multiples indications musicales constituent bien plutôt une somme de vérités successives, tantôt individuelles, propres à tel ou tel chanteur ou chanteur-poète, tantôt communes à quelques-uns, parfois semblables chez tous. Dépendantes à la fois de la tradition et de l'expérience individuelle, elles présentent somme toute une instructive multiplicité de constantes et de variantes. L'enjeu de chacun des six mouvements du travail - qui concernent respectivement les chants d'Homère, d'Hésiode, des Hymnes homériques, les fragments lyriques, ainsi que les vers de Pindare et de Bacchylide - est de repérer, dévoiler et valoriser les continuités et divergences à l'oeuvre. Les résultats ont été synthétisés dans autant de reprises, à chaque fois centrées sur les questions rectrices de l'origine, de la nature, des rôles et de l'influence des Muses, dans le but de dégager l'image la plus nette possible des divinités et de gagner une vue d'ensemble inédite offrant un nouvel éclairage du phénomène musical à ses origines. S'il ne fallait retenir que trois gains, ce seraient ceux-ci: 1. Bien que mêlant quantité de ressemblances et de dissemblances a priori fantaisistes, la pléthore d'attributs et d'épithètes musicaux s'inscrit dans une étonnante logique - appelée musicale -, qui déborde par maints côtés notre vision rationnelle-morale du monde. 2. Si les rapports qu'entretiennent les chanteurs et chanteurs-poètes avec les Muses sont multiples et s'inscrivent dans un mouvement non linéaire, ils se situent cependant entre deux relations extrêmes, allant de la « fusion » (Homère) à la « confusion » (Bacchylide). 3. Se faisant jour pour célébrer et rappeler les hauts-faits divins ou/et humains du monde, la tâche des Muses s'avère finalement de l'ordre de l'éducation : par l'intermédiaire des chanteurs(-poètes), elles ouvrent les hommes à l'équilibre et à l'harmonie de toute chose au sein du monde.
Resumo:
L'objet de ce travail est l'évaluation de l'activité de radionucléides présents à l'état de traces, par exemple dans l'environnement. Lorsque les mesures sont de courte durée, ou si les sources sont peu actives, l'analyse statistique standard ne donne plus une estimation fiable de l'activité et de son incertitude. L'introduction du concept bayesien d'a priori permet de modéliser l'information à disposition de l'observateur avant qu'il effectue la mesure. Cette information conduit à une estimation plus cohérente des grandeurs physiques recherchées. Le cadre de la théorie est tout d'abord présenté, définissant les concepts d'état, d'observation et de décision. La mesure physique est traduite par un modèle statistique qui est une probabilité de transition des états vers les observations. L'information de Fisher et celle de Shannon-Kullback sont introduites dans le but d'obtenir les a priori nécessaires au théorème de Bayes. Les modèles propres à la mesure de la radioactivité sont ensuite traités. Si l'on peut considérer l'activité comme constante, le modèle est celui de Poisson et conduit à des a priori de type gamma. Pour les grandes activités, ces deux lois se rapprochent des gaussiennes et l'on retrouve l'analyse statistique classique. Lorsque la décroissance du nombre de noyaux n'est plus négligeable, ou lors de l'évaluation de certains temps d'attente, d'autres modèles sont développés. Quelques applications sont présentées ensuite, notamment une définition cohérente des intervalles de confiance et l'estimation de l'activité de radionucléides à schéma complexe par spectrométrie gamma, où l'obtention de tout un spectre permet une analyse multidimensionnelle. Le paradigme bayesien conduit à une répartition complète et globale pour l'état du système physique mesuré. L'observateur obtient ainsi la meilleure estimation possible de l'état basée sur son modèle d'expérience et l'information préalable en sa possession.
Resumo:
Abstract The solvability of the problem of fair exchange in a synchronous system subject to Byzantine failures is investigated in this work. The fair exchange problem arises when a group of processes are required to exchange digital items in a fair manner, which means that either each process obtains the item it was expecting or no process obtains any information on, the inputs of others. After introducing a novel specification of fair exchange that clearly separates safety and liveness, we give an overview of the difficulty of solving such a problem in the context of a fully-connected topology. On one hand, we show that no solution to fair exchange exists in the absence of an identified process that every process can trust a priori; on the other, a well-known solution to fair exchange relying on a trusted third party is recalled. These two results lead us to complete our system model with a flexible representation of the notion of trust. We then show that fair exchange is solvable if and only if a connectivity condition, named the reachable majority condition, is satisfied. The necessity of the condition is proven by an impossibility result and its sufficiency by presenting a general solution to fair exchange relying on a set of trusted processes. The focus is then turned towards a specific network topology in order to provide a fully decentralized, yet realistic, solution to fair exchange. The general solution mentioned above is optimized by reducing the computational load assumed by trusted processes as far as possible. Accordingly, our fair exchange protocol relies on trusted tamperproof modules that have limited communication abilities and are only required in key steps of the algorithm. This modular solution is then implemented in the context of a pedagogical application developed for illustrating and apprehending the complexity of fair exchange. This application, which also includes the implementation of a wide range of Byzantine behaviors, allows executions of the algorithm to be set up and monitored through a graphical display. Surprisingly, some of our results on fair exchange seem contradictory with those found in the literature of secure multiparty computation, a problem from the field of modern cryptography, although the two problems have much in common. Both problems are closely related to the notion of trusted third party, but their approaches and descriptions differ greatly. By introducing a common specification framework, a comparison is proposed in order to clarify their differences and the possible origins of the confusion between them. This leads us to introduce the problem of generalized fair computation, a generalization of fair exchange. Finally, a solution to this new problem is given by generalizing our modular solution to fair exchange