115 resultados para Relative information
Resumo:
Abstract : In the subject of fingerprints, the rise of computers tools made it possible to create powerful automated search algorithms. These algorithms allow, inter alia, to compare a fingermark to a fingerprint database and therefore to establish a link between the mark and a known source. With the growth of the capacities of these systems and of data storage, as well as increasing collaboration between police services on the international level, the size of these databases increases. The current challenge for the field of fingerprint identification consists of the growth of these databases, which makes it possible to find impressions that are very similar but coming from distinct fingers. However and simultaneously, this data and these systems allow a description of the variability between different impressions from a same finger and between impressions from different fingers. This statistical description of the withinand between-finger variabilities computed on the basis of minutiae and their relative positions can then be utilized in a statistical approach to interpretation. The computation of a likelihood ratio, employing simultaneously the comparison between the mark and the print of the case, the within-variability of the suspects' finger and the between-variability of the mark with respect to a database, can then be based on representative data. Thus, these data allow an evaluation which may be more detailed than that obtained by the application of rules established long before the advent of these large databases or by the specialists experience. The goal of the present thesis is to evaluate likelihood ratios, computed based on the scores of an automated fingerprint identification system when the source of the tested and compared marks is known. These ratios must support the hypothesis which it is known to be true. Moreover, they should support this hypothesis more and more strongly with the addition of information in the form of additional minutiae. For the modeling of within- and between-variability, the necessary data were defined, and acquired for one finger of a first donor, and two fingers of a second donor. The database used for between-variability includes approximately 600000 inked prints. The minimal number of observations necessary for a robust estimation was determined for the two distributions used. Factors which influence these distributions were also analyzed: the number of minutiae included in the configuration and the configuration as such for both distributions, as well as the finger number and the general pattern for between-variability, and the orientation of the minutiae for within-variability. In the present study, the only factor for which no influence has been shown is the orientation of minutiae The results show that the likelihood ratios resulting from the use of the scores of an AFIS can be used for evaluation. Relatively low rates of likelihood ratios supporting the hypothesis known to be false have been obtained. The maximum rate of likelihood ratios supporting the hypothesis that the two impressions were left by the same finger when the impressions came from different fingers obtained is of 5.2 %, for a configuration of 6 minutiae. When a 7th then an 8th minutia are added, this rate lowers to 3.2 %, then to 0.8 %. In parallel, for these same configurations, the likelihood ratios obtained are on average of the order of 100,1000, and 10000 for 6,7 and 8 minutiae when the two impressions come from the same finger. These likelihood ratios can therefore be an important aid for decision making. Both positive evolutions linked to the addition of minutiae (a drop in the rates of likelihood ratios which can lead to an erroneous decision and an increase in the value of the likelihood ratio) were observed in a systematic way within the framework of the study. Approximations based on 3 scores for within-variability and on 10 scores for between-variability were found, and showed satisfactory results. Résumé : Dans le domaine des empreintes digitales, l'essor des outils informatisés a permis de créer de puissants algorithmes de recherche automatique. Ces algorithmes permettent, entre autres, de comparer une trace à une banque de données d'empreintes digitales de source connue. Ainsi, le lien entre la trace et l'une de ces sources peut être établi. Avec la croissance des capacités de ces systèmes, des potentiels de stockage de données, ainsi qu'avec une collaboration accrue au niveau international entre les services de police, la taille des banques de données augmente. Le défi actuel pour le domaine de l'identification par empreintes digitales consiste en la croissance de ces banques de données, qui peut permettre de trouver des impressions très similaires mais provenant de doigts distincts. Toutefois et simultanément, ces données et ces systèmes permettent une description des variabilités entre différentes appositions d'un même doigt, et entre les appositions de différents doigts, basées sur des larges quantités de données. Cette description statistique de l'intra- et de l'intervariabilité calculée à partir des minuties et de leurs positions relatives va s'insérer dans une approche d'interprétation probabiliste. Le calcul d'un rapport de vraisemblance, qui fait intervenir simultanément la comparaison entre la trace et l'empreinte du cas, ainsi que l'intravariabilité du doigt du suspect et l'intervariabilité de la trace par rapport à une banque de données, peut alors se baser sur des jeux de données représentatifs. Ainsi, ces données permettent d'aboutir à une évaluation beaucoup plus fine que celle obtenue par l'application de règles établies bien avant l'avènement de ces grandes banques ou par la seule expérience du spécialiste. L'objectif de la présente thèse est d'évaluer des rapports de vraisemblance calcul és à partir des scores d'un système automatique lorsqu'on connaît la source des traces testées et comparées. Ces rapports doivent soutenir l'hypothèse dont il est connu qu'elle est vraie. De plus, ils devraient soutenir de plus en plus fortement cette hypothèse avec l'ajout d'information sous la forme de minuties additionnelles. Pour la modélisation de l'intra- et l'intervariabilité, les données nécessaires ont été définies, et acquises pour un doigt d'un premier donneur, et deux doigts d'un second donneur. La banque de données utilisée pour l'intervariabilité inclut environ 600000 empreintes encrées. Le nombre minimal d'observations nécessaire pour une estimation robuste a été déterminé pour les deux distributions utilisées. Des facteurs qui influencent ces distributions ont, par la suite, été analysés: le nombre de minuties inclus dans la configuration et la configuration en tant que telle pour les deux distributions, ainsi que le numéro du doigt et le dessin général pour l'intervariabilité, et la orientation des minuties pour l'intravariabilité. Parmi tous ces facteurs, l'orientation des minuties est le seul dont une influence n'a pas été démontrée dans la présente étude. Les résultats montrent que les rapports de vraisemblance issus de l'utilisation des scores de l'AFIS peuvent être utilisés à des fins évaluatifs. Des taux de rapports de vraisemblance relativement bas soutiennent l'hypothèse que l'on sait fausse. Le taux maximal de rapports de vraisemblance soutenant l'hypothèse que les deux impressions aient été laissées par le même doigt alors qu'en réalité les impressions viennent de doigts différents obtenu est de 5.2%, pour une configuration de 6 minuties. Lorsqu'une 7ème puis une 8ème minutie sont ajoutées, ce taux baisse d'abord à 3.2%, puis à 0.8%. Parallèlement, pour ces mêmes configurations, les rapports de vraisemblance sont en moyenne de l'ordre de 100, 1000, et 10000 pour 6, 7 et 8 minuties lorsque les deux impressions proviennent du même doigt. Ces rapports de vraisemblance peuvent donc apporter un soutien important à la prise de décision. Les deux évolutions positives liées à l'ajout de minuties (baisse des taux qui peuvent amener à une décision erronée et augmentation de la valeur du rapport de vraisemblance) ont été observées de façon systématique dans le cadre de l'étude. Des approximations basées sur 3 scores pour l'intravariabilité et sur 10 scores pour l'intervariabilité ont été trouvées, et ont montré des résultats satisfaisants.
Resumo:
This thesis focuses on theoretical asset pricing models and their empirical applications. I aim to investigate the following noteworthy problems: i) if the relationship between asset prices and investors' propensities to gamble and to fear disaster is time varying, ii) if the conflicting evidence for the firm and market level skewness can be explained by downside risk, Hi) if costly learning drives liquidity risk. Moreover, empirical tests support the above assumptions and provide novel findings in asset pricing, investment decisions, and firms' funding liquidity. The first chapter considers a partial equilibrium model where investors have heterogeneous propensities to gamble and fear disaster. Skewness preference represents the desire to gamble, while kurtosis aversion represents fear of extreme returns. Using US data from 1988 to 2012, my model demonstrates that in bad times, risk aversion is higher, more people fear disaster, and fewer people gamble, in contrast to good times. This leads to a new empirical finding: gambling preference has a greater impact on asset prices during market downturns than during booms. The second chapter consists of two essays. The first essay introduces a foramula based on conditional CAPM for decomposing the market skewness. We find that the major market upward and downward movements can be well preadicted by the asymmetric comovement of betas, which is characterized by an indicator called "Systematic Downside Risk" (SDR). We find that SDR can efafectively forecast future stock market movements and we obtain out-of-sample R-squares (compared with a strategy using historical mean) of more than 2.27% with monthly data. The second essay reconciles a well-known empirical fact: aggregating positively skewed firm returns leads to negatively skewed market return. We reconcile this fact through firms' greater response to negative maraket news than positive market news. We also propose several market return predictors, such as downside idiosyncratic skewness. The third chapter studies the funding liquidity risk based on a general equialibrium model which features two agents: one entrepreneur and one external investor. Only the investor needs to acquire information to estimate the unobservable fundamentals driving the economic outputs. The novelty is that information acquisition is more costly in bad times than in good times, i.e. counter-cyclical information cost, as supported by previous empirical evidence. Later we show that liquidity risks are principally driven by costly learning. Résumé Cette thèse présente des modèles théoriques dévaluation des actifs et leurs applications empiriques. Mon objectif est d'étudier les problèmes suivants: la relation entre l'évaluation des actifs et les tendances des investisseurs à parier et à crainadre le désastre varie selon le temps ; les indications contraires pour l'entreprise et l'asymétrie des niveaux de marché peuvent être expliquées par les risques de perte en cas de baisse; l'apprentissage coûteux augmente le risque de liquidité. En outre, des tests empiriques confirment les suppositions ci-dessus et fournissent de nouvelles découvertes en ce qui concerne l'évaluation des actifs, les décisions relatives aux investissements et la liquidité de financement des entreprises. Le premier chapitre examine un modèle d'équilibre où les investisseurs ont des tendances hétérogènes à parier et à craindre le désastre. La préférence asymétrique représente le désir de parier, alors que le kurtosis d'aversion représente la crainte du désastre. En utilisant les données des Etats-Unis de 1988 à 2012, mon modèle démontre que dans les mauvaises périodes, l'aversion du risque est plus grande, plus de gens craignent le désastre et moins de gens parient, conatrairement aux bonnes périodes. Ceci mène à une nouvelle découverte empirique: la préférence relative au pari a un plus grand impact sur les évaluations des actifs durant les ralentissements de marché que durant les booms économiques. Exploitant uniquement cette relation générera un revenu excédentaire annuel de 7,74% qui n'est pas expliqué par les modèles factoriels populaires. Le second chapitre comprend deux essais. Le premier essai introduit une foramule base sur le CAPM conditionnel pour décomposer l'asymétrie du marché. Nous avons découvert que les mouvements de hausses et de baisses majeures du marché peuvent être prédits par les mouvements communs des bêtas. Un inadicateur appelé Systematic Downside Risk, SDR (risque de ralentissement systématique) est créé pour caractériser cette asymétrie dans les mouvements communs des bêtas. Nous avons découvert que le risque de ralentissement systématique peut prévoir les prochains mouvements des marchés boursiers de manière efficace, et nous obtenons des carrés R hors échantillon (comparés avec une stratégie utilisant des moyens historiques) de plus de 2,272% avec des données mensuelles. Un investisseur qui évalue le marché en utilisant le risque de ralentissement systématique aurait obtenu une forte hausse du ratio de 0,206. Le second essai fait cadrer un fait empirique bien connu dans l'asymétrie des niveaux de march et d'entreprise, le total des revenus des entreprises positiveament asymétriques conduit à un revenu de marché négativement asymétrique. Nous décomposons l'asymétrie des revenus du marché au niveau de l'entreprise et faisons cadrer ce fait par une plus grande réaction des entreprises aux nouvelles négatives du marché qu'aux nouvelles positives du marché. Cette décomposition révélé plusieurs variables de revenus de marché efficaces tels que l'asymétrie caractéristique pondérée par la volatilité ainsi que l'asymétrie caractéristique de ralentissement. Le troisième chapitre fournit une nouvelle base théorique pour les problèmes de liquidité qui varient selon le temps au sein d'un environnement de marché incomplet. Nous proposons un modèle d'équilibre général avec deux agents: un entrepreneur et un investisseur externe. Seul l'investisseur a besoin de connaitre le véritable état de l'entreprise, par conséquent, les informations de paiement coutent de l'argent. La nouveauté est que l'acquisition de l'information coute plus cher durant les mauvaises périodes que durant les bonnes périodes, comme cela a été confirmé par de précédentes expériences. Lorsque la récession comamence, l'apprentissage coûteux fait augmenter les primes de liquidité causant un problème d'évaporation de liquidité, comme cela a été aussi confirmé par de précédentes expériences.
Resumo:
Comment l'analyse chimique des produits contrefaits peut-elle contribuer à mieux comprendre le phénomène de la contrefaçon?Pour appréhender cette question, une approche novatrice basée sur l'analyse par SPME GC-MS des composés volatils de trente-neuf bracelets parfumés présents sur des contrefaçons horlogères a été mise en oeuvre.La détection de plusieurs dizaines de composés par montre a permis de définir des profils chimiques discriminants. Au total, trois groupes de montres possédant des profils comparables ont été détectés. Ces groupes ont été mis en perspective de liens physiques détectés sur la base du marquage des bracelets (marques et logos) par la fédération de l'industrie horlogère suisse (FH) et des informations spatiotemporelles des saisies. Les montres provenant d'une même saisie présentent systématiquement des liens physiques, mais pas forcément des profils chimiques similaires. Il en ressort que les profils chimiques peuvent fournir une information complémentaire à l'analyse des marquages, qu'ils varient peu dans le temps et que des montres liées chimiquement sont retrouvées dans le monde entier. Cette étude exploratoire révèle ainsi le potentielle d'exploitation de techniques d'analyse complémentaires pour mieux comprendre les modes de production, voire de diffusion de la contrefaçon. Finalement, la méthode analytique a permis de détecter des composés de plastiques en sus des constituants de parfums. Ce résultat laisse entrevoir la possibilité d'exploiterla méthode pour une large gamme de produits contrefaits.
Resumo:
This study on determinants of sexual protection behavior among HIV-positive gay men used the empirically tested information-motivation-behavioral skills (IMB) model. HIV-specific variables were added to the model to determine factors decisive for condom use with steady and casual partners. Data were collected using an anonymous, standardized self-administered questionnaire. Study participants were recruited at HIV outpatient clinics associated with the Eurosupport Study Group and the Swiss HIV Cohort Study. To identify factors associated with condom use, backward elimination regression analyses were performed. Overall, 838 HIV-infected gay men from 14 European countries were included in this analysis. About 53% of them reported at least one sexual contact with a steady partner; 62.5% had sex with a casual partner during the last 6 months. Forty-three percent always used condoms with steady partners and 44% with casual partners. High self-efficacy and subjective norms in favor of condom-use were associated with increased condom use with casual and steady partners, whereas feeling depressed was associated with decreased condom use with casual partners. Condoms were used less often with HIV-positive partners. Self-efficacy as an important behavioral skill to perform protection behavior was influenced by lower perceived vulnerability, higher subjective norms, and more positive safer sex attitudes. The IMB-model constructs appeared to be valid; however, not all the model predictors could be determined as hypothesized. Besides the original IMB constructs, HIV-specific variables, including sexual partners' serostatus and mental health, explained condom use. Such factors should be considered in clinical interventions to promote "positive prevention."
Resumo:
1 6 STRUCTURE OF THIS THESIS -Chapter I presents the motivations of this dissertation by illustrating two gaps in the current body of knowledge that are worth filling, describes the research problem addressed by this thesis and presents the research methodology used to achieve this goal. -Chapter 2 shows a review of the existing literature showing that environment analysis is a vital strategic task, that it shall be supported by adapted information systems, and that there is thus a need for developing a conceptual model of the environment that provides a reference framework for better integrating the various existing methods and a more formal definition of the various aspect to support the development of suitable tools. -Chapter 3 proposes a conceptual model that specifies the various enviromnental aspects that are relevant for strategic decision making, how they relate to each other, and ,defines them in a more formal way that is more suited for information systems development. -Chapter 4 is dedicated to the evaluation of the proposed model on the basis of its application to a concrete environment to evaluate its suitability to describe the current conditions and potential evolution of a real environment and get an idea of its usefulness. -Chapter 5 goes a step further by assembling a toolbox describing a set of methods that can be used to analyze the various environmental aspects put forward by the model and by providing more detailed specifications for a number of them to show how our model can be used to facilitate their implementation as software tools. -Chapter 6 describes a prototype of a strategic decision support tool that allow the analysis of some of the aspects of the environment that are not well supported by existing tools and namely to analyze the relationship between multiple actors and issues. The usefulness of this prototype is evaluated on the basis of its application to a concrete environment. -Chapter 7 finally concludes this thesis by making a summary of its various contributions and by proposing further interesting research directions.
Resumo:
SummaryGene duplication and neofunctidnalization are important processes in the evolution of phenotypic complexity. They account for important evolutionary novelties that confer ecological adaptation, such as the major histocompatibility complex (MHC), a multigene family with a central role in vertebrates' adaptive immune system. Multigene families, which evolved in large part through duplication, represent promising systems to study the still strongly depbated relative roles of neutral and adaptive processes in the evolution of phenotypic complexity. Detailed knowledge on ecological function and a well-characterized evolutionary history place the mammals' MHC amongst ideal study systems. However mammalian MHCs usually encompass several million base pairs and hold a large number of functional and non-functional duplicate genes, which makes their study complex. Avian MHCs on the other hand are usually way more compact, but the reconstruction of. their evolutionary history has proven notoriously difficult. However, no focused attempt has been undertaken so far to study the avian MHC evolutionary history in a broad phylogenetic context and using adequate gene regions.In the present PhD, we were able to make important contributions to the understanding of the long-term evolution of the avian MHC class II Β (MHCI1B). First, we isolated and characterized MHCIIB genes in barn owl (Tyto alba?, Strigiformes, Tytonidae), a species from an avian lineage in which MHC has not been studied so far. Our results revealed that with only two functional MHCIIB genes the MHC organization of barn owl may be similar to the 'minimal essential' MHC of chicken (Gallus gallus), indicating that simple MHC organization may be ancestral to birds. Taking advantage of the sequence information from barn owl, we studied the evolution of MHCIIB genes in 13 additional species of 'typical' owls (Strigiformes, Strigidae). Phylogenetic analyses revealed that according to their function, in owls the peptide-binding region (PBR) encoding exon 2 and the non-PBR encoding exon 3 evolve by different patterns. Exon 2 exhibited an evolutionary history of positive selection and recombination, while exon 3 traced duplication history and revealed two paralogs evolving divergently from each other in owls, and in a shorebird, the great snipe {Gallinago media). The results from exon 3 were the first ever from birds to demonstrate gene orthology in species that diverged tens of millions of years ago, and strongly questioned whether the taxa studied before provided an adequate picture of avian MHC evolution. In a follow-up study, we aimed at explaining a striking pattern revealed by phylogenetic trees analyzing the owl sequences along with MHCIIB sequences from other birds: One owl paralog (termed DAB1) grouped with sequences of passerines and falcons, while the other (DAB2) grouped with wildfowl, penguins and birds of prey. This could be explained by either a duplication event preceding the evolution of these bird orders, or by convergent evolution of similar sequences in a number of orders. With extensive phylogenetic analyses we were able to show, that indeed a duplication event preceeded the major avian radiation -100 my ago, and that following this duplication, the paralogs evolved under positive selection. Furthermore, we showed that the divergently evolving amino acid residues in the MHCIIB-encoded β-chain potentially interact with the MHCI I α-chain, and that molecular coevolution of the interacting residues may have been involved in the divergent evolution of the MHCIIB paralogs.The findings of this PhD are of particular interest to the understanding of the evolutionary history of the avian MHC and, by providing essential information on long-term gene history in the avian MHC, open promising perspectives for advances in the understanding of the evolution of multigene families in general, and for avian MHC organization in particular. Amongst others I discuss the importance of including protein structure in the phylogenetic study of multigene families, and the roles of ecological versus molecular selection pressures. I conclude by providing a population genomic perspective on avian MHC, which may serve as a basis for future research to investigate the relative roles of neutral processes involving effective population size effects and of adaptation in the evolution of avian MHC diversity and organization.RésuméLa duplication de gènes et leur néo-fonctionnalisation sont des processus importants dans l'évolution de la complexité phénotypique. Ils sont impliqués dans l'apparition d'importantes nouveautés évolutives favorisant l'adaptation écologique, comme c'est le cas pour le complexe majeur d'histocompatibilité
Resumo:
Contexte et but de l'étude :Le statut socio-économique est suspecté d'avoir une influence significative sur l'incidence des attaques cérébrales (AVC), sur les facteurs de risque cardio-vasculaire, ainsi que sur le pronostic. L'influence de ce statut socio-économique sur la sévérité de l'AVC et sur les mécanismes physiopathologiques sous-jacents est moins connue.Méthode :Sur une période de 4 ans, nous avons collecté de manière prospective (dans un registre) des données concernant tous les patients avec AVC aigus admis à l'Unité Cérébrovasculaire du CHUV. Les données comprenaient le statut assécurologique du patient (assurance privée ou générale), les données démographiques, les facteurs de risque cérébrovasculaires, l'utilisation de traitements aigus de recanalisation vasculaire, le délai avant l'admission à l'hôpital, ainsi que la sévérité et le pronostic de l'AVC en phase aiguë, à 7 jours et à 3 mois des symptômes. Les patients avec assurance privée ont été comparés à ceux avec assurance générale.Résultats :Sur 1062 patients avec AVC, 203 avaient une assurance privée et 859 avaient une assurance générale. Il y a avait 585 hommes et 477 femmes. Les deux populations étaient similaires en âge. Les facteurs de risque cardio-vasculaire, la médication préventive, le délai d'arrivée à l'hôpital, l'incidence du taux de thrombolyse et l'étiologie de l'AVC ne différaient pas dans les deux populations. Le score de gravité de l'AVC en phase aiguë, mesuré par le NIHSS, était significativement plus élevé chez les patients avec assurance générale. Un pronostic favorable, mesuré par le score de Rankin modifié (mRS), était plus fréquemment obtenu à 7 jours et à 3 mois chez les patients avec assurance privée.Commentaires :Un statut socio-économique bas est associé à une incidence plus élevée de maladies cérébrovasculaires ainsi qu'à un plus mauvais pronostic, comme cela a été démontré dans différents pays. Il a été suspecté que l'accès à une prise en charge spécialisée en phase aiguë ou en rééducation soit différent selon le statut socio-économique. Comme la Suisse a un système de santé universel, avec une couverture assécurologique obligatoire pour chaque habitant, il y a là une occasion unique de comparer l'influence de l'aspect socio-économique sur la sévérité et le pronostic de l'AVC. De plus, les patients ont été admis dans la même Unité Cérébrovasculaire et pris en charge par la même équipe médicale.Conclusion et perspectives :Le lien entre le statut assécurologique et le statut socio-économique a déjà été prouvé par le passé dans d'autres pays. Nous avons mis en évidence une sévérité plus importante et un plus mauvais pronostic chez les patients avec assurance générale dans la population étudiée. L'étiologie de cette différence dans un système de santé à couverture universelle comme celui de la Suisse reste peu claire. Elle devrait être étudiée à plus grande échelle.
Resumo:
OBJECTIVE: To investigate whether first trimester exposure to lamotrigine (LTG) monotherapy is specifically associated with an increased risk of orofacial clefts (OCs) relative to other malformations, in response to a signal regarding increased OC risk. METHODS: Population-based case-control study with malformed controls based on EUROCAT congenital anomaly registers. The study population covered 3.9 million births from 19 registries 1995-2005. Registrations included congenital anomaly among livebirths, stillbirths, and terminations of pregnancy following prenatal diagnosis. Cases were 5,511 nonsyndromic OC registrations, of whom 4,571 were isolated, 1,969 were cleft palate (CP), and 1,532 were isolated CP. Controls were 80,052 nonchromosomal, non-OC registrations. We compared first trimester LTG and antiepileptic drug (AED) use vs nonepileptic non-AED use, for mono and polytherapy, adjusting for maternal age. An additional exploratory analysis compared the observed and expected distribution of malformation types associated with LTG use. RESULTS: There were 72 LTG exposed (40 mono- and 32 polytherapy) registrations. The ORs for LTG monotherapy vs no AED use were 0.67 (95% CI 0.10-2.34) for OC relative to other malformations, 0.80 (95% CI 0.11-2.85) for isolated OC, 0.79 (95% CI 0.03-4.35) for CP, and 1.01 (95% CI 0.03-5.57) for isolated CP. ORs for any AED use vs no AED use were 1.43 (95% CI 1.03-1.93) for OC, 1.21 (95% CI 0.82-1.72) for isolated OC, 2.37 (95% CI 1.54-3.43) for CP, and 1.86 (95% CI 1.07-2.94) for isolated CP. The distribution of other nonchromosomal malformation types with LTG exposure was similar to non-AED exposed. CONCLUSION: We find no evidence of a specific increased risk of isolated orofacial clefts relative to other malformations due to lamotrigine (LTG) monotherapy. Our study is not designed to assess whether there is a generalized increased risk of malformations with LTG exposure.
Resumo:
Eustatic sea level changes during Pleistocene climatic fluctuations produced several cycles of connection-isolation among continental islands of the Sunda shelf. To explore the potential effects of these fluctuations, we reconstructed a model of the vicariant events that separated these islands, based on bathymetric information. Among many possible scenarios, two opposite phylogenetic patterns of evolution were predicted for terrestrial organisms living in this region: one is based on the classical allopatric speciation mode of evolution, while the other is the outcome of a sequential dispersal colonization of the archipelago. We tested the applicability of these predictions with an analysis of sequence variation of the cytochrome b gene from several taxa of Hylomys. They were sampled throughout SE-Asia and the Sunda islands. High levels of haplotype differentiation characterize the different island taxa. Such levels of differentiation support the existence of several allopatric species, as was suggested by previous allozyme and morphological data. Also in accordance with previous results, the occurrence of two sympatric species from Sumatra is suggested by their strongly divergent haplotypes. One species, Hylomys suillus maxi, is found both on Sumatra and in Peninsular Malaysia, while the other, H. parvus, is endemic to Sumatra. Its closest relative is H. suillus dorsalis from Borneo. Phylogenetic reconstructions also demonstrate the existence of a Sundaic clade composed of all island taxa, as opposed to those from the continent. Although there is no statistical support for either proposed biogeographic model of evolution, we argue that the sequential dispersal scenario is more appropriate to describe the genetic variation found among the Hylomys taxa. However, despite strong differentiation among island haplotypes, the cladistic relationships between some island taxa could not be resolved. We argue that this is evidence of a rapid radiation, suggesting that the separation of the islands may have been perceived as a simultaneous event rather than as a succession of vicariant events. Furthermore, the estimates of divergence times between the haplotypes of these taxa suggest that this radiation may actually have predated the climatic fluctuations of the Pleistocene. Further refinement of the initial palaeogeographic models of evolution are therefore needed to account for these results.
Resumo:
Internet is increasingly used as a source of information on health issues and is probably a major source of patients' empowerment. This process is however limited by the frequently poor quality of web-based health information designed for consumers. A better diffusion of information about criteria defining the quality of the content of websites, and about useful methods designed for searching such needed information, could be particularly useful to patients and their relatives. A brief, six-items DISCERN version, characterized by a high specificity for detecting websites with good or very good content quality was recently developed. This tool could facilitate the identification of high-quality information on the web by patients and may improve the empowerment process initiated by the development of the health-related web.