893 resultados para likelihood to publication
Resumo:
This paper employs the one-sector Real Business Cycle model as a testing ground for four different procedures to estimate Dynamic Stochastic General Equilibrium (DSGE) models. The procedures are: 1 ) Maximum Likelihood, with and without measurement errors and incorporating Bayesian priors, 2) Generalized Method of Moments, 3) Simulated Method of Moments, and 4) Indirect Inference. Monte Carlo analysis indicates that all procedures deliver reasonably good estimates under the null hypothesis. However, there are substantial differences in statistical and computational efficiency in the small samples currently available to estimate DSGE models. GMM and SMM appear to be more robust to misspecification than the alternative procedures. The implications of the stochastic singularity of DSGE models for each estimation method are fully discussed.
Resumo:
Affiliation: Claudia Kleinman, Nicolas Rodrigue & Hervé Philippe : Département de biochimie, Faculté de médecine, Université de Montréal
Resumo:
Cette thèse porte sur le comportement des élites politiques durant les périodes de crise nationale et plus particulièrement sur leurs réactions aux attentats terroristes. Elle démontre que les crises terroristes sont tout comme les conflits militaires ou diplomatiques propices aux unions nationales et notamment aux ralliements des partis d’opposition auprès du gouvernement. L’analyse statistique d’actes terroristes s’étant produits dans cinq états démocratiques (Allemagne, Espagne, États-Unis d’Amérique, France et Royaume-Uni) entre 1990 et 2006 révèle que l’ampleur d’un attentat en termes de pertes humaines ainsi que la répétition de ces attentats influencent dans une large mesure la réaction des élites politiques. Ainsi plus l’ampleur d’un attentat est élevée, plus la probabilité d’un ralliement est grande. En revanche, la multiplication des attentats augmente la possibilité de dissension entre l’opposition et le gouvernement. Par ailleurs, l’opposition est plus susceptible de se rallier au gouvernement lorsque l’attentat est perpétré par des terroristes provenant de l’étranger. L’analyse quantitative indique également que l’existence d’un accord formel de coopération dans la lutte antiterroriste entre le gouvernement et l’opposition favorise l’union des élites. Enfin, les données analysées suggèrent que la proportion des ralliements dans les cinq pays est plus importante depuis les attentats du 11 septembre 2001. Une analyse qualitative portant exclusivement sur la France et couvrant la période 1980-2006 confirme la validité des variables identifiées dans la partie quantitative, mais suggère que les élites réagissent au nombre total de victimes (morts mais aussi blessés) et que la répétition des actes terroristes a moins d’impact lors des vagues d’attentats. Par ailleurs, les analyses de cas confirment que les élites politiques françaises sont plus susceptibles de se rallier quand un attentat vise un haut-fonctionnaire de l’État. Il apparaît également que les rivalités et rancœurs politiques propre à la France (notamment suite à l’arrivée de la gauche au pouvoir en 1981) ont parfois empêché le ralliement des élites. Enfin, cette analyse qualitative révèle que si l’extrême gauche française soutient généralement le gouvernement, qu’il soit de gauche ou de droite, en période de crise terroriste, l’extrême droite en revanche saisit quasi systématiquement l’opportunité offerte par l’acte terroriste pour critiquer le gouvernement ainsi que les partis de l’establishment. La thèse est divisée en sept chapitres. Le premier chapitre suggère que le comportement des élites politiques en période de crises internationales graves (guerres et conflits diplomatiques) est souvent influencé par la raison d’État et non par l’intérêt électoral qui prédomine lors des périodes plus paisibles. Le second chapitre discute du phénomène terroriste et de la littérature afférente. Le troisième chapitre analyse les causes du phénomène d’union nationale, soumet un cadre pour l’analyse de la réaction des élites aux actes terroristes, et présente une série d’hypothèses. Le quatrième chapitre détaille la méthodologie utilisée au cours de cette recherche. Les chapitres cinq et six présentent respectivement les résultats des analyses quantitatives et qualitatives. Enfin, le chapitre sept conclut cette thèse en résumant la contribution de l’auteur et en suggérant des pistes de recherche.
Resumo:
Le présent mémoire se penche sur la constitutionnalité des articles 517 et 539 C.cr., qui prévoient des ordonnances de non-publication à l'enquête sur mise en liberté provisoire ainsi qu'à l'enquête préliminaire. L'auteur présente d'abord les modalités d'application de chacune de ces ordonnances. Suit ensuite un portrait de la jurisprudence sur la constitutionnalité de ces deux dispositions. L'auteur applique par la suite aux dispositions le test élaboré dans l'arrêt Oakes. Il conclut que l'objectif des dispositions, qui consiste à assurer un procès équitable à l'accusé, est urgent et réel. L'auteur constate ensuite que le critère du lien rationnel n'est pas satisfait puisque, ordonnance ou pas, les informations préjudiciables pour un accusé seront de toute façon dispersées dans le public, notamment grâce aux nouvelles technologies de l'information. À défaut de profiter d'informations fiables retransmises par les médias, le public devra se concentrer sur les rumeurs non vérifiables propagées par le Web. Le critère de l'atteinte minimale est également examiné. L'auteur estime que ni les récusations motivées, ni le changement de venue, ni les directives aux jurés ne sont en mesure de remplacer des ordonnances de non-publication. Enfin, l'auteur estime que les articles 517 et 539 C.cr. échouent le critère de proportionnalité entre les effets préjudiciables et les effets bénéfiques. En conclusion, comme alternative aux interdits de publication, l'auteur propose une réforme du processus de récusations motivées.
Resumo:
Bien que les champignons soient régulièrement utilisés comme modèle d'étude des systèmes eucaryotes, leurs relations phylogénétiques soulèvent encore des questions controversées. Parmi celles-ci, la classification des zygomycètes reste inconsistante. Ils sont potentiellement paraphylétiques, i.e. regroupent de lignées fongiques non directement affiliées. La position phylogénétique du genre Schizosaccharomyces est aussi controversée: appartient-il aux Taphrinomycotina (précédemment connus comme archiascomycetes) comme prédit par l'analyse de gènes nucléaires, ou est-il plutôt relié aux Saccharomycotina (levures bourgeonnantes) tel que le suggère la phylogénie mitochondriale? Une autre question concerne la position phylogénétique des nucléariides, un groupe d'eucaryotes amiboïdes que l'on suppose étroitement relié aux champignons. Des analyses multi-gènes réalisées antérieurement n'ont pu conclure, étant donné le choix d'un nombre réduit de taxons et l'utilisation de six gènes nucléaires seulement. Nous avons abordé ces questions par le biais d'inférences phylogénétiques et tests statistiques appliqués à des assemblages de données phylogénomiques nucléaires et mitochondriales. D'après nos résultats, les zygomycètes sont paraphylétiques (Chapitre 2) bien que le signal phylogénétique issu du jeu de données mitochondriales disponibles est insuffisant pour résoudre l'ordre de cet embranchement avec une confiance statistique significative. Dans le Chapitre 3, nous montrons à l'aide d'un jeu de données nucléaires important (plus de cent protéines) et avec supports statistiques concluants, que le genre Schizosaccharomyces appartient aux Taphrinomycotina. De plus, nous démontrons que le regroupement conflictuel des Schizosaccharomyces avec les Saccharomycotina, venant des données mitochondriales, est le résultat d'un type d'erreur phylogénétique connu: l'attraction des longues branches (ALB), un artéfact menant au regroupement d'espèces dont le taux d'évolution rapide n'est pas représentatif de leur véritable position dans l'arbre phylogénétique. Dans le Chapitre 4, en utilisant encore un important jeu de données nucléaires, nous démontrons avec support statistique significatif que les nucleariides constituent le groupe lié de plus près aux champignons. Nous confirmons aussi la paraphylie des zygomycètes traditionnels tel que suggéré précédemment, avec support statistique significatif, bien que ne pouvant placer tous les membres du groupe avec confiance. Nos résultats remettent en cause des aspects d'une récente reclassification taxonomique des zygomycètes et de leurs voisins, les chytridiomycètes. Contrer ou minimiser les artéfacts phylogénétiques telle l'attraction des longues branches (ALB) constitue une question récurrente majeure. Dans ce sens, nous avons développé une nouvelle méthode (Chapitre 5) qui identifie et élimine dans une séquence les sites présentant une grande variation du taux d'évolution (sites fortement hétérotaches - sites HH); ces sites sont connus comme contribuant significativement au phénomène d'ALB. Notre méthode est basée sur un test de rapport de vraisemblance (likelihood ratio test, LRT). Deux jeux de données publiés précédemment sont utilisés pour démontrer que le retrait graduel des sites HH chez les espèces à évolution accélérée (sensibles à l'ALB) augmente significativement le support pour la topologie « vraie » attendue, et ce, de façon plus efficace comparée à d'autres méthodes publiées de retrait de sites de séquences. Néanmoins, et de façon générale, la manipulation de données préalable à l'analyse est loin d’être idéale. Les développements futurs devront viser l'intégration de l'identification et la pondération des sites HH au processus d'inférence phylogénétique lui-même.
Resumo:
Funding support for this doctoral thesis has been provided by the Canadian Institutes of Health Research-Public Health Agency of Canada, QICSS matching grant, and la Faculté des études supérieures et postdoctorales-Université de Montréal.
Resumo:
Contexte : Les interventions sur l'environnement bâti reliées au transport peuvent contribuer à l'augmentation de la pratique de l'activité physique. En tant qu’intervention, les programmes de vélos en libre-service (PVLS) peuvent contribuer à l’utilisation du vélo. BIXI© (nom qui fusionne les mots BIcyclette et taXI) est un programme de vélos en libre-service implanté à Montréal, au Canada, en mai 2009. Le programme BIXI© met à la disposition des gens 5050 vélos à 405 bornes d’ancrage. Objectif : L'objectif général de cette thèse est d'étudier l'impact d'un programme de vélos en libre-service sur l’utilisation du vélo. Les objectifs spécifiques de la thèse sont de : 1) Estimer la prévalence populationnelle et identifier des variables environnementales, sociodémographiques et comportementales associées à l’utilisation des vélos en libre-service. 2) Estimer l’impact populationnel de l’implantation des vélos en libre-service sur l’utilisation du vélo et les contributions respectives de l’utilisation du vélo pour des fins utilitaires et récréatives à l’utilisation totale du vélo. 3) Estimer l’impact local de l’implantation des vélos en libre-service sur l’utilisation du vélo. Méthodes : Un devis populationnel transversal avec mesures répétées. Des enquêtes ont été réalisées au moment du lancement du programme de vélos en libre-service (4 mai au 10 juin, 2009), à la fin de la première année d’implantation (8 octobre au 12 décembre, 2009), et à la fin de la deuxième année d’implantation (8 novembre au 12 décembre, 2010). Les échantillons se composaient de 2001 (âge moyen = 49,4 années, 56,7 % de femmes), 2502 (âge moyen = 47,8 ans, 61,8 % de femmes) et 2509 (âge moyen = 48,9 années, 59,0 % de femmes) adultes à chaque période de mesure respectivement. Résultats : Globalement, les résultats démontrent le potentiel des PVLS pour augmenter l’utilisation du vélo. Les résultats suggèrent que près de 128 744 habitants ou 8,1 % de la population adulte ont utilisé les vélos BIXI© au moins une fois dans la première saison. Après deux ans d’implantation, ceux qui sont exposés à BIXI© dans leur milieu résidentiel avaient une probabilité significativement plus élevée d’utiliser le vélo par rapport à ceux non exposés. Par contre, il n'y avait aucun impact local de l’implantation du programme BIXI© sur l’utilisation du vélo. Conclusions : L’implantation d'un PVLS à Montréal a augmenté la probabilité d’utiliser le vélo chez les individus habitant près d'une borne d'ancrage. Mots clés : programme de vélos en libre-service, expérience naturelle, santé des populations.
Resumo:
Ce manuscrit est une pré-publication d'un article paru dans Clinical Immunology 2012; 143(3): 246-255 url: http://www.journals.elsevier.com/clinical-immunology/
Resumo:
"La publication simultanée est un paradigme nouveau de diffusion dans Internet. Au lieu de privilégier l'aspect visuel d'une page, la famille de technologies RSS permet de communiquer la structure d'un site, en vue d'une navigation plus systématique et rapide. À l'instar du foisonnement qui caractérisait la bulle Internet du tournant du millénaire, plusieurs saveurs de cette technologie furent développées en parallèle par différents groupes. L'acronyme RSS reflète cette compétition et désigne, successivement, Rich Site Summary (RSS 0.91); RDF Site Summary (RSS 0.9 and 1.0) ainsi que Really Simple Syndication (RSS 2.0). Par ailleurs, Atom 1.0 représente un format RSS entériné par les organes de standardisation d'Internet. Sont présentés les mécanismes de publication et de compilation de fils RSS."
Resumo:
L’ouvrage constitue la thèse de Doctorat de Monsieur Lauri Railas soutenue le 16 Octobre 2004 à la faculté de droit de l’Université de Helsinki. Expert reconnu en droit du commerce international, son parcours professionnel explique les orientations prises dans son étude et son approche très large des transactions relatives à la vente internationale de marchandises comparativement à d’autres travaux dans le même domaine. L’auteur a été conseiller juridique à l’Institut d’arbitrage de la chambre de commerce centrale finlandaise puis secrétaire général de la section finlandaise de la chambre internationale de commerce. Il a, ensuite, occupé le poste d’administrateur principal au secrétariat général du conseil de l’Union Européenne entre 1996 et 2002. Il est, actuellement, associé senior chez Krogerus & Co, un des plus importants cabinets d’avocats de Finlande. L’originalité de la thèse réside dans le fait qu’elle aborde les transactions relatives à la vente internationale de marchandises du point de vue du commerce électronique. L’étude traite de la création d’un cadre juridique uniforme et cohérent encadrant l’utilisation des instruments du commerce élecronique pour la vente internationale de marchandises en se concentrant, uniquement, sur le commerce électronique entre professionnels (B to B) et plus précisément sur les initiatives des organisations internationales pour en diffuser et en faciliter l’usage. S’inspirant des théories de l’analyse économique du droit, le postulat de départ de Monsieur Railas est que le commerce électronique peut changer les procédures du commerce international et apporter d’importante économie de coûts. Pour ce faire, un cadre juridique pour le commerce électronique et plus généralement les affaires électroniques, est en cours d’élaboration par les organisations internationales. L’étude aborde ces développements dans différents domaines comme la formation du contrat, le crédit documentaire ou encore la résolution des conflits.L’approche est holistique et basée sur les efforts déployés pour introduire des sources uniformes de régulation pour les transactions électroniques dans le commerce international. L’auteur recense un large répertoire de règles de droit qui sont en majorité d’origine internationales avec pour objectif la détermination du rôle que peuvent jouer les communications électroniques dans la passation de contrats de vente de marchandises, leur livraison mais aussi dans le recours au service de tiers dans des fonctions comme le transport, l’assurance-transport et la sécurisation des droits des différentes parties impliquées. L’idée de base étant que la vente internationale et le transport constituent une chaine de contrats et de services interreliés. En plus des règles de droits déjà établies, l’auteur analyse différentes initiatives de régulation novatrices pour le commerce électronique initiées par la CNUDCI notamment. L’ouvrage traite, également, des problématiques générales comme la formation des contrats et la signature électronique. Par ailleurs, l’auteur procède à l’analyse des contrats de vente dans lesquels le vendeur a l’obligation de livrer en plus des marchandises, les documents relatifs aux marchandises et ceux de transfert de propriété. Les marchandises étant soumises à différents droits de propriété, les documents de vente et de transport ont un rôle important à jouer dans l’exercice de ces droits. Enfin, l’auteur considère la procédure de résolution des conflits comme une part du cycle de vie de chaque transaction. L’arbitrage en ligne et les autres méthodes de résolution en ligne des conflits contribuant à la réalisation de transactions électroniques réussies. L’ouvrage peut être particulièrement utile pour les personnes qui s’intéressent à l’harmonisation internationale des droits applicables au commerce international. L’auteur fait une analyse, particulièrement intéressante, de plusieurs instruments et projets comme les E-terms 2004 de la chambre internationale de commerce, le système Boléro, le système TEDI (Trade Electronic Data Interchange) et le système de transactions financières SWIFNet. La finalité de la démarche est de trouver une plate-forme commune qui fasse en sorte que les transactions électroniques puissent être conclues de manière sécuritaire en s’inspirant des résultats tangibles d’harmonisation atteints par la convention de Vienne sur la vente internationale de marchandises et par les principes UNIDROIT mais aussi du consensus selon lequel le commerce électronique doit être gouverné dans une large part par les instruments de « droit mou » comme les codes de conduite, et que, les règlements extrajudiciaires des conflits doivent être utilisés pour les transactions électroniques.
Resumo:
Parmi les méthodes d’estimation de paramètres de loi de probabilité en statistique, le maximum de vraisemblance est une des techniques les plus populaires, comme, sous des conditions l´egères, les estimateurs ainsi produits sont consistants et asymptotiquement efficaces. Les problèmes de maximum de vraisemblance peuvent être traités comme des problèmes de programmation non linéaires, éventuellement non convexe, pour lesquels deux grandes classes de méthodes de résolution sont les techniques de région de confiance et les méthodes de recherche linéaire. En outre, il est possible d’exploiter la structure de ces problèmes pour tenter d’accélerer la convergence de ces méthodes, sous certaines hypothèses. Dans ce travail, nous revisitons certaines approches classiques ou récemment d´eveloppées en optimisation non linéaire, dans le contexte particulier de l’estimation de maximum de vraisemblance. Nous développons également de nouveaux algorithmes pour résoudre ce problème, reconsidérant différentes techniques d’approximation de hessiens, et proposons de nouvelles méthodes de calcul de pas, en particulier dans le cadre des algorithmes de recherche linéaire. Il s’agit notamment d’algorithmes nous permettant de changer d’approximation de hessien et d’adapter la longueur du pas dans une direction de recherche fixée. Finalement, nous évaluons l’efficacité numérique des méthodes proposées dans le cadre de l’estimation de modèles de choix discrets, en particulier les modèles logit mélangés.
Resumo:
Le dioxyde de carbone (CO2) est un résidu naturel du métabolisme cellulaire, la troisième substance la plus abondante du sang, et un important agent vasoactif. À la moindre variation de la teneur en CO2 du sang, la résistance du système vasculaire cérébral et la perfusion tissulaire cérébrale subissent des changements globaux. Bien que les mécanismes exacts qui sous-tendent cet effet restent à être élucidés, le phénomène a été largement exploité dans les études de réactivité vasculaire cérébrale (RVC). Une voie prometteuse pour l’évaluation de la fonction vasculaire cérébrale est la cartographie de la RVC de manière non-invasive grâce à l’utilisation de l’Imagerie par Résonance Magnétique fonctionnelle (IRMf). Des mesures quantitatives et non-invasives de de la RVC peuvent être obtenus avec l’utilisation de différentes techniques telles que la manipu- lation du contenu artériel en CO2 (PaCO2) combinée à la technique de marquage de spin artériel (Arterial Spin Labeling, ASL), qui permet de mesurer les changements de la perfusion cérébrale provoqués par les stimuli vasculaires. Toutefois, les préoccupations liées à la sensibilité et la fiabilité des mesures de la RVC limitent de nos jours l’adoption plus large de ces méthodes modernes de IRMf. J’ai considéré qu’une analyse approfondie ainsi que l’amélioration des méthodes disponibles pourraient apporter une contribution précieuse dans le domaine du génie biomédical, de même qu’aider à faire progresser le développement de nouveaux outils d’imagerie de diagnostique. Dans cette thèse je présente une série d’études où j’examine l’impact des méthodes alternatives de stimulation/imagerie vasculaire sur les mesures de la RVC et les moyens d’améliorer la sensibilité et la fiabilité de telles méthodes. J’ai aussi inclus dans cette thèse un manuscrit théorique où j’examine la possible contribution d’un facteur méconnu dans le phénomène de la RVC : les variations de la pression osmotique du sang induites par les produits de la dissolution du CO2. Outre l’introduction générale (Chapitre 1) et les conclusions (Chapitre 6), cette thèse comporte 4 autres chapitres, au long des quels cinq différentes études sont présentées sous forme d’articles scientifiques qui ont été acceptés à des fins de publication dans différentes revues scientifiques. Chaque chapitre débute par sa propre introduction, qui consiste en une description plus détaillée du contexte motivant le(s) manuscrit(s) associé(s) et un bref résumé des résultats transmis. Un compte rendu détaillé des méthodes et des résultats peut être trouvé dans le(s) dit(s) manuscrit(s). Dans l’étude qui compose le Chapitre 2, je compare la sensibilité des deux techniques ASL de pointe et je démontre que la dernière implémentation de l’ASL continue, la pCASL, offre des mesures plus robustes de la RVC en comparaison à d’autres méthodes pulsés plus âgées. Dans le Chapitre 3, je compare les mesures de la RVC obtenues par pCASL avec l’utilisation de quatre méthodes respiratoires différentes pour manipuler le CO2 artérielle (PaCO2) et je démontre que les résultats peuvent varier de manière significative lorsque les manipulations ne sont pas conçues pour fonctionner dans l’intervalle linéaire de la courbe dose-réponse du CO2. Le Chapitre 4 comprend deux études complémentaires visant à déterminer le niveau de reproductibilité qui peut être obtenu en utilisant des méthodes plus récentes pour la mesure de la RVC. La première étude a abouti à la mise au point technique d’un appareil qui permet des manipulations respiratoires du CO2 de manière simple, sécuritaire et robuste. La méthode respiratoire améliorée a été utilisée dans la seconde étude – de neuro-imagerie – où la sensibilité et la reproductibilité de la RVC, mesurée par pCASL, ont été examinées. La technique d’imagerie pCASL a pu détecter des réponses de perfusion induites par la variation du CO2 dans environ 90% du cortex cérébral humain et la reproductibilité de ces mesures était comparable à celle d’autres mesures hémodynamiques déjà adoptées dans la pratique clinique. Enfin, dans le Chapitre 5, je présente un modèle mathématique qui décrit la RVC en termes de changements du PaCO2 liés à l’osmolarité du sang. Les réponses prédites par ce modèle correspondent étroitement aux changements hémodynamiques mesurés avec pCASL ; suggérant une contribution supplémentaire à la réactivité du système vasculaire cérébral en lien avec le CO2.
Resumo:
Our goal in this paper is to assess reliability and validity of egocentered network data using multilevel analysis (Muthen, 1989, Hox, 1993) under the multitrait-multimethod approach. The confirmatory factor analysis model for multitrait-multimethod data (Werts & Linn, 1970; Andrews, 1984) is used for our analyses. In this study we reanalyse a part of data of another study (Kogovšek et al., 2002) done on a representative sample of the inhabitants of Ljubljana. The traits used in our article are the name interpreters. We consider egocentered network data as hierarchical; therefore a multilevel analysis is required. We use Muthen's partial maximum likelihood approach, called pseudobalanced solution (Muthen, 1989, 1990, 1994) which produces estimations close to maximum likelihood for large ego sample sizes (Hox & Mass, 2001). Several analyses will be done in order to compare this multilevel analysis to classic methods of analysis such as the ones made in Kogovšek et al. (2002), who analysed the data only at group (ego) level considering averages of all alters within the ego. We show that some of the results obtained by classic methods are biased and that multilevel analysis provides more detailed information that much enriches the interpretation of reliability and validity of hierarchical data. Within and between-ego reliabilities and validities and other related quality measures are defined, computed and interpreted
Resumo:
The scientific community has been suffering from peer review for decades. This process (also called refereeing) subjects an author's scientific work or ideas to the scrutiny of one or more experts in the field. Publishers use it to select and screen manuscript submissions, and funding agencies use it to award research funds. The goal is to get authors to meet their discipline's standards and thus achieve scientific objectivity. Publications and awards that haven't undergone peer review are often regarded with suspicion by scholars and professionals in many fields. However, peer review, although universally used, has many drawbacks. We propose replacing peer review with an auction-based approach: the better the submitted paper, the more scientific currency the author likely bid to have it published. If the bid correctly reflects the paper's quality, the author is rewarded in this new scientific currency; otherwise, the author loses this currency. We argue that citations are an appropriate currency for all scientists. We believe that citation auctions encourage scientists to better control their submissions' quality. It also inspire them to prepare more exciting talks for accepted papers and to invite discussion of their results at congresses and conferences and among their colleagues. In the long run, citation auctions could have the power to greatly improve scientific research
Resumo:
This paper describes the basis of citation auctions as a new approach to selecting scientific papers for publication. Our main idea is to use an auction for selecting papers for publication through - differently from the state of the art - bids that consist of the number of citations that a scientist expects to receive if the paper is published. Hence, a citation auction is the selection process itself, and no reviewers are involved. The benefits of the proposed approach are two-fold. First, the cost of refereeing will be either totally eliminated or significantly reduced, because the process of citation auction does not need prior understanding of the paper's content to judge the quality of its contribution. Additionally, the method will not prejudge the content of the paper, so it will increase the openness of publications to new ideas. Second, scientists will be much more committed to the quality of their papers, paying close attention to distributing and explaining their papers in detail to maximize the number of citations that the paper receives. Sample analyses of the number of citations collected in papers published in years 1999-2004 for one journal, and in years 2003-2005 for a series of conferences (in a totally different discipline), via Google scholar, are provided. Finally, a simple simulation of an auction is given to outline the behaviour of the citation auction approach