795 resultados para mathematical economics
Resumo:
The regulation of speed limits in the US had been centralized at the federal level since 1974, until decisions were devolved to the states in 1995. However, the centralization debate has reemerged in recent years. Here, we conduct the first econometric analysis of the determinants of speed limit laws. By using economic, geographic and political variables, our results suggest that geography -which affects private mobility needs and preferences- is the main factor influencing speed limit laws. We also highlight the role played by political ideology, with Republican constituencies being associated with higher speed limits. Furthermore, we identify the presence of regional and time dependence effects. By contrast, poor road safety outcomes do not impede the enactment of high speed limits. Overall, we present the first evidence of the role played by geographical, ideological and regional characteristics, which provide us with a better understanding of the formulation of speed limit policies.
Resumo:
Ever since the inception of economics over two hundred years ago, the tools at the discipline's disposal have grown more and more more sophisticated. This book provides a historical introduction to the methodology of economics through the eyes of economists. The story begins with John Stuart Mill's seminal essay from 1836 on the definition and method of political economy, which is then followed by an examination of how the actual practices of economists changed over time to such an extent that they not only altered their methods of enquiry, but also their self-perception as economists. Beginning as intellectuals and journalists operating to a large extent in the public sphere, they then transformed into experts who developed their tools of research increasingly behind the scenes. No longer did they try to influence policy agendas through public discourse; rather they targeted policymakers directly and with instruments that showed them as independent and objective policy advisors, the tools of the trade changing all the while. In order to shed light on this evolution of economic methodology, this book takes carefully selected snapshots from the discipline's history. It tracks the process of development through the nineteenth and twentieth centuries, analysing the growth of empirical and mathematical modelling. It also looks at the emergence of the experiment in economics, in addition to the similarities and differences between modelling and experimentation. This book will be relevant reading for students and academics in the fields of economic methodology, history of economics, and history and philosophy of the social sciences.
Resumo:
Two themes are generative for revealing and understanding the history of observation in economics. First, we argue for the importance of noting that observation is an activity as well as a result, and second that observation is no more identical with quantification than observing is with measuring. These two themes enable us to discuss different historical dimensions of the ways in which economists have observed their economies and so enlarge our understanding of their observational practices. These problematics especially help in delineating the intricate, multilayered, and active interactions between the observer and the observed that take place in all social science observation, and from which our pictures of the economic world emerge.
Resumo:
The introduction of time-series graphs into British economics in the 19th century depended on the « timing » of history. This involved reconceptualizing history into events which were both comparable and measurable and standardized by time unit. Yet classical economists in Britain in the early 19th century viewed history as a set of heterogenous and complex events and statistical tables as giving unrelated facts. Both these attitudes had to be broken down before time-series graphs could be brought into use for revealing regularities in economic events by the century's end.
Resumo:
La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.
Resumo:
Les conflits civils sont des événements dramatiques qui poussent les individus hors de leurs pays d'origine. Mais si l'émigration était elle-même une force pacificatrice? Dans les deux premiers chapitres, je me suis intéressée à l'impact de l'émigration sur l'incidence des conflits civils dans les pays d'origine. Tout d'abord, je construis un modèle théorique d'équilibre général, dans lequel le niveau de conflit d'équilibre est déterminé par la ratio de combattants dans l'économie. Dans ce modèle, l'émigration décourage les conflits en réduisant les gains d'une rébellion, tout en augmentant le coût d'opportunité des combats. La principale prédiction du modèle est que le conflit diminue avec le niveau du salaire étranger net des coûts de migration. Dans le deuxième chapitre, je teste cette prédiction empiriquement. En utilisant une variable instrumentale, je démontre que l'émigration vers les pays développés diminue l'incidence de guerres civiles dans les pays d'origine. Ces résultats prouvent qu'en ouvrant leurs frontières, les pays d'accueil pourraient contribuer à sauver des vies, aussi bien celles des migrants que celles des habitants restés dans leur pays. De plus, les conflits civils tendent à détruire des sociétés en traumatisant les personnes touchées, augmentant ainsi le risque des conflits futurs. Afin de mieux comprendre ce cercle vicieux et de pouvoir y remédier, le troisième chapitre détermine si les enfants ayant vécu la guerre ont une tendance à être plus violent que des co-nationaux nés après la guerre. L'analyse se concentre sur les demandeurs d'asile en Suisse : Cette population est intéressante puisque l'allocation des demandeurs d'asile entre cantons est aléatoire, ce qui prévient le choix d'un canton avec un taux de criminalité plus élevé. Les résultats démontrent un effet de traumatisme causé par la guerre augmentant ainsi le risque de criminalité dans la vie adulte. Cependant, l'analyse de politiques publiques montre que la mise en place de politiques judicieuses permet d'éviter les conséquences de l'exposition à la guerre. En particulier, en offrant aux nouveaux arrivants l'accès au marché de travail ainsi que des perspectives à long-terme, la Suisse peut éliminer complètement l'effet du traumatisme sur la criminalité.
Resumo:
Peer-reviewed
Resumo:
En el ámbito de la Economía de la Empresa tiene mucha importancia el estudio de los gastos de producción E(Q) que se originarán en el proceso y que generalmente vendrán expresados matemáticamente por una dependencia lineal o cuadrática de las unidades Q que se proponen fabricar. Supondremos, además, que esta función está afectada por dos restricciones: una es de productividad, Q1 ≤ Q2 ≤ Q3 , y otra de limitación de gastos máximos permitidos, E(Q) ≤ EM . En el presente artículo partiremos de una función cuadrática nítida, en la cual justificaremos el signo de los coeficientes que hemos empleado. Después, para adentrarnos en el campo fuzzy, la generalizaremos con otra de coeficientes borrosos. Naturalmente, la nueva función borrosa ya no se expresará a través de una única curva, sino que estará constituida por un haz infinito de curvas nítidas, cada una de ellas con un determinado grado de posibilidad. Centramos nuestra atención en las curvas que llamamos central, inferior y superior. El núcleo de nuestro análisis consistirá básicamente en reducir paulatinamente los soportes de los coeficientes hasta hallar un cierto valor k del α-corte, de manera que a partir de él todas las curvas del haz borroso tengan sentido económico y cumplan las dos restricciones impuestas. En último lugar, y a través de un caso numérico, comprobaremos las deducciones teóricas que hemos obtenido en el análisis anterior
Resumo:
Marketing has studied the permanence of a client within an enterprise because it is a key element in the study of the value (economic) of the client (CLV). The research that they have developed is based in deterministic or random models, which allowed estimating the permanence of the client, and the CLV. However, when it is not possible to apply these schemes for not having the panel data that this model requires, the period of time of a client with the enterprise is uncertain data. We consider that the value of the current work is to have an alternative way to estimate the period of time with subjective information proper of the theory of uncertainty.
Resumo:
The objective of this study consists, firstly, of quantifying differences between Spanish universities’ output (in terms of publications and citations), and secondly, analysing its determinants. The results obtained show that there are factors which have a positive influence on these indicators, such as having a third-cycle programme, with public financing obtained in competitive selection procedures, having a large number of full-time researchers or involvement in collaborations with international institutions. However, other factors which appear to have the opposite effect were also noted. These include a higher number of students per lecturer or a lower proportion of lecturers with recognised six-year periods.
Resumo:
This paper studies Spanish scientific production in Economics from 1994 to 2004. It focuses on aspects that have received little attention in other bibliometric studies, such as the impact of research and the role of scientific collaborations in the publications produced by Spanish universities. Our results show that national research networks have played a fundamental role in the increase in Spanish scientific production in this discipline.