871 resultados para Panel data analysis
Resumo:
In a seminal paper, Aitchison and Lauder (1985) introduced classical kernel density estimation techniques in the context of compositional data analysis. Indeed, they gave two options for the choice of the kernel to be used in the kernel estimator. One of these kernels is based on the use the alr transformation on the simplex SD jointly with the normal distribution on RD-1. However, these authors themselves recognized that this method has some deficiencies. A method for overcoming these dificulties based on recent developments for compositional data analysis and multivariate kernel estimation theory, combining the ilr transformation with the use of the normal density with a full bandwidth matrix, was recently proposed in Martín-Fernández, Chacón and Mateu- Figueras (2006). Here we present an extensive simulation study that compares both methods in practice, thus exploring the finite-sample behaviour of both estimators
Resumo:
The aim of this talk is to convince the reader that there are a lot of interesting statistical problems in presentday life science data analysis which seem ultimately connected with compositional statistics. Key words: SAGE, cDNA microarrays, (1D-)NMR, virus quasispecies
Resumo:
Pounamu (NZ jade), or nephrite, is a protected mineral in its natural form following the transfer of ownership back to Ngai Tahu under the Ngai Tahu (Pounamu Vesting) Act 1997. Any theft of nephrite is prosecutable under the Crimes Act 1961. Scientific evidence is essential in cases where origin is disputed. A robust method for discrimination of this material through the use of elemental analysis and compositional data analysis is required. Initial studies have characterised the variability within a given nephrite source. This has included investigation of both in situ outcrops and alluvial material. Methods for the discrimination of two geographically close nephrite sources are being developed. Key Words: forensic, jade, nephrite, laser ablation, inductively coupled plasma mass spectrometry, multivariate analysis, elemental analysis, compositional data analysis
Resumo:
Planners in public and private institutions would like coherent forecasts of the components of age-specic mortality, such as causes of death. This has been di cult to achieve because the relative values of the forecast components often fail to behave in a way that is coherent with historical experience. In addition, when the group forecasts are combined the result is often incompatible with an all-groups forecast. It has been shown that cause-specic mortality forecasts are pessimistic when compared with all-cause forecasts (Wilmoth, 1995). This paper abandons the conventional approach of using log mortality rates and forecasts the density of deaths in the life table. Since these values obey a unit sum constraint for both conventional single-decrement life tables (only one absorbing state) and multiple-decrement tables (more than one absorbing state), they are intrinsically relative rather than absolute values across decrements as well as ages. Using the methods of Compositional Data Analysis pioneered by Aitchison (1986), death densities are transformed into the real space so that the full range of multivariate statistics can be applied, then back-transformed to positive values so that the unit sum constraint is honoured. The structure of the best-known, single-decrement mortality-rate forecasting model, devised by Lee and Carter (1992), is expressed in compositional form and the results from the two models are compared. The compositional model is extended to a multiple-decrement form and used to forecast mortality by cause of death for Japan
Resumo:
The quantitative estimation of Sea Surface Temperatures from fossils assemblages is a fundamental issue in palaeoclimatic and paleooceanographic investigations. The Modern Analogue Technique, a widely adopted method based on direct comparison of fossil assemblages with modern coretop samples, was revised with the aim of conforming it to compositional data analysis. The new CODAMAT method was developed by adopting the Aitchison metric as distance measure. Modern coretop datasets are characterised by a large amount of zeros. The zero replacement was carried out by adopting a Bayesian approach to the zero replacement, based on a posterior estimation of the parameter of the multinomial distribution. The number of modern analogues from which reconstructing the SST was determined by means of a multiple approach by considering the Proxies correlation matrix, Standardized Residual Sum of Squares and Mean Squared Distance. This new CODAMAT method was applied to the planktonic foraminiferal assemblages of a core recovered in the Tyrrhenian Sea. Kew words: Modern analogues, Aitchison distance, Proxies correlation matrix, Standardized Residual Sum of Squares
Resumo:
Functional Data Analysis (FDA) deals with samples where a whole function is observed for each individual. A particular case of FDA is when the observed functions are density functions, that are also an example of infinite dimensional compositional data. In this work we compare several methods for dimensionality reduction for this particular type of data: functional principal components analysis (PCA) with or without a previous data transformation and multidimensional scaling (MDS) for diferent inter-densities distances, one of them taking into account the compositional nature of density functions. The difeerent methods are applied to both artificial and real data (households income distributions)
Resumo:
In this paper we examine the problem of compositional data from a different starting point. Chemical compositional data, as used in provenance studies on archaeological materials, will be approached from the measurement theory. The results will show, in a very intuitive way that chemical data can only be treated by using the approach developed for compositional data. It will be shown that compositional data analysis is a particular case in projective geometry, when the projective coordinates are in the positive orthant, and they have the properties of logarithmic interval metrics. Moreover, it will be shown that this approach can be extended to a very large number of applications, including shape analysis. This will be exemplified with a case study in architecture of Early Christian churches dated back to the 5th-7th centuries AD
Resumo:
Este documento examina la hipótesis de sostenibilidad fiscal para 8 países de Latinoamérica. A partir de un modelo de datos panel, se determina si los ingresos y gasto primario de los Gobiernos entre 1960 - 2009 están cointegrados, es decir, si son sostenibles a largo plazo. Para esto, se utilizaron pruebas de raíz unitaria y cointegración de segunda generación con datos panel macroeconómicos, lo que permite tener en cuenta la dependencia cruzada entre los países, así como los posibles quiebres estructurales en la relación que estén determinados de manera endógena; en particular, se usan la prueba de estacionariedad de Hadri y Rao (2008) y la prueba de cointegración de Westerlund (2006). Como resultado del análisis se encontró evidencia empírica de que en el período bajo estudio el déficit primario en los 8 países latinoamericanos es sostenible pero en sentido débil.
Resumo:
notes for class discussion and exercise
Resumo:
Slides and Handouts for class introducing some of the concepts associated with the analysis of qualitative data
Resumo:
El terrorismo en la actualidad es considerado como uno de los conceptos más controversiales en los campos social, académico y político. El término se empieza a utilizar después de la Revolución Francesa, pero recientemente, a raíz de los atentados del 11 de septiembre de 2001, ha tomado suma relevancia y ha motivado numerosas investigaciones para tratar de entender qué es terrorismo. Aunque a la fecha existen varias revisiones sistemáticas, este trabajo tiene como propósito revisar, agrupar y concretar diferentes teorías y conceptos formulados por los autores que han trabajado sobre el concepto de “terrorismo” con el fin de entender las implicaciones de su utilización en el discurso, y cómo esto afecta la dinámica interna de las sociedades en relación con la violencia, las creencias, los estereotipos entre otros elementos. Para lograrlo, se revisaron 56 artículos, publicados entre los años 1985 y 2013; 10 fuentes secundarias entre noticias y artículos de periódicos correspondientes a los años 1995-2013 y 10 estudios estadísticos cuyos resultados nos aportan a la comprensión del tema en cuestión. La búsqueda se limitó al desarrollo histórico del terrorismo, sus diferentes dimensiones y el concepto social de la realidad de terrorismo. Los hallazgos demuestran que la palabra “terrorismo” constituye un concepto que como tal es un vehículo lingüístico que puede ser utilizado con fines, estratégicos movilizando al público conforme a través del discurso e intereses políticos, destacando la necesidad de estudiar las implicaciones psicológicas y sociales de su uso.
Resumo:
La crisis que se desató en el mercado hipotecario en Estados Unidos en 2008 y que logró propagarse a lo largo de todo sistema financiero, dejó en evidencia el nivel de interconexión que actualmente existe entre las entidades del sector y sus relaciones con el sector productivo, dejando en evidencia la necesidad de identificar y caracterizar el riesgo sistémico inherente al sistema, para que de esta forma las entidades reguladoras busquen una estabilidad tanto individual, como del sistema en general. El presente documento muestra, a través de un modelo que combina el poder informativo de las redes y su adecuación a un modelo espacial auto regresivo (tipo panel), la importancia de incorporar al enfoque micro-prudencial (propuesto en Basilea II), una variable que capture el efecto de estar conectado con otras entidades, realizando así un análisis macro-prudencial (propuesto en Basilea III).
Resumo:
Esta disertación busca estudiar los mecanismos de transmisión que vinculan el comportamiento de agentes y firmas con las asimetrías presentes en los ciclos económicos. Para lograr esto, se construyeron tres modelos DSGE. El en primer capítulo, el supuesto de función cuadrática simétrica de ajuste de la inversión fue removido, y el modelo canónico RBC fue reformulado suponiendo que des-invertir es más costoso que invertir una unidad de capital físico. En el segundo capítulo, la contribución más importante de esta disertación es presentada: la construcción de una función de utilidad general que anida aversión a la pérdida, aversión al riesgo y formación de hábitos, por medio de una función de transición suave. La razón para hacerlo así es el hecho de que los individuos son aversos a la pérdidad en recesiones, y son aversos al riesgo en auges. En el tercer capítulo, las asimetrías en los ciclos económicos son analizadas junto con ajuste asimétrico en precios y salarios en un contexto neokeynesiano, con el fin de encontrar una explicación teórica de la bien documentada asimetría presente en la Curva de Phillips.
Resumo:
Colombia en su legislación normatiza el sector de la minería de carbón, sin embargo se considera que las estrategias no han sido suficientes para la identificación, prevención y control de la accidentalidad y enfermedad laboral. Durante el año 2013 el índice de fatalidad fue de 1,59. Estadísticas del año 2004 evidencian que las neumoconiosis fueron las mayores causas de invalidez de origen profesional. Objetivo: Categorizar actividades de intervención en promoción y prevención de accidentalidad y enfermedad laboral en trabajadores de la minería de carbón. Metodología: Se realizó una revisión de literatura sobre minería de carbón y salud la cual fue obtenida de las bases de datos PUBMED, Sciendirect, VHL, SINAB por literatura publicada sin límites de año, en idioma inglés, español o portugués. Para la búsqueda se utilizaron términos en lenguaje controlado (términos MESH), revisión por pares de títulos y resúmenes. Las publicaciones fueron seleccionadas para revisión de texto completo bajo criterios de inclusión y exclusión. Los códigos contemplados para esta revisión fueron: a) país donde la intervención se llevó a cabo, b) salud ocupacional, c) prevención de accidentalidad, d) programas de promoción, e) tecnologías, f) resultados obtenidos. Resultados: Del total de 2500 artículos seleccionados por los autores principales se realizó la revisión de los primeros 300 artículos, 32 hacen referencia al tema de salud ocupacional y minería de carbón, 10 contienen intervenciones consideradas de relevancia para esta revisión bibliográfica. Se presentan intervenciones estadísticamente significativas (p<0.05) y que han demostrado ser de impacto positivo en la minería de carbón en promoción y prevención de accidentalidad y enfermedad ocupacional. Conclusiones: Se identificaron las siguientes cuatro tipos de intervención: 1) las de carácter educativo que hacen referencia a las capacitaciones participativas, el entrenamiento por medio de “degraded image”, la realización de gestión de autocontrol y retroalimentación para el uso de elementos de protección personal (EPP), la aplicación del Modelo de Proceso Paralelo Extendido; 2) intervenciones preventivas como la medición de alcoholimetría antes del turno, la presencia de personal de enfermería en minas de carbón y el reconocimiento de los predictores de la enfermedad para optimizar la prevención primaria; 3)intervenciones de vigilancia como la promovida en la metodología Estadísticas Europeas de Accidentes de Trabajo (EEAT) para la investigación de los accidentes de trabajo, la aplicación de las recomendaciones de la Organización Mundial de la Salud (OMS) para la detección de la neumoconiosis y 4) De carácter tecnológico consistente en la intervención de tareas a partir de los resultados de la aplicación del software desarrollado por el Instituto Nacional para la Seguridad y Salud Ocupacional (NIOSH). Estas intervenciones han demostrado ser eficaces en la promoción y prevención de accidentalidad y enfermedad ocupacional por lo cual se recomienda su aplicación en Colombia posterior al análisis de costo-efectividad.
Resumo:
Este estudio analiza el efecto del uso de Internet sobre el ingreso laboral, eliminado el problema de endogeneidad que existe por motivos de selección. También se analizan los efectos seg un el lugar de acceso y las actividades realizadas en Internet. Para esto se utiliza Propensity Score Matching, tomando información para Colombia entre el año 2009 a 2011. Los resultados muestran que existe un efecto positivo, significativo y heterogéneo entre trabajadores asalariados y cuenta propia, siendo los últimos los más beneficiados. Con respecto al lugar de uso se encuentra un impacto positivo del uso del Internet en el trabajo y/o en el hogar, con una mayor magnitud en el primer sitio de acceso. Para el tema del manejo del Internet, no se encuentra efecto cuando se utiliza en actividades de entretenimiento, pero si cuando se usa en tareas educativas diariamente. Esto siguiere que usar este servicio aumenta la productividad y el capital humano, lo que se transforma en un incremento en los ingresos. Por tanto, se encuentra que el lugar de uso es una señal informativa para el mercado laboral, mientras que el impacto del manejo de esta herramienta depende de la frecuencia con que se realicen las actividades.