993 resultados para predicción electoral


Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de este trabajo es la construcción de un modelo para predecir la insolvencia de las empresas familiares. El hecho de centrarnos en esta tipología de empresas deriva de dos motivos esenciales: Primero, por la importante participación de la empresa familiar en el ámbito de la economía española, así como en la economía mundial (Allouche et al., 2008). España tiene en la actualidad 1,1 millones de empresas familiares, un 85% del total de empresas, las cuales generan siete millones de empleos directos, esto es, un 70% del empleo privado. Este hecho ha provocado que la investigación en el campo de la empresa familiar haya crecido significativamente durante las dos últimas décadas (Gómez-Mejia et al., 2011). Y segundo, porque pensamos que las diferencias y características propias de la empresa familiar deberían tomarse en consideración para la predicción de la insolvencia empresarial. Estas circunstancias han motivado el interés en analizar las causas que propician la insolvencia en las empresas familiares e intentar facilitar herramientas o estrategias a los gestores de las mismas, con vistas a evitarla y asegurar la viabilidad de sus empresas. Además, hasta la fecha no se ha estudiado la predicción de insolvencia en las empresas familiares, donde encontramos un gap que pretendemos cubrir con la presente investigación. En consecuencia, la inexistencia de trabajos empíricos con muestras específicas de empresas familiares, tanto españolas como internacionales, hace especialmente interesante que analicemos las causas que propician su posible insolvencia. Por ello, y con objeto de contar con un mayor margen para realizar estrategias que eviten la insolvencia de este tipo de empresas, pretendemos obtener modelos que tengan como objeto predecirla 1, 2 y 3 años antes de que ésta se produzca, comparándose las similitudes y diferencias de dichos modelos a medida que nos alejamos del momento de la insolvencia. Con objeto de resolver esta cuestión de investigación hemos dispuesto de seis muestras elaboradas a partir de una base de datos creada expresamente para el presente estudio, y que incluirá información económico-financiera de empresas familiares y no familiares, tanto solventes como insolventes. Estas muestras contienen un número suficiente de empresas para construir fiables modelos de predicción y conocer las variables predictivas propias de cada una de ellas. Así mismo, y con objeto de dotar de robustez a los modelos, se ha considerado un período total de análisis de ocho años, comprendidos entre el ejercicio 2005 y el 2012, periodo que abarcaría varios ciclos económicos y, en consecuencia, evita el riesgo de obtener modelos sólo válidos para épocas de crecimiento o, en su caso, de decrecimiento económico. En el análisis empírico desarrollado utilizaremos dos métodos diferentes para predecir la insolvencia: técnicas de regresión logística (LOGIT) y técnicas computacionales de redes neuronales (NN). Si bien los modelos LOGIT han tenido y siguen manteniendo una especial relevancia en los estudios realizados en esta materia en los últimos treinta y cinco años, los modelos NN se corresponden con metodologías más avanzadas, que han mostrado tener un importante potencial en el ámbito de la predicción. La principal ventaja de los modelos LOGIT reside, no sólo en la capacidad de predecir previamente si una empresa se espera resulte solvente e insolvente, sino en facilitar información respecto a cuáles son las variables que resultan significativamente explicativas de la insolvencia, y en consecuencia, permiten deducir estrategias adecuadas en la gestión de la empresa con objeto de asegurar la solvencia de la misma. Por su parte, los modelos NN presentan un gran potencial de clasificación, superando en la mayoría de los casos al LOGIT, si bien su utilidad explicativa está menos contrastada. Nuestro estudio contribuye a la literatura existente sobre predicción de insolvencia de varias formas. En primer lugar, construyendo modelos específicos para empresas familiares y no familiares, lo que puede mejorar la eficiencia en la predicción del fracaso empresarial y evitar el concurso de acreedores, así como las consecuencias negativas de la insolvencia empresarial para la economía en general, dada la importancia de la empresa familiar en el mundo. En segundo lugar, nuestras conclusiones sugieren que la relación entre la evolución de ciertas variables financieras y la insolvencia empresarial toma connotaciones específicas en el caso de las empresas familiares. Aunque los modelos de predicción de insolvencia confirman la importancia de algunas variables financieras comunes para ambos tipos de empresas (eficiencia y dimensión empresarial), también identifican factores específicos y únicos. Así, la rentabilidad es el factor diferenciador para las empresas familiares como lo es el apalancamiento para las empresas no familiares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper proposes that Brazil could improve the political accountability by breaking up many of the statewide districts it uses to elect its deputies into smaller districts, each electing fewer deputies. The central argument is that districts that elect low-to-moderate numbers of legislators make it possible to optimize the well-known trade-off between inclusive representation and accountable government.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

One of the few stylized facts in international relations is that democracies, unlike autoc- racies, very rarely fight each other. We examine the sustainability of international peace between democracies and autocracies, where the crucial difference between these two po- litical regimes is whether or not policymakers are subject to periodic elections. We show that the fear of losing office can deter democratic leaders from engaging in military con- flicts. Crucially, this discipline effect can only be at work if incumbent leaders can be re-elected, implying that democracies in which the executives are subject to term limits should be more conflict prone. To assess the validity of our predictions, we construct a large dataset on countries with executive term limits. Our analysis of inter-state conflicts for the 1816-2001 period suggests that electoral incentives are indeed behind the democratic peace phenomenon: while democratic dyads are in general less likely to be involved in conflicts than any other dyads, this result does not hold for democracies in which the executive faces binding term limits; moreover, the dispute patterns of democracies with term limits depend on whether the executive is in the last or penultimate mandate.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La leyenda de la creación asignó a este planeta un puesto especial en el centro del universo y a la especie humana un puesto especial en el esquema de la vida. La astronomla destruyó la visión que se tenia del universo flsico pero la biologla no ha podido disminuIr aún la autoestima de la especie humana La fe en la condición de ser únicos no puede atribuirse a la tenacidad de creencias religiosas porque es compartida por humanistas, agnósticos y ateos. Parece que esta convicción es inherente a la misma pregunta que los hombres se hacen acerca de ellos mismos. Cuando el hombre se pregunta "¿Qué es el hombre?", la pregunta misma sugiere un comentario: El hombre es la úni· ca criatura que en el universo pregunta qué es él. La misma habilidad de hacerse esa pregunta qué coloca a los hombres lejos de otras criaturas a los propios ojos del hombre.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la actualidad, existen un gran número de investigaciones que usan técnicas de aprendizaje automático basadas en árboles de decisión. Como evolución de dichos trabajos, se han desarrollado métodos que usan Multiclasificadores (Random forest, Boosting, Bagging) que resuelven los mismos problemas abordados con árboles de decisión simples, aumentando el porcentaje de acierto. El ámbito de los problemas resueltos tradicionalmente por dichas técnicas es muy variado aunque destaca la bio-informática. En cualquier caso, la clasificación siempre puede ser consultada a un experto considerándose su respuesta como correcta. Existen problemas donde un experto en la materia no siempre acierta. Un ejemplo, pueden ser las quinielas (1X2). Donde podemos observar que un conocimiento del dominio del problema aumenta el porcentaje de aciertos, sin embargo, predecir un resultado erróneo es muy posible. El motivo es que el número de factores que influyen en un resultado es tan grande que, en muchas ocasiones, convierten la predicción en un acto de azar. En este trabajo pretendemos encontrar un multiclasificador basado en los clasificadores simples más estudiados como pueden ser el Perceptrón Multicapa o Árboles de Decisión con el porcentaje de aciertos más alto posible. Con tal fin, se van a estudiar e implementar una serie de configuraciones de clasificadores propios junto a multiclasificadores desarrollados por terceros. Otra línea de estudio son los propios datos, es decir, el conjunto de entrenamiento. Mediante un estudio del dominio del problema añadiremos nuevos atributos que enriquecen la información que disponemos de cada resultado intentando imitar el conocimiento en el que se basa un experto. Los desarrollos descritos se han realizado en R. Además, se ha realizado una aplicación que permite entrenar un multiclasificador (bien de los propios o bien de los desarrollados por terceros) y como resultado obtenemos la matriz de confusión junto al porcentaje de aciertos. En cuanto a resultados, obtenemos porcentajes de aciertos entre el 50% y el 55%. Por encima del azar y próximos a los resultados de los expertos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

During the last two decades there have been but a handful of recorded cases of electoral fraud in Latin America. However, survey research consistently shows that often citizens do not trust the integrity of the electoral process. This dissertation addresses the puzzle by explaining the mismatch between how elections are conducted and how the process is perceived. My theoretical contribution provides a double-folded argument. First, voters’ trust in their community members (“the local experience”) impacts their level of confidence in the electoral process. Since voters often find their peers working at polling stations, negative opinions about them translate into negative opinions about the election. Second, perceptions of unfairness of the system (“the global effect”) negatively impact the way people perceive the transparency of the electoral process. When the political system fails to account for social injustice, citizens lose faith in the mechanism designed to elect representatives -and ultimately a set of policies. The fact that certain groups are systematically disregarded by the system triggers the notion that the electoral process is flawed. This is motivated by either egotropic or sociotropic considerations. To test these hypotheses, I employ a survey conducted in Costa Rica, El Salvador, Honduras, and Guatemala during May/June 2014, which includes a population-based experiment. I show that Voters who trust their peers consistently have higher confidence in the electoral process. Whereas respondents who were primed about social unfairness (treatment) expressed less confidence in the quality of the election. Finally, I find that the local experience is predominant over the global effect. The treatment has a statistically significant effect only for respondents who trust their community. Attribution of responsibility for voters who are skeptics of their peers is clear and simple, leaving no room for a more diffuse mechanism, the unfairness of the political system. Finally, now I extend analysis to the Latin America region. Using data from LAPOP that comprises four waves of surveys in 22 countries, I confirm the influence of the “local experience” and the “global effect” as determinants of the level of confidence in the electoral process.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este artículo se presenta como un aporte a los estudios sobre el sistema de partidos peruano a escala subnacional. Se propone y discuten los hallazgos de una medida -Indicador de Enraizamiento Agregado (IEA) - para el análisis del sistema de partidos en los ámbitos locales y regionales. Para ello se explora el enraizamiento de las organizaciones político-electorales ganadoras de municipios provinciales y gobiernos regionales en el período 1963-2014. Hacia la última elección del período (2014) la evidencia indica que el enraizamiento a escala provincial y regional es débil pero con signos de una recuperación progresiva. Asimismo, a través del IEA se evalúa parcialmente el nivel de institucionalización del sistema de partidos subnacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objetivo: Validar los criterios de CENTOR modificados (CENTOR-m) y los tests rápidos de detección del antígeno de Estreptococo del Grupo A (SGA) en la faringitis aguda. Diseño: Estudio de validación de pruebas diagnósticas. Emplazamiento y participantes: Ciento un pacientes elegibles, que consultaron al departamento de urgencias de un hospital de tercer nivel con cuadro clínico compatible con faringitis aguda. Mediciones Principales: Se obtuvieron muestras de hisopados faríngeos para la realización del test rápido antigénico para SGA (FAMR) y para cultivo, respectivamente. Se calculó en cada caso los criterios de CENTOR-m. Resultados: La edad media de los pacientes incluidos en el estudio fue de 22,6 años (DE:13,8). El 48,5 % eran varones. El SGA fue el patógeno aislado en el 20,79 % de los casos. El CENTOR-m presentó una sensibilidad del 83,3 % (50,9 %-97,1 %), especificidad del 45,5 % (30,7 %-61,0 %) valor predictivo positivo (VPP) del 29,4 % (15,7 %-47,7 %) y valor predictivo negativo (VPN) del 90,9 % (69,4 %-98,4 %). El FAMR presento una sensibilidad del 81,5 % (61,3 %-93,0 %) especificidad del 98,6 % (91,4 %-99,9 %), VPP del 95,7 % (76,0 %-99,8 %) y VPN del 93,3 % (84,5 %-97,5 %). El 49,5 % de los pacientes recibieron antibióticos basándose en el juicio médico, lo que resultó en una proporción de sobreindicación de antimicrobianos del 62 %. Conclusiones: Los criterios de CENTOR-m demostraron adecuado valor pronóstico negativo y el FAMR buena sensibilidad, especificidad y valor pronóstico positivo para faringitis por SGA. La utilización de ambos métodos en la atención urgente podría optimizar el manejo de la patología y la adecuación antibiótica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los índices mundialmente aplicados para la predicción de diámetros mesiodistales de caninos y premolares son los de Moyers y Tanaka – Johnston, actualmente, investigadores brasileros desarrollaron un nuevo método que emplea dos ecuaciones, una para hombres y otra para mujeres, e integra el tamaño del primer molar permanente mandibular. El presente estudio buscó determinar que método es más preciso para calcularlos. Fueron analizados 94 modelos de estudio, 41 de hombres y 53 de mujeres, en edades comprendidas entre los 12 y 31 años, la muestra fue elegida a conveniencia, se midieron todos los dientes desde el primer molar mandibular izquierdo permanente al primer molar mandibular derecho permanente con un calibrador Mitutuyo digital y se obtuvieron los valores de los dientes anteriormente referenciados. Se aplicó el test de Pearson y el test t de Student.. Los tres métodos analizados tuvieron una correlación positiva estadísticamente significativa con respecto al valor real (p=0,000), el sistema de Melgaҫo fue el que presentó el mayor grado de correlación (R=0,735). Los 3 índices muestran diferencias estadísticamente significativas al compararlos con el valor real (p=0,000),. No existió diferencia estadísticamente significativa entre el lado derecho e izquierdo (p= 0,6). Con referencia al sexo, no se encontró diferencia estadísticamente significativa en el lado derecho (p=0,15), mientras que en el lado izquierdo si se observó tal diferencia (p=0,04). Se concluyó que el Método de Melgaҫo es el más apegado a la realidad en nuestra población

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Electoral researchers are so much accustomed to analyzing the choice of the single most preferred party as the left-hand side variable of their models of electoral behavior that they often ignore revealed preference data. Drawing on random utility theory, their models predict electoral behavior at the extensive margin of choice. Since the seminal work of Luce and others on individual choice behavior, however, many social science disciplines (consumer research, labor market research, travel demand, etc.) have extended their inventory of observed preference data with, for instance, multiple paired comparisons, complete or incomplete rankings, and multiple ratings. Eliciting (voter) preferences using these procedures and applying appropriate choice models is known to considerably increase the efficiency of estimates of causal factors in models of (electoral) behavior. In this paper, we demonstrate the efficiency gain when adding additional preference information to first preferences, up to full ranking data. We do so for multi-party systems of different sizes. We use simulation studies as well as empirical data from the 1972 German election study. Comparing the practical considerations for using ranking and single preference data results in suggestions for choice of measurement instruments in different multi-candidate and multi-party settings.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de esta tesis ha sido cubrir el hueco existente en la literatura en relación con la cuestión de la supuesta superioridad de los modelos de predicción de insolvencia empresarial "descentrados" (construidos sobre la base de una muestra de empresas pertenecientes a diversos sectores económicos) frente a los modelos de predicción de la insolvencia "centrados" (construidos con una muestra de empresas pertenecientes a un solo sector de actividad). Un análisis de la literatura previa sobre predicción de insolvencia empresarial permitió constatar la existencia de un patrón definido por lo que se refería a la construcción de modelos descentrados frente a modelos centrados, siendo los primeros mucho más numerosos que los segundos. Sin embargo, no fue posible identificar ninguna tendencia, ni a favor ni en contra, en el uso de un tipo de modelo u otro, por lo que no resultó posible inducir una conclusión definitiva sobre la superioridad de un tipo de modelo frente a otro a la hora de pronosticar la insolvencia empresarial. Para resolver esta cuestión, se tomó una base de datos formada por empresas, tanto solventes como insolventes, pertenecientes a cinco sectores de actividad diferenciados: agricultura, industria, construcción, comercio y servicios, y sector de hostelería, a partir de los datos proporcionados por SABI (Sistema de Análisis de Balances Ibéricos). Los datos utilizados para este estudio se correspondieron al periodo comprendido entre el año 2010 y el año 2012. Asimismo, se construyeron diversos modelos sectoriales o centrados (para cada uno de los sectores económicos considerados) y modelos globales o descentrados para un año y dos años antes de la entrada en quiebra. La metodología aplicada para la obtención de los modelos fue la construcción de modelos de regresión logística, y para la estimación de dichos modelos se emplearon 34 variables financieras, así como variables dummys representativas de los sectores de actividad bajo consideración. Con esta metodología se obtuvo un poder de clasificación que osciló entre un 69,6% (Sector Agricultura, dos años de la entrada en quiebra) y un 91,2% (Sector Hostelería, un año de la entrada en quiebra). Los resultados obtenidos permitieron verificar total o parcialmente las tres hipótesis planteadas: En primer lugar, que los modelos globales o descentrados y los centrados o sectoriales eran modelos distintos. En segundo lugar, que la inclusión de variables cualitativas sectoriales mejoraba los modelos globales estimados. Y, en tercer lugar, se verificó, si bien parcialmente, que los modelos globales o descentrados eran superiores a los centrados o sectoriales a la hora de predecir la insolvencia, con la única excepción del modelo del sector industrial dos años antes de la quiebra. Para el resto de modelos, los modelos globales estimados, uno y dos años antes de la quiebra, fueron capaces de obtener mejores resultados de predicción en las muestras sectoriales que los propios modelos centrados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este reporte presentamos una epistemología de la periodicidad a través de la actividad humana, la cual toma en cuenta las prácticas sociales en las que se involucra un estudiante para construir dicha noción. En particular, presentamos el diseño de una secuencia que pretende mostrar cómo la predicción es una actividad humana que hace patente el tipo de regularidad presente en la gráfica de un movimiento y provoca una reconstrucción de significados. Al confrontar los diversos significados de regularidad, el alumno podrá estar en posición de construir el concepto de periodicidad. Este elemento se une al desplazamiento lineal y a la dualidad instante-periodo para ir conformando una socioepistemología de la periodicidad.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A partir de la hipótesis de que una relación simbiótica entre las nociones de predicción y de simulación sea el eje del cálculo integral escolar, reportamos, aquí, algunos resultados de nuestro trabajo con estudiantes universitarios con los que hemos explorado aspecto de la simulación en las ecuaciones diferenciales lineales de primer orden. Favoreciendo la idea de simulación, se trabajó con la ecuación diferencial, dónde se variaron uno a uno los parámetros a, b y c. Encontramos un argumento gráfico que atiende las tendencias de las gráficas, ya sea en una suma de funciones, en la variación de los parámetros o en la forma de la gráfica de la solución de las ecuaciones diferenciales, favorecidos por los dispositivos tecnológicos permiten concebir a una función globalmente.