666 resultados para ANÁLISIS FINANCIERO - SIMULACIÓN POR COMPUTADOR


Relevância:

30.00% 30.00%

Publicador:

Resumo:

En Nicaragua el 95% de la producción de frijol (Phaseolus vulgaris L.) está en manos de pequeños y medianos productores, con una producción de aproximadamente 88 mil kilogramos/hectárea, estos utilizan baja tecnología y carecen de apoyo financiero para desarrollar el cultivo, por lo que su producción se vuelve muy vulnerable y la principal problemática son los bajos rendimientos que repercuten en la rentabilidad de la producción a pequeña escala. La investigación consistió en un estudio de caso que tiene por objetivo analizar el uso de los factores productivos de 4 pequeños productores de frijol de Masaya y 4 productores de Carazo en las épocas postrera 2010-primera 2011.Realizando un análisis comparativo de las variables: eficacia económica, uso del suelo, mano de obra, capital. La metodología para la realización del trabajo se divide en dos fases, la primera, recopilación de información mediante un taller participativo con 47 productores de ambos departamentos, la segunda fase consistió en la selección de ocho productores, cuatro de ambos departamentos para el seguimiento registrando los datos de producción y de la utilización de los factores productivos de las unidades de producción. Los productores que tienen limitantes en la tenencia de la tierra son: Alder Mora, Bernabé Martinez, ambos de Carazo y el productor Roberto Calero de Masaya, quienes alquilan más del 50 por ciento de las tierras utilizadas para la producción. Los productores tienen niveles de uso del suelo similares, por la baja concentración que se presenta entre el área de la linea de equidistribución y la curva de Lorenz con un coeficiente de Gini=0.38807. Predomina la utilización de mano de obra familiar (58.32%). El promedio de los gastos de hombres- dias mas representativos según las actividades realizadas por los productores de Masaya fue el manejo poscosecha (23%) y en Carazo, Chapia (Control Manual de Plantas No Deseables), barrida, quema y recuento de plagas (36%). los productores que tienen menor gasto de trabajo y que obtienen mayor producción global en kilogramos, son los que obtienen mayor productividad del trabajo y los productores con mayor gasto de trabajo los indices de producción global mas bajos, son los que poseen productividad del trabajo negativa, no hacen uso eficiente del recurso laboral. Los productores que obtienen mayor rentabilidad no precisamente tienen mayor cantidad de tierra, ni utilizan mayor capital para la producción, tal es el caso del productor Genaro Moya cuyo capital es menor en relación al resto de productores incluyendo los que no obtuvieron rentabilidad. No solo los tres factores de producción analizados tienen efectos sobre la eficacia económica de la producción, sino, las condiciones climáticas presentadas principalmente en la época de postrera, niveles pluviométricos, uso de tecnología y calidad de los suelos fueron tambien factores determinantes. El sistema de producción es extensivo, identificándolo en la tecnología, la disponibilidad del insumos y las limitantes para la obtención de recursos financieros.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Hasta hace poco, enfermedades como el cáncer o el Alzheimer eran interpretadas solo como mutaciones genéticas, es decir, cambios en la secuencia genética. Sin embargo, son muchos los que últimamente se interesan por la epigenética y por la relación con las enfermedades. La epigenética va más allá que la genética, se basa en los cambios reversibles del ADN y de las proteínas que se unen en él. Esto hace que, sin necesidad de alterar su secuencia, un gen pueda ser expresado o por el contrario quede silenciado. Uno de estos cambios epigenéticos es la metilación del ADN que consiste en una modificación química en el dinucleotido CpG (citosina-fosfato-guanina, es decir, donde una citosina es seguida de una guanina). Existen métodos experimentales para poder detectar la metilación, como por ejemplo, los métodos basados en la modificación del ADN con bisulfito y posterior análisis con arrays de ADN. El objetivo de este proyecto es imitar, mediante la simulación computacional y el estudio de distintas bases de datos, el comportamiento del sistema biológico, a fin de generar datos similares a los reales. Esta simulación de los datos reales permitirá, entre otras cosas, generar escenarios controlados en los que evaluar los métodos de análisis. Adicionalmente, el proceso de diseño permitirá explorar el proceso biológico que da lugar a los datos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[ES]El proyecto consiste en el análisis económico de un parque undimotriz en aquellos emplazamientos de la costa del País Vasco más susceptibles de ser aprovechados para la generación de energía proveniente de las olas. Se seleccionarán los dos emplazamientos que mejor recurso de olas disponen y se estudiará la rentabilidad del parque en dichas localizaciones, analizando aquellos factores que mayor influencia tienen en la rentabilidad, a fin de realizar una comparativa entre estos dos emplazamientos y seleccionar aquel que mayores ventajas presente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A lo largo del siglo XX han sucedido un gran número de crisis financieras, y muchas de las que surgieron en épocas pasadas siguen teniendo repercusión en el contexto económico-financiero actual. En muchos aspectos, la crisis actual no ha sido muy diferente de acontecimientos que hemos visto en los mercados emergentes durante la última década, ya que vemos que se dan circunstancias similares en los comportamientos económicos y financieros que desembocan en las crisis. En este contexto, el objetivo principal de este estudio es identificar las causas comunes a los episodios de crisis más relevantes que han precedido a la crisis financiera actual y compararlos con los factores desencadenantes de ésta. Para ello, la metodología empleada es la analítico-sintética, que consiste en analizar el fenómeno objeto de estudio y sintetizarlo para obtener, finalmente, una serie de conclusiones. Las conclusiones de este trabajo señalan la existencia de dos clasificaciones de crisis en base a la literatura teórica: la primera, que las divide en bancarias, monetarias y financieras; y la segunda, que distingue entre modelos teóricos de Primera, Segunda y Tercera Generación. Todas ellas presentan además unas causas comunes que también han sido explicativas del episodio de crisis que estamos padeciendo actualmente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La estructura microscópica de una gran cantidad de materiales sólidos es cristalina. Es decir, sus moléculas, o grupos de moléculas, están ordenadas de forma regular en un espacio tridimensio- nal que se extiende a lo largo de distancias correspondientes a miles de dimensiones moleculares. Desde el punto de vista académico, los materiales cristalinos (o, simplemente, cristales ) son dis- tribuciones periódicas e infinitas de átomos. Es de esta periodicidad microscópica de la que se vale la Física del Estado Sólido y en particular, la Cristalografía, para simplificar el estudio de los materiales cristalinos. No obstante, ciertos materiales presentan una forma más compleja: están formados por dos o más cristales ( dominios ) de la misma especie que se juntan con una orientación relativa deter- minada. A estos cristales, objeto central del presente estudio, se les da el nombre de twins . Actualmente, los métodos más comunes para el análisis de estructuras cristalinas se basan en fenómenos de difracción causados por la interacción de la materia con un cierto tipo de haz, ya sea de rayos-X, de electrones o de neutrones. El diagrama de difracción revela, al menos en parte, la simetría del cristal y ayuda a clasificarlo debidamente. Por lo general, el diagrama de difracción de un solo cristal no suele ser difícil de interpretar. El problema llega cuando se quieren analizar los mencionados twins. En ese caso, dado que poseen más de un dominio, el diagrama de difracción que se observa es el resultado de la superposición de los diagramas individuales de cada uno de los cristales que conforman la muestra. Incluso conociendo el número de los dominios y su orientación relativa, entender el diagrama puede ser una tarea complicada

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[ES] La entrada en vigor del proyecto de Solvencia II transformará por completo el sistema de determinación de las necesidades de capital del sector asegurador europeo. Recientemente se ha presentado el último estudio de impacto cuantitativo (QIS5), donde se establece la forma de cálculo del modelo estándar para la determinación de los requerimientos de capital. Este trabajo trata de analizar la adecuación de la calibración del riesgo de crédito de la contraparte mediante los modelos que se proponen en los últimos informes de impacto cuantitativo (cuarto y quinto). Para ello comparamos las necesidades de capital que se obtienen por ambas alternativas, frente a las que resultarían de aplicar un modelo de simulación basado en el enfoque estructural. Los resultados obtenidos muestran que el uso de probabilidades basadas en la metodología de Merton frente a aquellas basadas en ratings, dan lugar a requerimientos de capital sustancialmente mayores. Además, el modelo propuesto en QIS4 basado en la distribución de Vasicek no es adecuado cuando el número de contrapartes es reducido, situación habitual en el sector asegurador europeo. Por otra parte, la nueva propuesta (QIS5 o modelo de Ter Berg) es más versátil y adecuada que su antecesora pero requiere analizar con más detenimiento las hipótesis de calibración para de este modo aproximar mejor las estimaciones al riesgo realmente asumido.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[ES]El objetivo principal de este proyecto se centra en conseguir las características mecánicas requeridas por los componentes del chasis de los vehículos con una reducción de peso y mejora de productividad, para ellos es necesario simular el proceso de templado que se da durante la estampación en caliente de una pieza de chapa mediante utillajes con conductos de refrigeración. Para ello se ha utilizado el programa de elementos finitos ANSYS hasta obtener un proceso de embutición simulado que represente con una desviación dentro de los límites aceptables el comportamiento real de la chapa en la etapa de refrigeración. Como objetivo secundario se encuentra el afianzamiento de las bases teóricas de ciencia de materiales y la adquisición de más conocimientos relacionados con la transmisión de calor entre cuerpos sólidos, centrándose sobre todo en la distribución de temperaturas sobre la superficie de éstos. En una primera parte se tratarán los conceptos generales de la estampación en caliente y sus posibles variantes. También se explicará la necesidad del uso de nuevos materiales para la industria automovilística, así como la razón por la cual se utilizan conductos de refrigeración. A continuación, se definirá la geometría de la chapa a analizar, tanto las consecuentes geometrías de los utillajes, que tendrán diferentes distribuciones de conductos de refrigeración. Además se establecerán los criterios para realizar el análisis térmico transitorio del conjunto troquel – chapa – matriz. Una vez seleccionado el tipo de análisis se profundizará en su estudio, aplicándolo a los diferentes utillajes ya citados. Se analizarán los resultados obtenidos y los errores y se buscarán posibles alternativas. Finalmente, se procederá a sacar las conclusiones de la simulación realizada y se procederá a comparar los resultados obtenidos con las diferentes distribuciones de conductos de refrigeración en los utillajes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[ES]Este proyecto estudia el flujo de dióxido de carbono a través de toberas de diferentes diámetros con un software de simulación, mediante el método de los volúmenes finitos (CFD). El objetivo es poder elegir la tobera que optimice la cantidad de gas utilizado en función de la distancia a la que tenga que llegar. Con un modelo computacional adecuado, esta simulación puede realizarse en un ordenador sin tener que recurrir a ensayos, ahorrando costes y tiempo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[EN]This paper presents a project within that research field. The project consists on the development of an experimental environment comprised by a sensorized practice manikin and a management software system. Manikin model allows the simulation of cardiac arrest episodes on laboratory settings. The management software system adds the capacity to compute and analyze the characteristics of the artifact induced on the electrocardiogram and the thoracic impedance signals by chest compressions during cardiopulmonary resuscitation due to variations of the electrode-skin interface. The main reason for choosing this kind of model is the impossibility to use real people because of the risk of thoracic injuries during chest compression. Moreover, this platform could be used for training in reanimation techniques for real situations. Even laypeople with minimal training can perform cardiopulmonary resuscitation. This can reduce the response time to an emergency while the healthcare personnel arrives, which is key to improve outcomes, since with every minute the chances of survival decrease approximately 10%. It is not necessary to have medical knowledge to perform cardiopulmonary resuscitation, which could increase chances of survival for a patient with an early reanimation since In this context, this paper details the technique solution for the manikin sensorisation to acquire the electrocardiogram, the impedance signal measured between the defibrillation pads placed on the patient’s chest, the compression depth, the compression force and the acceleration experienced by the chest in the three orthogonal axes. Moreover, it is possible to inject a previously recorded electrocardiogram signal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo se analiza el cambio de paradigma de los años setenta traído por el Neoliberalismo. Se analiza la forma en la que las políticas neoliberales que se han ido aplicando, especialmente en el ámbito regulatorio, han influido en la generación de la crisis financiera del 2007. Igualmente se analiza la transformación que ha supuesto en el modelo financiero que ahora se caracteriza por su dimensión y poder sobre el curso de la economía. Para finalizar, se exponen ciertas propuestas regulatorias que tratan de dar solución al problema de la especulación y la toma de riesgos sin límite.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo se analizan los efectos de una disminución de los tipos de las cotizaciones sociales, compensada con un incremento en los tipos del impuesto sobre el valor añadido, como la que tuvo lugar en España en 1995. Para ello se utiliza un modelo de equilibrio general aplicado a la economía española, que se presenta en dos versiones: una donde los sectores productivos se modelizan en competencia perfecta, y otra donde los mismos sectores se modelizan como oligopolistas a la Cournot, lo cual nos permite analizar la influencia del supuesto de competencia imperfecta sobre los resultados. Se ha realizado asimismo una simulación adicional aplicando un supuesto de equal yield por el que el déficit público y el nivel de bienestar del sector público se mantienen constantes tras la aplicación de la nueva política, con objeto de aislar los efectos secundarios que se podrían derivar de un cambio en el comportamiento del sector público.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La fertilización nitrogenada es esencial para satisfacer la demanda global de alimentos, pero es uno de los principales causantes de contaminación de acuíferos subterráneos con nitratos a nivel mundial y nacional. El objetivo de esta tesis fue determinar los principales factores condicionantes de la distribución y lixiviación de nitratos en suelos de la Pampa Ondulada y analizar los destinos del nitrógeno (N) de los fertilizantes. Se determinó a campo el contenido de nitratos en suelos en diferentes situaciones productivas y se realizaron experimentos a campo e invernáculo con fertilizantes marcados isotópicamente (15N) para evaluar los destinos del mismo. Se utilizó el modelo NLEAP para simular la acumulación y lixiviación de nitratos en diferentes suelos. La precipitación pluvial fue el principal factor que determinó la lixiviación de nitratos en maíz, regulando la absorción de N por el cultivo y su desplazamiento vertical. La dinámica de los nitratos presentó pulsos de acumulación en el perfil o salida del mismo, cuando las precipitaciones fueron escasas o elevadas, respectivamente. La materia orgánica del suelo fue el principal destino del fertilizante ante un estrés hídrico en maíz, seguido por su acumulación en las plantas. Lo inverso ocurrió cuando no existió estrés hídrico. El N lixiviado, derivado del fertilizante aplicado en una determinada campaña agrícola fue mínimo, en relación a las pérdidas del N de fuentes preexistente en el suelo. Los Argiudoles (texturas más finas) fueron más susceptibles a sufrir pérdidas por lixiviación que los Hapludoles (texturas más gruesas). De acuerdo con el modelo utilizado, el período crítico para la ocurrencia de lixiviación de nitratos fue entre dos cultivos de verano. La inclusión de un cultivo de cobertura en dicho período redujo las pérdidas por lixiviación, incrementando la disponibilidad de N para un cultivo posterior. La retención del N del fertilizante en los residuos del cultivo de cobertura y en la materia orgánica del suelo podría atenuar la lixiviación de nitratos sólo en un corto plazo. El modelo de simulación utilizado fue apto para estimar situaciones de pérdidas de N, cuando las dosis de fertilización fueron las normales en la región.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo se reportan los resultados obtenidos con 39 estudiantes del Instituto Santa María Goretti de Bucaramanga, institución que viene participando en el proyecto “Incorporación de Nuevas Tecnologías en el Currículo de Matemáticas de la Educación Básica y Media de Colombia” desde el año 2002, quienes dieron solución a un problema de una carrera de fórmula 1, donde Juan Pablo Montoya sale de pits con una aceleración de 4 m/seg2 y en ese mismo instante pasa Michael Schumacher con una velocidad constante de 252 Km/hora. Este problema fue simulado en Cabrí Geometry en una pista circular, para el estudio de las funciones lineal y cuadrática. El trabajo con la simulación permitió que las estudiantes identificaran con mayor precisión las variables y no variables y que a través de la toma de datos y análisis de ellos llegaran a obtener diferentes representaciones (numérica, grafica, tabular, algebraica) de las funciones lineal y cuadrática. Además de relacionar los conceptos aprendidos en el estudio del movimiento uniforme y uniformemente acelerado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo se centra en la enseñanza y aprendizaje de la distribución normal en un curso introductorio de estadística en la Universidad, y se fundamenta en un marco teórico que plantea el significado institucional y personal de los objetos matemáticos. En particular, se describe el diseño de una experiencia de enseñanza de la distribución normal apoyada en el uso del ordenador y se analizan los avances, dificultades y errores que presentan los alumnos durante el desarrollo de dicha experiencia. En el estudio se presta especial atención a todo lo que implica en la enseñanza de estadística la introducción del computador. Pretendemos aportar información válida sobre la enseñanza/aprendizaje de la estadística en cursos universitarios, que pueda ser completada y ampliada en futuras investigaciones.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo en proceso presentamos los resultados de la primera fase de nuestra investigación (análisis preliminar), que pretende reconocer a la práctica o la estrategia de la simulación que realizan los estudiantes al momento de resolver problemas de probabilidad y con ello las cuestiones en probabilidad será de gran sencillez teniendo a la herramienta de la simulación. En ello sostenemos que la práctica de la simulación enriquece al conocimiento matemático del ser humano y en particular a la probabilidad.