962 resultados para Hydroelectric generators.
Resumo:
El proyecto de investigación parte de la dinámica del modelo de distribución tercerizada para una compañía de consumo masivo en Colombia, especializada en lácteos, que para este estudio se ha denominado “Lactosa”. Mediante datos de panel con estudio de caso, se construyen dos modelos de demanda por categoría de producto y distribuidor y mediante simulación estocástica, se identifican las variables relevantes que inciden sus estructuras de costos. El problema se modela a partir del estado de resultados por cada uno de los cuatro distribuidores analizados en la región central del país. Se analiza la estructura de costos y el comportamiento de ventas dado un margen (%) de distribución logístico, en función de las variables independientes relevantes, y referidas al negocio, al mercado y al entorno macroeconómico, descritas en el objeto de estudio. Entre otros hallazgos, se destacan brechas notorias en los costos de distribución y costos en la fuerza de ventas, pese a la homogeneidad de segmentos. Identifica generadores de valor y costos de mayor dispersión individual y sugiere uniones estratégicas de algunos grupos de distribuidores. La modelación con datos de panel, identifica las variables relevantes de gestión que inciden sobre el volumen de ventas por categoría y distribuidor, que focaliza los esfuerzos de la dirección. Se recomienda disminuir brechas y promover desde el productor estrategias focalizadas a la estandarización de procesos internos de los distribuidores; promover y replicar los modelos de análisis, sin pretender remplazar conocimiento de expertos. La construcción de escenarios fortalece de manera conjunta y segura la posición competitiva de la compañía y sus distribuidores.
Resumo:
Introducción: Las enfermedades cardiovasculares han generado un alto impacto en morbimortalidad, la carga de enfermedad de la población y años de vida saludables, sufriendo mayor impacto en discapacidades, lo cual es imperativo el control de factores de riesgo cardiovascular. La principal causa de muerte en Colombia 2011 fue la enfermedad coronaria, según el instituto nacional de salud, lo cual implica la importancia de prevención y promoción. Objetivo: Estimar la prevalencia de factores de riesgo cardiovascular en trabajadores de una empresa hidroeléctrica de Colombia durante el año 2013, con mira a realizar intervención en estos. Metodología: Estudio descriptivo transversal, para determinar prevalencia de los factores de riesgo cardiovascular en una hidroeléctrica en Colombia. Muestra: 113 trabajadores a quienes se les aplicó un cuestionario integral adaptado incluyendo variables sociodemográficos, laborales, hábitos, información nutricional, antropométricas y de salud. Resultados: Entrevistados 113 trabajadores, edad promedio 39 años, entre 21 a 59 años de edad, 69% vinculación por contratista, 31% directo por la empresa, los cargos fueron dividos: producción 58,4%, administrativo 23%, oficios varios 18,6%. En antecedentes familiares, la hipertensión arterial e infarto agudo de miocardio fue 19,5%, antecedentes personales como estrés laboral 76.4%, consumo de alcohol 55.8%, sedentarismo 54,5%, el índice de masa corporal (IMC > 24.9) 54%, mientras los de menor prevalencia fue IAM y accidente cerebro vascular 0,9% seguidos de tabaquismo 6.3%. Conclusiones: Existe una prevalencia importante en ciertos factores modificables, los cuales encontramos principalmente estrés laboral, sedentarismo, consumo de alcohol, sobrepeso y obesidad, susceptibles a modificación mediante planes de promoción y prevención específicos.
Resumo:
La acción colectiva en el manejo y gobierno de los recursos de uso común (RUC) seguirá siendo uno de los asuntos que genera mayores controversias (especialmente cuando se trata de recursos naturales y procesos de gobernanza y gestión del agua), debido a los diversos enfoques que sobre el desarrollo se tienen. El presente estudio aborda el análisis de la acción colectiva en el manejo y gobierno de los recursos de uso común a partir del caso Hidrosogamoso en Santander. Además de ofrecer un análisis de los impactos ambientales, sociales y económicos, ventajas y efectos nocivos que puede tener un proyecto hidroeléctrico, se examinan algunos de los postulados básicos de la teoría de la acción colectiva y los RUC, con alguna alusión al enfoque de la bioeconomía. También se describe una de las experiencias comunitarias de autogobierno y preservación del río. Asimismo se estudia el contexto de interacción estratégica en la zona, en el conflicto entre quienes defienden el río y quienes abogan por el proyecto; se ubican las principales oportunidades políticas y aliados influyentes de los opositores durante la fase de construcción de la hidroeléctrica. Al final se insinúan posibles alternativas que podrían ayudar en la visibilización de las problemáticas generadas por el megaproyecto.
Resumo:
El trasplante de órganos es considerado uno de los avances más significativos de la medicina moderna y es un procedimiento cada vez más exitoso en términos de supervivencia de los pacientes, siendo actualmente la mejor opción de tratamiento para los pacientes con innumerables patologías. El proceso de donación es insuficiente para cubrir las necesidades de trasplante de la población, por lo tanto, se hace necesario el desarrollo de nuevas estrategias para fortalecer la experiencia y efectividad de los programas existentes. La falta de conocimiento de los profesionales de la salud, su percepción y actitud hacia temas relacionados con el proceso de donación, pueden convertirlos en facilitadores o barreras para la identificación de potenciales donantes. Por esta razón, los recursos disponibles, las actitudes hacia la donación, la legislación y conocimiento de los procesos involucrados en la donación de tejidos y órganos son críticos. Dada la influencia de los profesionales de salud se definen los objetivos de este proyecto de tesis: determinar cuál es el conocimiento y las habilidades de los profesionales de la salud encargados de los trasplantes de órganos y de tejidos en la regional 1, evaluados mediante una herramienta educativa para contribuir a mejorar un programa eficiente de Donación de Órganos y tejidos y así mismo, fijar recomendaciones en aras de aumentar las tasas de donación, con especial énfasis en la actividad hospitalaria en el país. METODOLOGIA Se realizó un estudio basado en el análisis de la evaluación de conocimientos del proceso donación- trasplante de órganos y tejidos en el personal de salud participante en la herramienta educativa llamada “Curso taller primer respondiente del potencial donante de órganos y tejidos”. Este curso incluía un formato evaluativo que fue diligenciado de manera anónima por los participantes antes y después de recibir el contenido del curso. El estudio se desarrolló en personal de la Salud de IPS pertenecientes a la Regional I, de la Red Nacional de donación y trasplantes de órganos y tejidos. Con el fin de evidenciar si existen diferencias en el conocimiento de los participantes del curso antes y después de asistir al mismo, se utilizó la prueba de McNemar (p< 0.05). RESULTADOS Entre julio del 2011 y junio del 2012, se realizó el “Curso taller primer respondiente del potencial donante de órganos y tejidos” y se obtuvieron 303 encuestados incluidos médicos, enfermeras y auxiliares de enfermería. Al inicio del curso las respuestas acertadas con relación a legislación, selección del donante, muerte encefálica y mantenimiento del donante estuvieron alrededor del 50%. No fue posible detectar la profesión que pudiese generar riesgo en la detección del donante y los procesos asociados. Posterior al curso, el 72% de las preguntas se respondieron de manera correcta, lo que representa un incremento estadísticamente significativo. Este cambio evidenció significancia estadística al usar la prueba de McNemar y arrojar un valor de p=0.00. .DISCUSIÓN El personal de salud participante en el curso taller proveniente de unidades involucradas como generadoras de donantes muestra un déficit de conocimientos del proceso donación trasplantes lo que puede convertirlos en limitantes para dicho proceso
Resumo:
Introducción. En el presente trabajo se pretende identificar los factores psicosociales laborales asociados con el bienestar del trabajador en investigaciones realizadas en Colombia y España, durante el periodo 2002 – 2012. Objetivo. Este trabajo tiene como fin, precisar sobre el desarrollo investigativo en lo referente a los factores psicosociales y su relación con el bienestar, de los trabajadores en Colombia y España durante el período 2002-2012, por medio de los estudios encontrados sobre factores psicosociales y su impacto benéfico en el bienestar del trabajador, marco legal de ambos países, así como también, la revisión documental, consolidación y posterior análisis de la literatura, en torno al estado del arte del presente estudio en relación a los factores psicosociales laborales. Método. Se trata de un estudio documental, realizado por medio, de una revisión de literatura en las bases de datos y posterior selección, clasificación, consolidación, sistematización y análisis de los estudios de investigación encontrados, los cuales, analizaban aspectos relacionados con los factores psicosociales y su relación con el bienestar del trabajador en Colombia y España, durante el período 2002-2012. Resultados. En la revisión documental se evidenció que los estudios referentes a los factores psicosociales y su relación con el bienestar del trabajador, representa un importante y permanente reto para las organizaciones. De la misma manera, se destacan los avances que sobre dicha relación presenta España, pues, en Colombia, aun los estudios siguen direccionados hacia los factores de riesgo o perjudiciales, más que hacia factores protectores o de bienestar, generadores de un efecto benéfico en los trabajadores y por ende en la organización.
Resumo:
La exposición a ruido se considera uno de los principales factores de riesgo involucrados en la génesis de hipoacusia neurosensorial, produciendo deterioro en la calidad de vida de la población trabajadora y pérdidas económicas en las empresas. Se considera que los sectores económicos más expuestos a este factor de riesgo son la industria manufacturera, la construcción, las refinerías de petróleo y las centrales hidroeléctricas. El presente estudio de corte transversal pretende establecer el perfil de exposición ocupacional a ruido en procesos de producción de cemento en Colombia, mediante el análisis de 458 mediciones higiénicas personales de ruido realizadas entre los años 2010 y 2015. En la definición de los grupos de exposición similar se identificaron y describieron las actividades funcionales de la población expuesta, cuyos resultados se evaluaron teniendo como valor de referencia 85 dBA, propuesto por la guía TLV-TWA de la ACGIH (American Conference of Governmental Industrial Hygienists) del 2014. Los resultados del estudio permitieron conocer el perfil de exposición a ruido en los procesos de producción de cemento, en donde se identificaron mayores condiciones de riesgo en los GES Producción, Mina y Mecánicos de Planta, con valores de exposición que exceden el límite permisible establecido por la ACGIH; datos que resultan indispensables para la formulación de medidas de seguimiento, vigilancia y control.
Resumo:
En la búsqueda de preservar el medio ambiente y estandarizar la disposición final de los residuos generados, Sustain Cycle nace como un gestor de residuos de aceite vegetal usado, reforzando la carente oferta del mercado. Fortaleciendo el compromiso de los generadores de este residuo además de una reducción de costos, la creación de Sustain Cycle se desarrolla bajo la figura jurídica de Fundación, deduciendo en los contribuyentes del impuesto el valor de las donaciones efectuadas. El aporte ambiental se basa en minimizar el riesgo de una mala disposición en la red de alcantarillado y su componente social se enfoca en evitar la reutilización ilegal y perjudicial para el consumidor. Sustain Cycle se centra en la recolección, acopio, filtrado y comercialización del AVU generado por todos los establecimientos comerciales que produzcan alimentos como papas a la francesa, empanadas, buñuelos, churros, plátanos y demás productos que requieran del aceite para su cocción.
Resumo:
El objetivo de este documento es recopilar algunos resultados clasicos sobre existencia y unicidad ´ de soluciones de ecuaciones diferenciales estocasticas (EDEs) con condici ´ on final (en ingl ´ es´ Backward stochastic differential equations) con particular enfasis en el caso de coeficientes mon ´ otonos, y su cone- ´ xion con soluciones de viscosidad de sistemas de ecuaciones diferenciales parciales (EDPs) parab ´ olicas ´ y el´ıpticas semilineales de segundo orden.
Resumo:
The performance of a model-based diagnosis system could be affected by several uncertainty sources, such as,model errors,uncertainty in measurements, and disturbances. This uncertainty can be handled by mean of interval models.The aim of this thesis is to propose a methodology for fault detection, isolation and identification based on interval models. The methodology includes some algorithms to obtain in an automatic way the symbolic expression of the residual generators enhancing the structural isolability of the faults, in order to design the fault detection tests. These algorithms are based on the structural model of the system. The stages of fault detection, isolation, and identification are stated as constraint satisfaction problems in continuous domains and solved by means of interval based consistency techniques. The qualitative fault isolation is enhanced by a reasoning in which the signs of the symptoms are derived from analytical redundancy relations or bond graph models of the system. An initial and empirical analysis regarding the differences between interval-based and statistical-based techniques is presented in this thesis. The performance and efficiency of the contributions are illustrated through several application examples, covering different levels of complexity.
Resumo:
A parallel hardware random number generator for use with a VLSI genetic algorithm processing device is proposed. The design uses an systolic array of mixed congruential random number generators. The generators are constantly reseeded with the outputs of the proceeding generators to avoid significant biasing of the randomness of the array which would result in longer times for the algorithm to converge to a solution. 1 Introduction In recent years there has been a growing interest in developing hardware genetic algorithm devices [1, 2, 3]. A genetic algorithm (GA) is a stochastic search and optimization technique which attempts to capture the power of natural selection by evolving a population of candidate solutions by a process of selection and reproduction [4]. In keeping with the evolutionary analogy, the solutions are called chromosomes with each chromosome containing a number of genes. Chromosomes are commonly simple binary strings, the bits being the genes.
Resumo:
Seasonal climate prediction offers the potential to anticipate variations in crop production early enough to adjust critical decisions. Until recently, interest in exploiting seasonal forecasts from dynamic climate models (e.g. general circulation models, GCMs) for applications that involve crop simulation models has been hampered by the difference in spatial and temporal scale of GCMs and crop models, and by the dynamic, nonlinear relationship between meteorological variables and crop response. Although GCMs simulate the atmosphere on a sub-daily time step, their coarse spatial resolution and resulting distortion of day-to-day variability limits the use of their daily output. Crop models have used daily GCM output with some success by either calibrating simulated yields or correcting the daily rainfall output of the GCM to approximate the statistical properties of historic observations. Stochastic weather generators are used to disaggregate seasonal forecasts either by adjusting input parameters in a manner that captures the predictable components of climate, or by constraining synthetic weather sequences to match predicted values. Predicting crop yields, simulated with historic weather data, as a statistical function of seasonal climatic predictors, eliminates the need for daily weather data conditioned on the forecast, but must often address poor statistical properties of the crop-climate relationship. Most of the work on using crop simulation with seasonal climate forecasts has employed historic analogs based on categorical ENSO indices. Other methods based on classification of predictors or weather types can provide daily weather inputs to crop models conditioned on forecasts. Advances in climate-based crop forecasting in the coming decade are likely to include more robust evaluation of the methods reviewed here, dynamically embedding crop models within climate models to account for crop influence on regional climate, enhanced use of remote sensing, and research in the emerging area of 'weather within climate'.
Resumo:
Seasonal climate prediction offers the potential to anticipate variations in crop production early enough to adjust critical decisions. Until recently, interest in exploiting seasonal forecasts from dynamic climate models (e.g. general circulation models, GCMs) for applications that involve crop simulation models has been hampered by the difference in spatial and temporal scale of GCMs and crop models, and by the dynamic, nonlinear relationship between meteorological variables and crop response. Although GCMs simulate the atmosphere on a sub-daily time step, their coarse spatial resolution and resulting distortion of day-to-day variability limits the use of their daily output. Crop models have used daily GCM output with some success by either calibrating simulated yields or correcting the daily rainfall output of the GCM to approximate the statistical properties of historic observations. Stochastic weather generators are used to disaggregate seasonal forecasts either by adjusting input parameters in a manner that captures the predictable components of climate, or by constraining synthetic weather sequences to match predicted values. Predicting crop yields, simulated with historic weather data, as a statistical function of seasonal climatic predictors, eliminates the need for daily weather data conditioned on the forecast, but must often address poor statistical properties of the crop-climate relationship. Most of the work on using crop simulation with seasonal climate forecasts has employed historic analogs based on categorical ENSO indices. Other methods based on classification of predictors or weather types can provide daily weather inputs to crop models conditioned on forecasts. Advances in climate-based crop forecasting in the coming decade are likely to include more robust evaluation of the methods reviewed here, dynamically embedding crop models within climate models to account for crop influence on regional climate, enhanced use of remote sensing, and research in the emerging area of 'weather within climate'.
Resumo:
Development research has responded to a number of charges over the past few decades. For example, when traditional research was accused of being 'top-down', the response was participatory research, linking the 'receptors' to the generators of research. As participatory processes were recognised as producing limited outcomes, the demand-led agenda was born. In response to the alleged failure of research to deliver its products, the 'joined-up' model, which links research with the private sector, has become popular. However, using examples from animal-health research, this article demonstrates that all the aforementioned approaches are seriously limited in their attempts to generate outputs to address the multi-faceted problems facing the poor. The article outlines a new approach to research: the Mosaic Model. By combining different knowledge forms, and focusing on existing gaps, the model aims to bridge basic and applied findings to enhance the efficiency and value of research, past, present, and future.
Resumo:
Asynchronous Optical Sampling has the potential to improve signal to noise ratio in THz transient sperctrometry. The design of an inexpensive control scheme for synchronising two femtosecond pulse frequency comb generators at an offset frequency of 20 kHz is discussed. The suitability of a range of signal processing schemes adopted from the Systems Identification and Control Theory community for further processing recorded THz transients in the time and frequency domain are outlined. Finally, possibilities for femtosecond pulse shaping using genetic algorithms are mentioned.
Resumo:
This paper describes a new method for reconstructing 3D surface points and a wireframe on the surface of a freeform object using a small number, e.g. 10, of 2D photographic images. The images are taken at different viewing directions by a perspective camera with full prior knowledge of the camera configurations. The reconstructed surface points are frontier points and the wireframe is a network of contour generators. Both of them are reconstructed by pairing apparent contours in the 2D images. Unlike previous works, we empirically demonstrate that if the viewing directions are uniformly distributed around the object's viewing sphere, then the reconstructed 3D points automatically cluster closely on a highly curved part of the surface and are widely spread on smooth or flat parts. The advantage of this property is that the reconstructed points along a surface or a contour generator are not under-sampled or under-represented because surfaces or contours should be sampled or represented with more densely points where their curvatures are high. The more complex the contour's shape, the greater is the number of points required, but the greater the number of points is automatically generated by the proposed method. Given that the viewing directions are uniformly distributed, the number and distribution of the reconstructed points depend on the shape or the curvature of the surface regardless of the size of the surface or the size of the object. The unique pattern of the reconstructed points and contours may be used in 31) object recognition and measurement without computationally intensive full surface reconstruction. The results are obtained from both computer-generated and real objects. (C) 2007 Elsevier B.V. All rights reserved.