1000 resultados para Estimación de topología
Resumo:
Tesis inédita presentada en la Universidad Europea de Madrid. Facultad de Ciencias Sociales. Programa de Doctorado en Derecho Empresarial
Resumo:
En los últimos años, la modificación que el medio urbano ejerce sobre el clima regional a una escala local, la llamada isla de calor urbana, ha sido uno de los fenómenos más estudiados, dado que tiene una relación directa con el confort y la calidad de vida de la población. Es por ello que el presente trabajo tiene por objeto presentar los primeros resultados de la estimación la isla de calor urbana en Santa Teresita, una localidad balnearia ubicada en el centro este de la provincia de Buenos Aires, a los 33º 33´ 00´´ S y 56º 41´ 00´´ O. La ciudad ha nacido y crecido con un fin turístico asociado al clima templado oceánico y a sus atractivas playas. Se efectuaron mediciones de temperatura del aire y humedad relativa a través de la ciudad para determinar la forma y la intensidad de la isla de calor urbano utilizando estaciones móviles e información de una estación meteorológica fija y datos del Servicio Meteorológico Nacional. La ciudad presenta una variación climática generada por las edificaciones, la incidencia del mar y de la vegetación, diferente a lo largo del día.Palabras Clave: Isla de calor urbana – Temperatura - Humedad relativa - Santa Teresita, ArgentinaAbstracIn the last years, the modification that the urban way exercises on the regional climate to a local scale, the so called urban heat island, has been one of the most studied phenomena ast it has a direct relation with the comfort and quality of life of the population. It is for it that the present work takes as an object present the initial results of estimating the urban heat island in Santa Teresita, a touristic locality located in the central eastern province of Buenos Aires, the 33º 3 ‘00 “ S and 56º40‘00 “ W. The city was born and grew up with a tourism associated with the moderate oceanic climate and with their attractive beaches. There were effected measurements of temperature of the air and relative dampness across the city to determine the form and the intensity of the urban heat island using mobile stations and information from a wheater station data sets and the Meteorological National Service. The city has a diverged climate generated by the buildings, the incident of the sea and of the vegetation, different throughout the day.Key words: Urban heat island - Temperature - Relative dampness - Santa Teresita, Argentina.
Resumo:
Ciudad Cortés, en un pequeño pueblo localizado al sur del país, que ha sido afectado desde hace varios años por las inundaciones de los ríos Térraba y Balsar, se han estimado los costos de la infraestructura dañada en áreas de alto riesgo. De acuerdo con esta información, se han seleccionado ejemplos de construcciones, realizando cálculos económicos y relacionados con un mapa diseñado con curvas isográficas por cada metro. El mapa final muestra las áreas de riesgo y algunas estrategias para reducir las pérdidas de vidas y propiedades.Abstract:In a small town located in the southern part of the country, that is affected since many years by the floods Térraba and Balsar rivers, we try to estimate the costofthc infrastructure which isbuild in the areas of high risk. According with this information, we seLcct a sample of buildings, made a calculation of its econornic value and related them with a map designed with hipsographic contours each one-meter. We obtain at the end a map that shows risks areas and sorne strategies for reducing ¡oss of lives and properties.
Resumo:
Se evalúa la eficacia en varios lugares de Costa Rica de las formulas empíricas más utilizadas en la estimación de la radiación global, según la literatura obtenida, en donde se compara el valor estimado para la estimación meteorológica en estudio. Se obtiene el mejor método – de los tratados en este estudio –para estimar la radiación global en Costa Rica.
Resumo:
Este trabajo intenta relacionar la radiación solar y el número de días con precipitación, con el fin de hallar una técnica que permita la estimación de la radiación solar global cuando no se encuentra con mediciones directas. Se obtiene como mejor método una relación no lineal entre los valores diarios medios mensuales de la radiación global y el número de días con precipitación, con resultados satisfactorios en todas las estaciones actinométricas analizadas en este estudio. Se recomienda para futuros estudios, probar la aplicabilidad de este modelo estadístico en otras estaciones actinométricas de Costa Rica, esto permitiría la estimación de la radiación solar global cuando no se cuenta con mediciones directas; con la ventaja de que se puede aplicar a las numerosas estaciones que disponen de datos de precipitación en el país.
Resumo:
Se propone una versión abreviada de la forma WAIS para evaluar la inteligencia en grupos de población. Se analizaron 161 protocolos completos del WAIS aplicados a mujeres de nivel socioeconómico bajo y se estudió las correlaciones de las distintas subpruebas con el CI total y con los CI verbal y manual. Se seleccionaron seis subpruebas (Comprensión, Semejanzas, Vocabulario, Cubos, Completación y Ensamblaje) en base a dos criterios: las correlaciones observadas, y las funciones evaluadas en cada subprueba. El análisis de una forma corta con 6 subpruebas y cuatro formas cortas con 4 subpruebas demuestra que todas ellas son adecuadas para la evaluación de la inteligencia como variable de confusión. El error estándar para la estimación del CI total varía entre 3 y 4 puntos, y el error de clasificación corresponde a un 3-7%. Cuando se evalúa inteligencia materna como variable de confusión del desarollo infantil la forma corta que combina Comprensión, Semejanzas, Cubos y Completación parece la mas adecuada. La elección de la forma corta a usar dependerá del ahorro de tiempo en la aplicación y de las funciones evaluadas en cada subprueba en función del problema en estudio.
Resumo:
OBJETIVO: Aplicar una técnica que oriente la distribución de recursos financieros del Plan de Atención Básico para acciones colectivas, según las condiciones de salud diferenciales. MÉTODOS: Se parte de la estimación previa de un índice global de salud mediante análisis de componentes principales, que jerarquiza las localidades de Bogotá, Colombia, en grupos según su estado de salud: "peor" estado, "intermedio" y "mejor" que los anteriores. Se aplica una técnica de mínimos cuadrados que minimice la diferencia entre el índice global de salud observado y un índice esperado con la inversión de tales recursos. RESULTADOS: Se obtiene la distribución de los recursos del Plan de Atención Básico para las veinte Localidades, destinando una cifra superior a la mediana Distrital en las Localidades con "peor" estado de salud. Además, se identifican las Localidades con déficit para el cubrimiento universal de la población de acuerdo con la destinación per cápita de dichos recursos. CONCLUSIÓN: La técnica utilizada pone en evidencia la diferencia en las condiciones de salud entre las localidades con "peor" estado de salud, con respecto a las localidades con "mejor" estado, a pesar de la incremento en la asignación del Plan de Atención Básico, indicando la necesidad de inversión social a nivel intersectorial en dichas localidades.
Resumo:
La idoneidad del concepto de willingness to pay (disponibilidad a pagar) es revisado en las evaluaciones económicas que se realizan en el campo de la salud. Por un lado, existe dentro de la literatura económica un número importante de investigadores que señalan los múltiples problemas metodológicos que entrañan las estimaciones de willingness to pay. Por otro lado, aún el debate teórico-conceptual acerca de la agregación de las preferencias individuales dentro de una demanda agregada no ésta del todo resuelto. Sin embargo, durante los últimos 20 años la estimación de la disponibilidad a pagar dentro de las investigaciones económicas ha aumentado de forma significativa, siendo en muchos casos uno de los principales factores de la toma de decisión en políticas de salud. Plantease alguna de las limitaciones de esta técnica, así como el posible efecto distorsionador que podría tener sobre las evaluaciones económicas que se realizan en el área de la economía de la salud.
Resumo:
En América Latina destacan experiencias de reforma sanitaria en donde se ha dado paso a la implementación de hospitales autónomos. En Chile, el sistema de salud implementa una reforma que introduce los Establecimientos de Autogestión en Red. Estos serán centros de alta complejidad que involucrarán una mayor diversidad técnica, centros de costos y mecanismos de evaluación de la satisfacción de los usuarios. Para el recurso humano en salud, la implementación de estos centros plantea desafíos en la planificación para la provisión de servicios, así como en la transición de la gestión clásica de los equipos a una basada en redes. Estos desafíos involucran la estimación de brechas de especialidades médicas, así como de otras profesiones del sector. Para el éxito de la autogestión en Chile, se deben establecer políticas globales y locales que aborden temas de formación y de organización de la provisión de servicios de salud en estas instituciones.
Resumo:
Introducción: La utilización de normas de orientación para la nutrición parenteral neonatal mejora la eficiencia y la seguridad de su prescripción. Objetivo: Evaluar la práctica de prescripción de nutrición parenteral neonatal en Portugal y el cumplimiento del Consenso Nacional (2008). Métodos: Encuesta de respuesta múltiple sobre la prescripción de nutrición parenteral (NP) enviada a los coordinadores de las 50 unidades de cuidados especiales neonatales portuguesas, tanto públicas como privadas, siendo 25 de nível ii y 25 de nivel iii. Resultados: Se prescribe NP en 32 unidades neonatales, habiendo 23 (71,9%) respondido la encuesta. De estas, 19 (82,6%) afirman tener como referencia el Consenso Nacional y las restantes siguen protocolos internos; 17 (73,9%) afirman preferir la prescripción mediante soporte informático. En recién nacidos pretérmino, la mayoría reporta una administración cautelosa de líquidos en la primera semana posnatal; inicio de aminoácidos desde el primer día posnatal con 1,5-3 g/kg/día y aumento hasta 3-4 g/kg/día; inicio de lípidos en los 3 días posnatales com 1 g/kg/día y aumento hasta 3 g/kg/día; administración de 40-70 mg/kg/día de calcio y fósforo, con un ratio calcio:fósforo de 1,7:1 (mg:mg), y estimación de la osmolaridad de las soluciones y control semanal de la trigliceridemia, uremia, fosforemia y función hepática. Conclusiones: Por la elevada tasa de respuesta la muestra probablemente es representativa de la práctica de prescripción de nutrición parenteral neonatal en Portugal. La mayoría de las unidades tienen como referencia el Consenso Nacional, lo que contribuye a unos mejores cuidados de los recién nacidos.
Resumo:
La trichinelosis es una zoonosis parasitaria transmitida especialmente por carne de cerdo no tratada adecuadamente, siendo un problema de salud pública en zonas endémicas, originando considerables pérdidas económicas. La continua recurrencia de la trichinelosis animal involucra distintos eslabones de la cadena de elaboración de productos porcinos. Para mitigar el riesgo de esta enfermedad se deben aplicar medidas de manejo sustentadas científicamente y una estrategia para lograrlo es el análisis de riesgos. Éste es un proceso mediante el cual se examinan los posibles efectos nocivos para la salud como consecuencia de un peligro presente en un alimento y se establecen opciones para mitigarlo. No se han desarrollado evaluaciones cuantitativas de riesgos bajo las condiciones de producción, procesamiento y consumo nacionales. Se elaborará un modelo de riesgos que contemple desde la producción primaria hasta el consumo final. La información científica disponible para cada etapa del proceso será integrada al modelo como distribuciones de probabilidad empleando el programa @Risk®. Posteriormente, se obtendrá una estimación de la ocurrencia y extensión de la contaminación de productos de cerdo con trichinelosis, se identificarán las etapas del proceso que más afectan la probabilidad de infección, se analizará el impacto de diferentes estrategias de manejo sobre el riesgo de infección y se identificarán las áreas de investigación relevantes. Los resultados generados aportarán evidencia científica para la toma de decisiones sobre la gestión y comunicación del riesgo, siendo de utilidad para los organismos gubernamentales, empresas privadas del sector y otras organizaciones no gubernamentales relacionadas con el área de interés.
Resumo:
El diseño hidrológico se define como la evaluación del impacto de los procesos hidrológicos y la estimación de los valores correspondientes a las variables representativas con fines de diseño. Las pautas para establecer un valor de diseño para obras hidráulicas son el costo y la seguridad. Sobredimensionar las obras es antieconómico, en tanto que, si las estructuras se subdimensionan pueden fallar con resultados catastróficos. Los estudios dirigidos a determinar las crecidas de proyecto de diversas estructuras hidráulicas requieren series de datos históricos de caudal, pero esta información en nuestro país es poco frecuente. En esos casos, el análisis se hace sobre las precipitaciones causantes del fenómeno denominadas lluvia de diseño. El equipo responsable de este proyecto tiene una experiencia de investigación y desarrollo de más de 15 años en el tema. Por lo que el objeto de la presente propuesta es plasmar los avances alcanzados sobre las lluvias de diseño en un manual que permita brindar una herramienta técnica (a escala provincial y nacional) a los profesionales dedicados a la planificación, proyecto y construcción de obras hidráulicas
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificará el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas. Produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/ proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene una alta componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que mas se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales
Resumo:
La contaminación atmosférica puede definirse como cualquier condición en la cual ciertas sustancias, en concentraciones lo suficientemente elevadas con respecto a su nivel normal, se encuentran en el aire produciendo efectos mensurables en el hombre, animales y la vegetación o los materiales. Según Warner (1981), los contaminantes pueden existir en la atmósfera en forma de gases, de gotas líquidas o de partículas sólidas. (...) La contaminación del aire tiene efectos marcados sobre plantas, las cuales varían considerablemente en su susceptibilidad a los polutantes. La identificación y categorización en especies sensibles y tolerantes, resulta importante, especialmente en programas de biomonitoreo. (...) La acción de los contaminantes sobre plantas ha permitido valerse de muchos organismos como indicadores de polución en diferentes sitios y bajo diversas condiciones de contaminación. En este sentido, una de las técnicas alternativas para conocer las características de un ambiente en cuanto a sus niveles de contaminación es el empleo del biomonitoreo, el cual se trata de un modelo experimental que mide las respuestas de organismos a la contaminación atmosférica. En este sentido las respuestas fisiológicas han sido propuestas como indicadoras, aún de bajos niveles de contaminación, ya que si bien la concentración de algunos contaminantes en el aire puede no ser lo suficientemente elevada como para ser detectada por medios convencionales (monitoreo por sensores químicos), ésta puede provocar modificaciones permanentes por efecto acumulativo. (...) La importancia de conocer por un lado, la concentración de contaminantes en el aire y por otro, analizar los efectos que estos contaminantes producen sobre un bioindicador, radica en la posibilidad de aproximarnos a la implementación de un sistema de monitoreo que tenga en cuenta no sólo la cuantificación de contaminantes sino también la estimación de sus efectos biológicos en determinadas condiciones ambientales. (...) Debe tenerse en cuenta que a partir de la respuesta química del bioindicador se evalúa además del efecto puntual de picos de elevada concentración, el efecto aditivo, sinérgico o antagónico de los distintos contaminantes durante el período de exposición. Estos efectos se encuentran fuertemente ligados a condiciones ambientales, que pueden potenciar o atenuar la toxicidad de los diferentes compuestos sobre el bioindicador. (...) Objetivo general Establecer grados de correlación entre la concentración de contaminantes atmosféricos, cuantificados por el Sistema de Monitoreo de Aire (SiMA) de la Municipalidad de Córdoba, y la respuesta química de Usnea sp., en diferentes condiciones ambientales.
Resumo:
El presente proyecto consta de dos partes. 1. Modelos exponenciales con dispersión. 2. Ajuste de modelos lineales generalizados para datos de conteo con superdispersión. (...) Objetivos generales y específicos: El estudio de los modelos exponenciales con dispersión conduce a desarrollar y perfeccionar métodos de estimación y de inferencia tanto desde el punto de vista teórico como numérico. (...) i) Presentar, sin sin usar el teorema de Mora, resultados sobre la convergencia de modelos exponenciales con dispersión infinitamente divisibles. ii) Proponer una metodología apropiada para el análisis estadístico de variables aleatorias discretas enteras en función de posibles modelos adoptados para su explicación. Construcción de los algoritmos necesarios para la estimación de los parámetros especificados en el modelo adoptado y presentación de las macros correspondientes para su implementación.