1000 resultados para FRECUENCIA CARDIACA
Resumo:
Algunas taquicardias ventriculares (TV) posinfarto se localizan en el epicardio. La identificación de diferencias en el sustrato de las TV endocárdicas y epicárdicas permitiría definir una mejor estrategia de ablación.
Resumo:
Nueve triatletas hombres (68,0 ± 2,0 mL·kg-1·min-1, 25 ± 1,9 años, 68,3 ± 2,2 kg y 1,77 ± 0,22 m), realizaron un test incremental en cicloergómetro en tres ocasiones correspondientes con el inicio de la temporada, periodo precompetitivo y periodo competitivo.
Resumo:
El objetivo de este trabajo fin de grado (TFG) consiste en estudiar algunas técnicas de análisis tiempo-frecuencia y aplicarlas a la detección de señales radar. Estas técnicas se incorporan en los actuales equipos de guerra electrónica radar, tales como los interceptadores digitales. La principal motivación de estos equipos consiste en detectar y localizar las fuentes radiantes enemigas e intentar obtener cierta información de las señales interceptadas, tal como, la dirección de llegada (DOA, Direction Of Arrival), el tiempo de llegada (TOA, Time Of Arrival), amplitud de pulso (PA, Pulse Amplitude), anchura de pulso (PW, Pulse Width), frecuencia instantánea (IF, Instantaneous Frequency) o modulación intrapulso. Se comenzará con un estudio detallado de la Short-Time Fourier Transform (STFT),dado su carácter lineal es la técnica más explotada actualmente. Este algoritmo presenta una mala resolución conjunta tiempo-frecuencia. Este hecho provoca el estudio complementario de una segunda técnica de análisis basada en la distribución de Wigner-Ville (WVD). Mediante este método se logra una resolución optima tiempo-frecuencia. A cambio, se obtienen términos cruzados indeseados debido a su carácter cuadrático. Uno de los objetivos de este TFG reside en calcular la sensibilidad de los sistemas de detección analizados a partir de las técnicas tiempo-frecuencia. Se hará uso del método de Monte Carlo para estimar ciertos parámetros estadísticos del sistema tales como la probabilidad de falsa alarma y de detección. Así mismo, se llevará a cabo el estudio completo de un receptor digital de guerra electrónica a fin de comprender el funcionamiento de todos los subsistemas que componen el conjunto (STFT/WVD, medidor instantáneo de frecuencias, procesamiento no coherente y generación de descriptores de pulso). Por último, se analizará su comportamiento frente a diferentes señales Radar (FM-lineal, BPSK, chirp o Barker). Se utilizará para ello la herramienta Matlab.
Resumo:
Frequency selective surfaces (FSS) and reflect/trasmitarrays are mostly designed on the basis ot optimization using an electromagnetic simulator. That is a time consuming method and some decisions have to be taken using simply intuition. The use of equivalent circuits of the scatterers selected for the design allows the substitution of the intuition and most part of the optimization process by the application of the classic rules of filter design. This communication presents all the steps necessary to obtain the equivalent circuit of different square scatterers in a periodic lattice and to implement the desired FSS frequency behaviour calculating the number of layers and the dimensions of the periodic cells. Several examples are included to evaluate the results.
Resumo:
La Ingeniería Biomédica surgió en la década de 1950 como una fascinante mezcla interdisciplinaria, en la cual la ingeniería, la biología y la medicina aunaban esfuerzos para analizar y comprender distintas enfermedades. Las señales existentes en este área deben ser analizadas e interpretadas, más allá de las capacidades limitadas de la simple vista y la experiencia humana. Aquí es donde el procesamiento digital de la señal se postula como una herramienta indispensable para extraer la información relevante oculta en dichas señales. La electrocardiografía fue una de las primeras áreas en las que se aplicó el procesado digital de señales hace más de 50 años. Las señales electrocardiográficas continúan siendo, a día de hoy, objeto de estudio por parte de cardiólogos e ingenieros. En esta área, las técnicas de procesamiento de señal han ayudado a encontrar información oculta a simple vista que ha cambiado la forma de tratar ciertas enfermedades que fueron ya diagnosticadas previamente. Desde entonces, se han desarrollado numerosas técnicas de procesado de señales electrocardiográficas, pudiéndose resumir estas en tres grandes categorías: análisis tiempo-frecuencia, análisis de organización espacio-temporal y separación de la actividad atrial del ruido y las interferencias. Este proyecto se enmarca dentro de la primera categoría, análisis tiempo-frecuencia, y en concreto dentro de lo que se conoce como análisis de frecuencia dominante, la cual se va a aplicar al análisis de señales de fibrilación auricular. El proyecto incluye una parte teórica de análisis y desarrollo de algoritmos de procesado de señal, y una parte práctica, de programación y simulación con Matlab. Matlab es una de las herramientas fundamentales para el procesamiento digital de señales por ordenador, la cual presenta importantes funciones y utilidades para el desarrollo de proyectos en este campo. Por ello, se ha elegido dicho software como herramienta para la implementación del proyecto. ABSTRACT. Biomedical Engineering emerged in the 1950s as a fascinating interdisciplinary blend, in which engineering, biology and medicine pooled efforts to analyze and understand different diseases. Existing signals in this area should be analyzed and interpreted, beyond the limited capabilities of the naked eye and the human experience. This is where the digital signal processing is postulated as an indispensable tool to extract the relevant information hidden in these signals. Electrocardiography was one of the first areas where digital signal processing was applied over 50 years ago. Electrocardiographic signals remain, even today, the subject of close study by cardiologists and engineers. In this area, signal processing techniques have helped to find hidden information that has changed the way of treating certain diseases that were already previously diagnosed. Since then, numerous techniques have been developed for processing electrocardiographic signals. These methods can be summarized into three categories: time-frequency analysis, analysis of spatio-temporal organization and separation of atrial activity from noise and interferences. This project belongs to the first category, time-frequency analysis, and specifically to what is known as dominant frequency analysis, which is one of the fundamental tools applied in the analysis of atrial fibrillation signals. The project includes a theoretical part, related to the analysis and development of signal processing algorithms, and a practical part, related to programming and simulation using Matlab. Matlab is one of the fundamental tools for digital signal processing, presenting significant functions and advantages for the development of projects in this field. Therefore, we have chosen this software as a tool for project implementation.
Resumo:
El estándar LTE se ha posicionado como una de las claves para que los operadores de telecomunicación puedan abordar de manera eficiente en costes el crecimiento de la demanda de tráfico móvil que se prevé para los próximos años, al ser una tecnología más escalable en el núcleo de la red y más flexible en la interfaz radio que sus predecesoras. En este sentido, es necesario también que los reguladores garanticen un acceso al espectro radioeléctrico adecuado, equitativo y no discriminatorio, que permita un entorno estable para el despliegue de redes de comunicaciones móviles avanzadas. Además de la flexibilización del marco regulador del espectro radioeléctrico en Europa, que ha permitido el despliegue de nuevas tecnologías en las bandas de frecuencia históricas de GSM, se ha puesto a disposición espectro adicional para sistemas IMT en nuevas bandas de frecuencia, lo que ha planteando a su vez nuevos retos para la tecnología y la regulación. La fragmentación del espectro disponible para comunicaciones móviles ha impulsado el desarrollo de técnicas de agregación de portadoras en las nuevas versiones del estándar LTE, que permiten explotar mejor los recursos radio en su conjunto. No obstante, el espectro inferior a 1 GHz sigue siendo escaso, ya que el tráfico móvil aumenta y la banda de 900 MHz aún se utiliza para servicios GSM, lo que no ha conseguido sino agravar la disputa entre los servicios de radiodifusión terrestre y de comunicaciones móviles por la parte superior de la banda UHF. En concreto, la banda de 700 MHz se perfila como una de las próximas para aumentar el espectro disponible para los servicios en movilidad, si bien su liberación por parte de las actuales redes de Televisión Digital Terrestre presenta no pocas dificultades en los Estados miembros en los que ésta es la principal plataforma audiovisual de acceso gratuito, abriendo un debate sobre el modelo audiovisual a largo plazo en Europa. Por otro lado, las políticas públicas de promoción del acceso a la banda ancha rápida y ultrarrápida de la presente década han establecido objetivos ambiciosos para el año 2020, tanto en el ámbito europeo como en los diferentes Estados miembros. La universalización del acceso a redes de banda ancha de al menos 30 Mbps constituye uno de los principales retos. Las expectativas generadas por la tecnología LTE y la puesta a disposición de nuevas bandas de frecuencia hace posible que los servicios de acceso fijo inalámbrico adquieran especial relevancia ante los objetivos de política pública establecidos que, como ha sido reconocido en diversas ocasiones, no podrán lograrse sino con un compendio de diferente tecnologías. Para esta Tesis Doctoral se han desarrollado una serie modelos tecnoeconómicos con el objetivo de realizar un análisis prospectivo que evalúa tres casos de especial relevancia en el despliegue de redes LTE: en primer lugar, la valoración económica de la banda de 700 MHz; en segundo lugar, la evaluación de modelos de negocio y reducción de costes considerando tecnologías femtocelulares; y finalmente, la viabilidad de las redes LTE de acceso fijo inalámbrico para el cierre de la brecha digital en el acceso a la banda ancha de 30 Mbps. En relación con la aplicación del análisis tecnoeconómico para la valoración del espectro de 700 MHz, los resultados obtenidos ponen de manifiesto dos cuestiones fundamentales. En primer lugar, la necesidad de asignar a los operadores más espectro para satisfacer las previsiones de demanda de tráfico móvil a medio plazo. En segundo, existe una diferencia notable en los costes de despliegue de una red LTE cuando se dispone de espectro en frecuencias inferiores a 1 GHz y cuando no, pero esta diferencia de costes disminuye a medida que se añade nuevo espectro sub-1GHz. De esta manera, la atribución de la banda de 700 MHz a servicios de comunicaciones móviles supone una reducción relevante en los costes de despliegue si el operador no dispone de espectro en la banda de 800 MHz, pero no así si ya dispone de espectro en bandas bajas para el despliegue. En este sentido, puede concluirse que el precio que los operadores estarán dispuestos a pagar por el espectro de la banda de 700 MHz dependerá de si ya tienen disponible espectro en la banda de 800 MHz. Sin embargo, dado que la competencia por ese espectro será menor, los ingresos esperables en las licitaciones de esta nueva banda serán en general menores, a pesar de que para algunos operadores este espectro sería tan valioso como el de 800 MHz. En segundo lugar, en relación con el despliegue de femtoceldas pueden extraerse algunas conclusiones en términos de ahorro de costes de despliegue y también de cara a la viabilidad de los modelos de negocio que posibilitan. El ahorro que supone la introducción de femtoceldas en el despliegue de una red LTE frente al caso de un despliegue exclusivamente macrocelular se ha demostrado que es mayor cuanto menor es el ancho de banda disponible para la red macrocelular. En esta línea, para un operador convergente el despliegue de femtoceldas tiene sentido económico si el ancho de banda disponible es escaso (en torno a 2x10 MHz), que, en el caso de España, puede reflejar el caso de los operadores del segmento fijo que son nuevos entrantes en el móvil. Por otro lado, los modelos de acceso abierto son interesantes para operadores exclusivamente móviles, porque consiguen flexibilizar los costes sustituyendo estaciones base macrocelulares por el despliegue de femtoceldas, pero necesitan desplegarse en zonas con una densidad de población relativamente elevada para que éstas descarguen tráfico de varios usuarios de la red macrocelular simultáneamente. No obstante, las femtoceldas son beneficiosas en todo caso si es el usuario quien asume los costes de la femtocelda y el backhaul, lo que sólo parece probable si se integran en el modelo de negocio de comercialización de nuevos servicios. Por tanto, el despliegue de femtoceldas en buena parte de la casuística estudiada sólo tiene sentido si consiguen aumentar los ingresos por usuario comercializando servicios de valor añadido que necesiten calidad de servicio garantizada y exploten a la vez de esa forma su principal ventaja competitiva respecto a la tecnología WiFi. Finalmente, en relación con el papel de la tecnología LTE para la provisión de servicios de acceso fijo inalámbrico para la banda ancha de 30 Mbps, se ha desarrollado un modelo TD-LTE y mediante la metodología de análisis tecnoeconómico se ha realizado un estudio prospectivo para el caso de España. Los resultados obtenidos preciden una huella de cobertura de FTTH del 74% para 2020, y demuestran que una red TD-LTE en la banda de 3,5 GHz resulta viable para aumentar la cobertura de servicios de 30 Mbps en 14 puntos porcentuales. Junto con la consideración de la cobertura de otras redes, la cobertura de 30 Mbps de acuerdo a la viabilidad de los despliegues alcanzaría el 95% en España en el año 2020. Como resumen, los resultados obtenidos muestran en todos los casos la capacidad de la tecnología LTE para afrontar nuevos desafíos en relación con el aumento del tráfico móvil, especialmente crítico en las zonas más urbanas, y el cierre de la brecha digital en el acceso a la banda ancha rápida en las zonas más rurales. ABSTRACT The LTE standard has been pointed out as one of the keys for telecom operators to address the demand growth in mobile traffic foreseen for the next years in a cost-efficient way, since its core network is more scalable and its radio interface more flexible than those of its predecessor technologies. On the other hand, regulators need to guarantee an adequate, equitable and non-discriminatory access to radio spectrum, which enable a favorable environment for the deployment of advanced mobile communication networks. Despite the reform of the spectrum regulatory framework in Europe, which allowed for the deployment of new technologies in the historic GSM bands, additional spectrum has been allocated to IMT systems in new frequency bands, what in turn has set out new challenges for technology and regulation. The current fragmentation of available spectrum in very different frequency bands has boosted the development of carrier aggregation techniques in most recent releases of the LTE standard, which permit a better exploitation of radio resources as a whole. Nonetheless, spectrum below 1 GHz is still scarce for mobile networks, since mobile traffic increases at a more rapid pace than spectral efficiency and spectrum resources. The 900 MHz frequency band is still being used for GSM services, what has worsen the dispute between mobile communication services and terrestrial broadcasting services for the upper part of the UHF band. Concretely, the 700 MHz frequency band has been pointed out as one of the next bands to be allocated to mobile in order to increase available spectrum. However, its release by current Digital Terrestrial Television networks is challenging in Member States where it constitutes the main free access audiovisual platform, opening up a new debate around the audiovisual model in the long term in Europe. On the other hand, public policies of the present decade to promote fast and ultrafast broadband access has established very ambitious objectives for the year 2020, both at European and national levels. Universalization of 30 Mbps broadband access networks constitutes one of the main challenges. Expectations raised by LTE technology and the allocation of new frequency bands has lead fixed wireless access (FWA) services to acquire special relevance in light of public policy objectives, which will not be met but with a compendium of different technologies, as different involved stakeholders have acknowledged. This PhD Dissertation develops techno-economic models to carry out a prospective analysis for three cases of special relevance in LTE networks’ deployment: the spectrum pricing of the 700 MHz frequency band, an assessment of new business models and cost reduction considering femtocell technologies, and the feasibility of LTE fixed wireless access networks to close the 30 Mbps broadband access gap in rural areas. In the first place and regarding the application of techno-economic analysis for 700 MHz spectrum pricing, obtained results reveal two core issues. First of all, the need to allocate more spectrum for operators in order to fulfill mobile traffic demand in the mid-term. Secondly, there is a substantial difference in deployment costs for a LTE network when there is sub-1GHz spectrum available and when there is not, but this difference decreases as additional sub-1GHz spectrum is added. Thus, the allocation of 700 MHz band to mobile communication services would cause a relevant reduction in deployment costs if the operator does not count on spectrum in the 800 MHz, but not if it already has been assigned spectrum in low frequencies for the deployment. In this regard, the price operators will be willing to pay for 700 MHz spectrum will depend on them having already spectrum in the 800 MHz frequency band or not. However, since competition for the new spectrum will not be so strong, expected incomes from 700 MHz spectrum awards will be generally lower than those from the digital dividend, despite this spectrum being as valuable as 800 MHz spectrum for some operators. In the second place, regarding femtocell deployment, some conclusions can be drawn in terms of deployment cost savings and also with reference to the business model they enable. Savings provided by a joint macro-femto LTE network as compared to an exclusively macrocellular deployment increase as the available bandwidth for the macrocells decreases. Therefore, for a convergent operator the deployment of femtocells can only have economic sense if the available bandwidth is scarce (around 2x10 MHz), which might be the case of fix market operators which are new entrant in mobile market. Besides, open access models are interesting for exclusively mobile operators, since they make costs more flexible by substituting macrocell base stations by femtocells, but they need to be deployed relatively densely populated areas so that they can offload traffic from several macrocell users simultaneously. Nonetheless, femtocells are beneficial in all cases if the user assumes both femtocell and backhaul costs, which only seems probable if they are integrated in a business model commercializing new services. Therefore, in many of the cases analyzed femtocell deployment only makes sense if they increase revenues per user through new added value services which need from guaranteed quality of service, thus exploiting its main competitive advantage compared to WiFi. Finally, regarding the role of LTE technology in the provision of fixed wireless access services for 30 Mbps broadband, a TD-LTE model has been developed and a prospective study has been carried out through techno-economic methodology for the Spanish case. Obtained results foresee a FTTH coverage footprint of 74% households for 2020, and prove that a TD-LTE network in the 3.5 GHz band results feasible to increase 30 Mbps service coverage in additional 14 percentage points. To sum up, obtained results show LTE technology capability to address new challenges regarding both mobile traffic growth, particularly critical in urban zones, and the current digital divide in fast broadband access in most rural zones.
Resumo:
Los sedimentos continentales (Plioceno-Cuaternario) que afloran en el sector central de la Cuenca de Guadix (Sur de España) muestran una ciclicidad de 100 ka consistente en la alternancia de depósitos de abanicos aluviales y sedimentos fluvio-lacustres. Durante el Plioceno y el Pleistoceno la Cuenca de Guadix era endorreica, y se caracterizaba por la existencia de un sistema axial fluvial y una orla marginal de abanicos aluviales transversales. En la zona de estudio, estos sistemas estaban relacionados lateralmente, ocupando de forma alterna el valle axial en el sector central de la Cuenca de Guadix. La edad estimada para la alternancia, ca. 100 ka, cae en la banda de excentricidad de alta frecuencia de Milankovitch. Estas fases podrían interpretarse como el resultado de máximos de excentricidad (inviernos más largos y fríos, con mayor volumen de precipitaciones que favorecerían las progradaciones de los abanicos) o de excentricidad mínima (períodos más secos y fríos, con una cubierta vegetal más escasa en las áreas fuente y, por tanto, un mayor aporte de sedimento por precipitaciones muy concentradas en el tiempo al sistema aluvial). Se muestra cómo los datos paleomagnéticos no son lo suficientemente precisos para proporcionar una buena correlación de las fases de progradación con la curva de excentricidad de Laskar et al. (2004), por lo que se pone en duda su precisión a la hora de determinar el significado climático de la ciclicidad.
Resumo:
La percepción de profundidad se hace imprescindible en muchas tareas de manipulación, control visual y navegación de robots. Las cámaras de tiempo de vuelo (ToF: Time of Flight) generan imágenes de rango que proporcionan medidas de profundidad en tiempo real. No obstante, el parámetro distancia que calculan estas cámaras es fuertemente dependiente del tiempo de integración que se configura en el sensor y de la frecuencia de modulación empleada por el sistema de iluminación que integran. En este artículo, se presenta una metodología para el ajuste adaptativo del tiempo de integración y un análisis experimental del comportamiento de una cámara ToF cuando se modifica la frecuencia de modulación. Este método ha sido probado con éxito en algoritmos de control visual con arquitectura ‘eye-in-hand’ donde el sistema sensorial está compuesto por una cámara ToF. Además, la misma metodología puede ser aplicada en otros escenarios de trabajo.
Resumo:
Incluye el texto de : Breve, 1802-09-10 ; Bula,1804-05-15 ; Breve, 1804-05-15 ; Breve, 1804-05-15 ; Breve, 1804-05-15 ; Breve, 1805-03-15 ; Breve, 1805-10-15
Resumo:
Tesis, Univ. Central (Madrid), 1863.
Resumo:
Mode of access: Internet.
Resumo:
Il cuore è uno dei principali organi vitali dell’organismo umano e la sua fisiologica attività è indispensabile per sostenere uno stile di vita conforme alle esigenze del singolo individuo. Le aritmie cardiache, alterazioni del ritmo, possono compromettere o limitare la vita di un paziente che ne è affetto. Specifiche aritmie cardiache vengono trattate con l’impianto di dispositivi cardiaci impiantabili, i defibrillatori, che generano una stimolazione elettrica nel tessuto cardiaco allo scopo di ripristinare un ritmo cardiaco fisiologico. Il presente elaborato descrive come tali dispositivi siano in grado di correggere le aritmie cardiache, garantendo la sicurezza del paziente e permettendogli di svolgere le normali attività quotidiane . Il primo capitolo andrà ad analizzare il cuore dal punto di vista anatomico e fisiologico per capirne il funzionamento non affetto da patologie. Il secondo capitolo concentrerà l’analisi sui defibrillatori impiantabili per stimolazione cardiaca (ICD), facendo luce sulla storia, sulle funzioni primarie,sui componenti interni,sulle patologie legate all’utilizzo,sulle tipologie presenti in commercio e sul metodo d’impianto. Il terzo capitolo è incentrato sul monitoraggio remoto degli ICD (home-monitoring), attraverso il quale il paziente può trasmettere per via transtelefonica al centro cardiologico di riferimento i dati tecnici e clinici desumibili dall’interrogazione del dispositivo impiantato, senza necessità di ricorrere al controllo ambulatoriale tradizionale. L’home-monitoring nei pazienti portatori di dispositivo impiantabile si è dimostrato efficace per l’individuazione di malfunzionamenti e di instabilità cliniche in misura sovrapponibile rispetto al controllo ambulatoriale tradizionale, offrendo però significativi vantaggi in termini di qualità della vita e di gestione delle risorse sanitarie. Infine saranno presentate le conclusioni di tale elaborato.
Resumo:
Esta investigación tiene como objetivo determinar si los anuncios de cambios de CEO y presidentes de Directorio de las empresas listadas en la Bolsa de Valores de Lima (BVL) afectan el valor de la firma en los días cercanos al anuncio. Fue la pronta salida de Steve Jobs como CEO de Apple Inc., a causa de una enfermedad mortal, lo que nos generó el cuestionamiento respecto a cuál sería el desempeño que tienen las acciones cuyas compañías pasan por eventos similares. Como se sabe, el mercado castigó la acción de Apple el día de la muerte de Steve Jobs, con caídas superiores al 2% el día del anuncio. ¿Tendrían los mercados desarrollados y emergentes el mismo comportamiento?, ¿los eventos de cambio de CEO generan las mismas reacciones en los países emergentes? Grande fue nuestra sorpresa al observar, a nivel local, cambios en la gerencia general como en Backus & Johnston (3/9/2013) sin un efecto significativo en el mercado, pues incluso el mercado no negoció dicho valor hasta el 19/9/2013. Con el objetivo de obtener una respuesta a las consultas inicialmente planteadas, se aplicó la metodología denominada Event Analysis, la cual ya ha sido utilizada para evaluar la existencia de retornos anormales ante cambios en CEO y presidentes de Directorio en mercados desarrollados como EE. UU., Países Bajos, Australia, España, etc., y también en mercados emergentes como Colombia, Chile y México. Nuestro estudio para el mercado peruano consistió en una muestra conformada por las cincuenta empresas cuyas acciones son las de mayor frecuencia de negociación en la BVL. Se tomó en consideración todos los eventos de cambio de CEO y presidentes de Directorio entre 1992 y el 2014. De acuerdo con los resultados de la investigación realizada, la existencia de retornos anormales en los cambios de CEO y presidentes de Directorio no son estadísticamente significativos, por lo que no podrían ser usado para generar estrategias del tipo Event-driven por parte de los hedge funds. La razón predominante es la alta volatilidad de los resultados y la poca profundidad del mercado que cuenta con poca liquidez; asimismo, el hecho de tener eventos relevantes que no son tomados en cuenta por el mercado.
Resumo:
El clima es uno de los factores más e studiados a n ivel mundial y el más utilizado para la elaboración de planes de conservación de suelos y agua , construcción de obras hidráulicas que den un mejor uso y aprovechamiento de los recursos naturales. La construcción de C urvas de Intensidad – Duración – Frecuen cia como herramienta para la toma de decisión en el manejo, control y aprovechamiento del exceso de la precipitación es relevante para las zonas productivas y de escases de agua. El Objetivo de la investigación fue analizar el comportamiento de la s curvas IDF en la Cuenca N°68 con diferentes períodos de retorno de 5, 10, 15, 20 y 30 años con duraciones de 5, 10, 15, 30, 60 y 1 20 minutos. Se compararon dos modelos estadísticos Gumbel Tipo I y Aparicio 1997, ambos métodos permitieron es timar la intensidad de precipitación para los diferentes períodos de retorno. Para la selección de las estaciones pluviográficas se tomó como criterio las estaciones que proporcionaran la información necesaria para el periodo analizado 1975 - 1989 (Estación Aeropuerto Augusto C esa Sandino, Estación Tola, Estación Nandaime, Estación Masatepe Campos Azules). Al generar las curvas se presentaron algunos inconvenientes en la E stación Masatepe Campos A zules , esto fue ocasionado por posibles fallas en las estaciones pluviográficas como por ejemplo faltan de tinta en el pluviógrafo , cambio de operador, etc . El método de Gumbel Tipo I es el que nos brinda información más ajusta das a las condiciones del área de estudio ya que la prueba ajuste de bondad ajusto perfectamente los datos al mod elo estadístico mejorando los índices de probabilidad, en cambio el modelo estadístico Aparicio, 1997 sobre estima los valores de intensidad en los diferentes períodos de retornos, esto se observa al comparar los datos analizados con los datos calculados, los cuales presentan porcentaj es de sobrestimación del 7-54 %.
Resumo:
Especialista en Anestesiología