877 resultados para SISTEMA GLOBAL DE NAVEGACION POR SATELITE
Resumo:
vulnerabilidad a deslizamientos ubicado en el Cerro Tamuga del cantón Paute, provincia del Azuay, la metodología empleada consiste en utilizar la técnica DGPS (Differential Global Positioning System), la misma que incluye el uso simultaneo de dos o más receptores, el método de medida empleado para las observaciones DGPS es el estático rápido con un tiempo de medida de diez minutos para cada hito, los resultados fueron comparados con mediciones realizadas con estación total, para lo que se aplicó el método de medida y cálculo de triangulación; que consiste en observar desde dos bases diferentes al mismo hito para realizar la triangulación y procesamiento de los datos. Durante la etapa de muestreo se realizó 20 campañas de medición con técnicas DGPS, monitoreando un total de 14 hitos, con técnicas convencionales (Topográficas) se realizó 7 campañas y se monitoreó 14 hitos. De estos datos se obtiene la diferencia entre la última y la primera medición tanto para valores de X, Y y Z, y por tanto se obtiene la variación de precisión para los dos métodos de medición (DGPS y Estación Total). Con los resultados (∆X, ∆Y, ∆Z) se realiza el análisis de la direccionalidad de los vectores de desplazamiento mediante la diferencia entre el promedio de todas las mediciones con el primer punto medido. Los resultados DGPS presentan menor variabilidad de los datos, por lo que se sugiere emplear esta técnica en la medición de desplazamiento en extensiones grandes. Con relación al caso de estudio del Cerro Tamuga, se determinó que mediante las mediciones con DGPS, éste no presenta movimientos, pero se deben continuar las campañas de monitoreo para analizar la situación a largo plazo.
Resumo:
En este artículo sostenemos que las dinámicas demográficas de los países de destino y de origen de la migración internacional (sociedades avanzadas y países periféricos), si bien son estructuralmente heterogéneas y diferenciadas, a través de la migración se combinan y complementan de manera recíproca, configurando un sistema global de reproducción demográfica, en que cada dinámica y estructura poblacional particular tiene un sentido y una función específica. En el caso de las sociedades de destino, se trata de la conjunción de dos procesos demográficos diferentes pero complementarios: el envejecimiento de la población y el advenimiento de la segunda transición demográfica. Por su parte, en el caso de las sociedades de origen, se trataría de la configuración de una coyuntura demográfica única en la historia, que se caracteriza por un elevado y sistemático incremento de la población en edades activas, que da origen a lo que se ha llamado bono demográfico. Al respecto, nuestra tesis es que la migración internacional constituye un mecanismo que permite la vinculación de ambas estructuras y dinámicas demográficas, generando un sistema de complementariedad entre ellas. Se conforma así una coyuntura, también única en la historia, en que se combinan los vacíos y carencias demográficas del actual régimen de reproducción de los países centrales, con los excedentes poblacionales que se producen en los países periféricos.
Resumo:
Se intenta esclarecer cómo ciertos factores materiales, en determinados momentos históricos, influyen en el retraso del surgimiento de un corpus teórico que dé cuenta, con la mayor exactitud, de la realidad social. Más precisamente, se pretende evidenciar las condiciones materiales que obstaculizan el surgimiento del concepto de sistema capitalista global, considerando que su objeto real ya estaba plenamente presente hacia la segunda mitad del siglo XIX. Para esto se ilustraran algunos esbozos del concepto, elaborados desde la periferia del sistema global que, independientemente de su pertinente enunciación, fueron bloqueados en su desarrollo por condiciones políticas e ideológicas particulares.
Resumo:
Esta innovación obtuvo un premio de la Consejería de Educación de la Comunidad de Madrid en 2003
Resumo:
Estudiar y poner en marcha la coordinación externa de un sistema global de actuación en el ámbito social, sanitario y educativo, con un marco de referencia general y un marco específico de actuación, el comunitario o autonómico. Centros de tratamiento de niños de 0 a 3 años de la Comunidad de Madrid con deficiencia o alto riesgo de padecerla, en el ámbito social, educativo y sanitario. Para el ámbito social se estudian 4 Centros del INSERSO y 16 Centros de Atención Temprana agrupados en FADEM, Federación de Asociaciones Pro Personas con Deficiencias Mentales de Madrid. Para el sanitario, 8 hospitales y 4 Servicios de Neonatología, Neuropediatría y de Rehabilitación Infantil. Y pra el educativo, 20 Equipos de Atención Temprana que atienden a 113 escuelas infantiles y 54 casas de niños. Primero se elabora un marco teórico con supuestos suceptibles de verificación como la existencia de campos de actuación y la necesidad de coordinación interinstitucional para aclarar el término de Atención Temprana y justificar teórica y prácticamente, la necesidad de dicha coordinación en el ámbito de la Atención Temprana en la Comunidad de Madrid. Después se realiza el estudio de campo con el análisis de muestras procedentes del ámbito social, del sanitario y del educativo. Hojas de registro de los datos para directores del centro escolar y coordinadores del Equipo de Atención Temprana. Cuestionarios para el educador, director, miembros del equipo psicopedagógico, es decir, psicólogo o pedagogo, profesor de apoyo, logopeda y asistente social. Son cuestionarios distintos para el ámbito educativo, sanitario y social. Y otros instrumentos para medir la relación entre los centros de Atención Temprana y el servicio hospitalario. Es una investigación aplicada, de carácter descriptivo, cuantitativo y con una metodología empírico-analítica. La relación entre el servicio social y educativo tiene mayor nivel de formalización, es más sólida, se basa en el contacto personal, y existe mayor ajuste de la información a las necesidades. La mayor solicitud de información es del servicio educativo al social y del social al sanitario. El servicio social encuentra dificultades para acceder a la información de los servicios sanitarios. La relación servicio educativo-servicio sanitario es mínimo. Todos señalan la necesidad de tiempo y recursos para manterner relaciones, y de poner en marcha un programa o convenio específico. La Comunidad de Madrid, en el ámbito de la Atención Temprana, carece de una actividad de comunicación entre las instituciones implicadas lo suficientemente intencional, formalizada, sistematizada y generalizada. Han desarrollado mecanismos de coordinación fruto de su actividad, distintos entre el servicio social-educativo y social-sanitario debido a la menor disponibilidad e intención comunicativa de los servicios sanitarios. Se propone sensibilizar sobre la importancia de la cooperación; realizar encuentros entre los distintos servicios para diseñar un plan de coordinación concreto y adaptado a la realidad; y comprometerse a aceptar el programa concreto de colaboración. Para ello la administración debe coordinar las principales líneas de actuación.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
A la hora de construir un túnel y dotarlo de las instalaciones previstas se llevan a cabo una gran cantidad de ensayos para verificar que las condiciones reales del sistema se adaptan a las especificaciones de proyecto lo que debe ser especialmente riguroso en lo relativo a las instalaciones de ventilación, por su gran relevancia en los escenarios de incendio. La imagen que se tiene habitualmente sobre los ensayos de ventilación en túneles suele corresponderse a lo que se conoce como ensayos de fuego. En realidad, una gran parte de los ensayos realizados en un túnel no son más que verificaciones de la funcionalidad de todos los sistemas que en él existen. Sin embargo, a diferencia de lo que suele pensarse, una verificación exhaustiva de su comportamiento requiere periodos de tiempo considerables en la fase de puesta en marcha que han de ser previstos. Para considerar que los ensayos realizados aseguren, no sólo el funcionamiento de los equipos en modo local, es decir, trabajando independientemente del resto de equipos, sino dentro del conjunto de las instalaciones, los ensayos a realizar deben abarcar aspectos relacionados en gran parte con el sistema de control y que deben desarrollarse simultáneamente. De forma general, los ensayos sobre el sistema de ventilación incluyen las comprobaciones de los equipos de forma individual, de la capacidad para cumplir los requisitos exigidos (ensayos de caracterización) y su funcionalidad como sistema global del túnel. Un último paso sería la realización de los ensayos de humos fríos y calientes.
Resumo:
El geoide, definido como la superficie equipotencial que mejor se ajusta (en el sentido de los mínimos cuadrados) al nivel medio del mar en una determinada época, es la superficie que utilizamos como referencia para determinar las altitudes ortométricas. Si disponemos de una superficie equipotencial de referencia como dátum altimétrico preciso o geoide local, podemos entonces determinar las altitudes ortométricas de forma eficiente a partir de las altitudes elipsoidales proporcionadas por el Sistema Global de Navegación por Satélite (Global Navigation Satellite System, GNSS ). Como es sabido uno de los problemas no resueltos de la geodesia (quizás el más importante de los mismos en la actualidad) es la carencia de un dátum altimétrico global (Sjoberg, 2011) con las precisiones adecuadas. Al no existir un dátum altimétrico global que nos permita obtener los valores absolutos de la ondulación del geoide con la precisión requerida, es necesario emplear modelos geopotenciales como alternativa. Recientemente fue publicado el modelo EGM2008 en el que ha habido una notable mejoría de sus tres fuentes de datos, por lo que este modelo contiene coeficientes adicionales hasta el grado 2190 y orden 2159 y supone una sustancial mejora en la precisión (Pavlis et al., 2008). Cuando en una región determinada se dispone de valores de gravedad y Modelos Digitales del Terreno (MDT) de calidad, es posible obtener modelos de superficies geopotenciales más precisos y de mayor resolución que los modelos globales. Si bien es cierto que el Servicio Nacional Geodésico de los Estados Unidos de América (National Geodetic Survey, NGS) ha estado desarrollando modelos del geoide para la región de los Estados Unidos de América continentales y todos sus territorios desde la década de los noventa, también es cierto que las zonas de Puerto Rico y las Islas Vírgenes Estadounidenses han quedado un poco rezagadas al momento de poder aplicar y obtener resultados de mayor precisión con estos modelos regionales del geoide. En la actualidad, el modelo geopotencial regional vigente para la zona de Puerto Rico y las Islas Vírgenes Estadounidenses es el GEOID12A (Roman y Weston, 2012). Dada la necesidad y ante la incertidumbre de saber cuál sería el comportamiento de un modelo del geoide desarrollado única y exclusivamente con datos de gravedad locales, nos hemos dado a la tarea de desarrollar un modelo de geoide gravimétrico como sistema de referencia para las altitudes ortométricas. Para desarrollar un modelo del geoide gravimétrico en la isla de Puerto Rico, fue necesario implementar una metodología que nos permitiera analizar y validar los datos de gravedad terrestre existentes. Utilizando validación por altimetría con sistemas de información geográfica y validación matemática por colocación con el programa Gravsoft (Tscherning et al., 1994) en su modalidad en Python (Nielsen et al., 2012), fue posible validar 1673 datos de anomalías aire libre de un total de 1894 observaciones obtenidas de la base de datos del Bureau Gravimétrico Internacional (BGI). El aplicar estas metodologías nos permitió obtener una base de datos anomalías de la gravedad fiable la cual puede ser utilizada para una gran cantidad de aplicaciones en ciencia e ingeniería. Ante la poca densidad de datos de gravedad existentes, fue necesario emplear un método alternativo para densificar los valores de anomalías aire libre existentes. Empleando una metodología propuesta por Jekeli et al. (2009b) se procedió a determinar anomalías aire libre a partir de los datos de un MDT. Estas anomalías fueron ajustadas utilizando las anomalías aire libre validadas y tras aplicar un ajuste de mínimos cuadrados por zonas geográficas, fue posible obtener una malla de datos de anomalías aire libre uniforme a partir de un MDT. Tras realizar las correcciones topográficas, determinar el efecto indirecto de la topografía del terreno y la contribución del modelo geopotencial EGM2008, se obtuvo una malla de anomalías residuales. Estas anomalías residuales fueron utilizadas para determinar el geoide gravimétrico utilizando varias técnicas entre las que se encuentran la aproximación plana de la función de Stokes y las modificaciones al núcleo de Stokes, propuestas por Wong y Gore (1969), Vanicek y Kleusberg (1987) y Featherstone et al. (1998). Ya determinados los distintos modelos del geoide gravimétrico, fue necesario validar los mismos y para eso se utilizaron una serie de estaciones permanentes de la red de nivelación del Datum Vertical de Puerto Rico de 2002 (Puerto Rico Vertical Datum 2002, PRVD02 ), las cuales tenían publicados sus valores de altitud elipsoidal y elevación. Ante la ausencia de altitudes ortométricas en las estaciones permanentes de la red de nivelación, se utilizaron las elevaciones obtenidas a partir de nivelación de primer orden para determinar los valores de la ondulación del geoide geométrico (Roman et al., 2013). Tras establecer un total de 990 líneas base, se realizaron dos análisis para determinar la 'precisión' de los modelos del geoide. En el primer análisis, que consistió en analizar las diferencias entre los incrementos de la ondulación del geoide geométrico y los incrementos de la ondulación del geoide de los distintos modelos (modelos gravimétricos, EGM2008 y GEOID12A) en función de las distancias entre las estaciones de validación, se encontró que el modelo con la modificación del núcleo de Stokes propuesta por Wong y Gore presentó la mejor 'precisión' en un 91,1% de los tramos analizados. En un segundo análisis, en el que se consideraron las 990 líneas base, se determinaron las diferencias entre los incrementos de la ondulación del geoide geométrico y los incrementos de la ondulación del geoide de los distintos modelos (modelos gravimétricos, EGM2008 y GEOID12A), encontrando que el modelo que presenta la mayor 'precisión' también era el geoide con la modificación del núcleo de Stokes propuesta por Wong y Gore. En este análisis, el modelo del geoide gravimétrico de Wong y Gore presento una 'precisión' de 0,027 metros en comparación con la 'precisión' del modelo EGM2008 que fue de 0,031 metros mientras que la 'precisión' del modelo regional GEOID12A fue de 0,057 metros. Finalmente podemos decir que la metodología aquí presentada es una adecuada ya que fue posible obtener un modelo del geoide gravimétrico que presenta una mayor 'precisión' que los modelos geopotenciales disponibles, incluso superando la precisión del modelo geopotencial global EGM2008. ABSTRACT The geoid, defined as the equipotential surface that best fits (in the least squares sense) to the mean sea level at a particular time, is the surface used as a reference to determine the orthometric heights. If we have an equipotential reference surface or a precise local geoid, we can then determine the orthometric heights efficiently from the ellipsoidal heights, provided by the Global Navigation Satellite System (GNSS). One of the most common and important an unsolved problem in geodesy is the lack of a global altimetric datum (Sjoberg, 2011)) with the appropriate precision. In the absence of one which allows us to obtain the absolute values of the geoid undulation with the required precision, it is necessary to use alternative geopotential models. The EGM2008 was recently published, in which there has been a marked improvement of its three data sources, so this model contains additional coefficients of degree up to 2190 and order 2159, and there is a substantial improvement in accuracy (Pavlis et al., 2008). When a given region has gravity values and high quality digital terrain models (DTM), it is possible to obtain more accurate regional geopotential models, with a higher resolution and precision, than global geopotential models. It is true that the National Geodetic Survey of the United States of America (NGS) has been developing geoid models for the region of the continental United States of America and its territories from the nineties, but which is also true is that areas such as Puerto Rico and the U.S. Virgin Islands have lagged behind when to apply and get more accurate results with these regional geopotential models. Right now, the available geopotential model for Puerto Rico and the U.S. Virgin Islands is the GEOID12A (Roman y Weston, 2012). Given this need and given the uncertainty of knowing the behavior of a regional geoid model developed exclusively with data from local gravity, we have taken on the task of developing a gravimetric geoid model to use as a reference system for orthometric heights. To develop a gravimetric geoid model in the island of Puerto Rico, implementing a methodology that allows us to analyze and validate the existing terrestrial gravity data is a must. Using altimetry validation with GIS and mathematical validation by collocation with the Gravsoft suite programs (Tscherning et al., 1994) in its Python version (Nielsen et al., 2012), it was possible to validate 1673 observations with gravity anomalies values out of a total of 1894 observations obtained from the International Bureau Gravimetric (BGI ) database. Applying these methodologies allowed us to obtain a database of reliable gravity anomalies, which can be used for many applications in science and engineering. Given the low density of existing gravity data, it was necessary to employ an alternative method for densifying the existing gravity anomalies set. Employing the methodology proposed by Jekeli et al. (2009b) we proceeded to determine gravity anomaly data from a DTM. These anomalies were adjusted by using the validated free-air gravity anomalies and, after that, applying the best fit in the least-square sense by geographical area, it was possible to obtain a uniform grid of free-air anomalies obtained from a DTM. After applying the topographic corrections, determining the indirect effect of topography and the contribution of the global geopotential model EGM2008, a grid of residual anomalies was obtained. These residual anomalies were used to determine the gravimetric geoid by using various techniques, among which are the planar approximation of the Stokes function and the modifications of the Stokes kernel, proposed by Wong y Gore (1969), Vanicek y Kleusberg (1987) and Featherstone et al. (1998). After determining the different gravimetric geoid models, it was necessary to validate them by using a series of stations of the Puerto Rico Vertical Datum of 2002 (PRVD02) leveling network. These stations had published its values of ellipsoidal height and elevation, and in the absence of orthometric heights, we use the elevations obtained from first - order leveling to determine the geometric geoid undulation (Roman et al., 2013). After determine a total of 990 baselines, two analyzes were performed to determine the ' accuracy ' of the geoid models. The first analysis was to analyze the differences between the increments of the geometric geoid undulation with the increments of the geoid undulation of the different geoid models (gravimetric models, EGM2008 and GEOID12A) in function of the distance between the validation stations. Through this analysis, it was determined that the model with the modified Stokes kernel given by Wong and Gore had the best 'accuracy' in 91,1% for the analyzed baselines. In the second analysis, in which we considered the 990 baselines, we analyze the differences between the increments of the geometric geoid undulation with the increments of the geoid undulation of the different geoid models (gravimetric models, EGM2008 and GEOID12A) finding that the model with the highest 'accuracy' was also the model with modifying Stokes kernel given by Wong and Gore. In this analysis, the Wong and Gore gravimetric geoid model presented an 'accuracy' of 0,027 meters in comparison with the 'accuracy' of global geopotential model EGM2008, which gave us an 'accuracy' of 0,031 meters, while the 'accuracy ' of the GEOID12A regional model was 0,057 meters. Finally we can say that the methodology presented here is adequate as it was possible to obtain a gravimetric geoid model that has a greater 'accuracy' than the geopotential models available, even surpassing the accuracy of global geopotential model EGM2008.
Resumo:
En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica: Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool). Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral. Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx. Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema. Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Química e Bioquímica
Resumo:
Este trabalho de investigação foi motivado pela preocupação em analisar a governação da área metropolitana de Lisboa como um fator determinante na resposta política aos problemas, desafios e oportunidades específicos deste território. O poder público existe para dar respostas assertivas e suficientes às exigências e necessidades da população que serve. O motivo essencial desta investigação é, desta forma, verificar se a solução governativa vigente na área metropolitana de Lisboa é capaz de responder com eficácia e eficiência às necessidades dos residentes e utilizadores deste extenso espaço urbano. As competências de âmbito metropolitano encontram-se distribuídas por vários organismos, entre os quais municípios, ministérios, comissão de coordenação e desenvolvimento regional, órgãos próprios da área metropolitana, empresas públicas e entidades privadas. Uma boa governação, ou governança, deste espaço exigiria uma eficaz coordenação entre estes diferentes atores, exigiria que não houvesse sobreposição de funções e, por fim, que cada uma das competências fosse desempenhada pelo ator territorial mais capaz de a desempenhar com elevado grau de eficiência. Concluiremos que esse nível de eficiência não está garantido na arquitetura institucional que gere a área metropolitana de Lisboa, e que as alterações feitas às leis fundamentais da distribuição de poderes não têm tido o efeito de alterar um paradigma que já se mostrou claramente inoperacional. As cidades ocupam, nos dias de hoje, uma posição central na organização do sistema global e das economias, tomando um lugar que foi, outrora, ocupado pelos impérios ou pelos Estados-nação. Trata-se essa mudança contemporânea de um efeito direto do complexo processo de globalização. Esse posicionamento estratégico das cidades gerou importantes mudanças na sua estrutura e no próprio conceito de cidade. Essas mudanças, porém, necessitavam ser acompanhadas de mudanças no modelo de governação das cidades, pois diferentes realidades necessitam de diferentes soluções de governo. O desenho de um modelo institucional eficaz para dar as respostas necessárias à área metropolitana de Lisboa exige um conhecimento profundo do território em estudo. Compreender as cidades contemporâneas e conhecer as propostas institucionais sugeridas por diferentes investigadores ao longo das últimas décadas é o primeiro passo desta investigação, depois do qual procuraremos analisar a metrópole de Lisboa, o modelo até então seguido, para sermos, por fim, capazes de o sujeitar a uma crítica construtiva que vise melhorá-lo para benefício da população e do próprio país.
Resumo:
Los autores consideran que el estudio del paisaje proporciona elementos muy ??tiles en el aprendizaje de la din??mica del entorno. Juzgan que los conocimientos extraidos del entorno, que permiten observar la realidad bajo un nuevo prisma, sirven para ser utilizados en un proceso de acercamiento de los alumnos hacia la comprensi??n de su medio, especialmente de aquellos cuya vida se encuentra m??s incardinada en el ambiente rural. Dado que el concejo de Aller es fundamentalmente rural, de monta??a y de gran belleza, los autores sienten la necesidad de desarrollar una ense??anza orientada al conocimiento de los recursos paisaj??sticos de la zona. El objetivo fundamental es impartir una ense??anza tendente a conformar una mentalidad educada en la sensibilidad ante el medio ambiente, en la comprensi??n de la existencia de una interrelaci??n de todos los elementos del sistema global en el que vivimos de un mundo de recursos limitados unos renovables y otros no. Se trata en definitiva de aprovechar el concejo como conjunto id??neo para la observaci??n en el terreno aspectos espaciales, paisaj??sitcos y bil??gicos que se relacionan con diversos temas de distintos niveles educativos. La metodolog??a utilizada consta de varias etapas: recogida de informaci??n, planificaci??n, recorridos, an??lisis de datos, elaboraci??n de materiales... Adem??s de recoger panor??micas generales de paisaje para recoger los cambios estacionales.
Resumo:
La papa juega un rol significativo en el sistema global de alimentación. Es una fuente importante de empleo e ingresos en las áreas rurales. En Colombia, es la principal actividad agrícola de las zonas andinas desarrollada por cerca de 90.000 familias. Se caracteriza por el uso intensivo de fertilizantes y plaguicidas, alta demanda de mano de obra rural no calificada, y por ser un cultivo disperso, aislado, de pequeños productores con limitado acceso a la tecnología. En el modelo de gestión para el sector papero en Cundinamarca se dividió en dos procesos principales de los cuales se desprenden en preparación de la tierra, negociación y adquisición de la semilla, cultivación de la semilla, inspección y control del cultivo, cosecha, almacenamiento, transporte, venta a intermediarios y finalmente colocación del producto en los canales de distribución.