1000 resultados para SISTEMA INTEGRADO DE TRANSPORTE MASIVO


Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo del presente trabajo es describir la experiencia de implementación del Sistema Integrado de Gestión Bibliotecaria (SIGB) Koha en una biblioteca especializada en el campo de las ciencias sociales, la Biblioteca de Ciencias Sociales "Enzo Faletto" de la Facultad Latinoamericana de Ciencias Sociales, Sede Académica Argentina. El software seleccionado responde a la intención de adaptar sus procesos a los avances tecnológicos y estándares internacionales que permitan la interoperabilidad con otros sistemas, así como al trabajo cooperativo con otras bibliotecas que facilite el intercambio de datos. De igual forma se corresponde con la política institucional de la Facultad de utilización de software libre. Se exponen las etapas de trabajo aplicadas para el cambio de sistema: tareas iniciales de evaluación de todos los tipos de datos registrados en los catálogos de la biblioteca y las correcciones y homogeneización de los mismos. Asimismo, se detalla el proceso de migración, a través de una proceso de reformateo, de los formatos CEPAL y RELAP, que incluyen registros bibliográficos de ;obras monográficas, artículos y revistas en diversos soportes físicos, al formato MARC21 empleado por Koha. Se destaca la captación de la experiencia realizada por una biblioteca universitaria en este aspecto para resolver de modo cooperativo la problemática de la migración de datos. Se presenta también una de las principales dificultades de la biblioteca de no contar con un número de identificación unívoco que identifique cada ítem existente en su colección, requisito indispensable para todos los SIGB, y la solución adoptada ante esta problemática. Finalmente, se exponen la etapa ;de instalación y configuración del software en su versión 3.16.01.000, y las tareas de adaptación y ajustes del catálogo para su consulta en línea por los usuarios finales, con opciones enriquecidas para las búsquedas de diferente tipo y la navegabilidad de los resultados

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo del presente trabajo es describir la experiencia de implementación del Sistema Integrado de Gestión Bibliotecaria (SIGB) Koha en una biblioteca especializada en el campo de las ciencias sociales, la Biblioteca de Ciencias Sociales "Enzo Faletto" de la Facultad Latinoamericana de Ciencias Sociales, Sede Académica Argentina. El software seleccionado responde a la intención de adaptar sus procesos a los avances tecnológicos y estándares internacionales que permitan la interoperabilidad con otros sistemas, así como al trabajo cooperativo con otras bibliotecas que facilite el intercambio de datos. De igual forma se corresponde con la política institucional de la Facultad de utilización de software libre. Se exponen las etapas de trabajo aplicadas para el cambio de sistema: tareas iniciales de evaluación de todos los tipos de datos registrados en los catálogos de la biblioteca y las correcciones y homogeneización de los mismos. Asimismo, se detalla el proceso de migración, a través de una proceso de reformateo, de los formatos CEPAL y RELAP, que incluyen registros bibliográficos de ;obras monográficas, artículos y revistas en diversos soportes físicos, al formato MARC21 empleado por Koha. Se destaca la captación de la experiencia realizada por una biblioteca universitaria en este aspecto para resolver de modo cooperativo la problemática de la migración de datos. Se presenta también una de las principales dificultades de la biblioteca de no contar con un número de identificación unívoco que identifique cada ítem existente en su colección, requisito indispensable para todos los SIGB, y la solución adoptada ante esta problemática. Finalmente, se exponen la etapa ;de instalación y configuración del software en su versión 3.16.01.000, y las tareas de adaptación y ajustes del catálogo para su consulta en línea por los usuarios finales, con opciones enriquecidas para las búsquedas de diferente tipo y la navegabilidad de los resultados

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo del presente trabajo es describir la experiencia de implementación del Sistema Integrado de Gestión Bibliotecaria (SIGB) Koha en una biblioteca especializada en el campo de las ciencias sociales, la Biblioteca de Ciencias Sociales "Enzo Faletto" de la Facultad Latinoamericana de Ciencias Sociales, Sede Académica Argentina. El software seleccionado responde a la intención de adaptar sus procesos a los avances tecnológicos y estándares internacionales que permitan la interoperabilidad con otros sistemas, así como al trabajo cooperativo con otras bibliotecas que facilite el intercambio de datos. De igual forma se corresponde con la política institucional de la Facultad de utilización de software libre. Se exponen las etapas de trabajo aplicadas para el cambio de sistema: tareas iniciales de evaluación de todos los tipos de datos registrados en los catálogos de la biblioteca y las correcciones y homogeneización de los mismos. Asimismo, se detalla el proceso de migración, a través de una proceso de reformateo, de los formatos CEPAL y RELAP, que incluyen registros bibliográficos de ;obras monográficas, artículos y revistas en diversos soportes físicos, al formato MARC21 empleado por Koha. Se destaca la captación de la experiencia realizada por una biblioteca universitaria en este aspecto para resolver de modo cooperativo la problemática de la migración de datos. Se presenta también una de las principales dificultades de la biblioteca de no contar con un número de identificación unívoco que identifique cada ítem existente en su colección, requisito indispensable para todos los SIGB, y la solución adoptada ante esta problemática. Finalmente, se exponen la etapa ;de instalación y configuración del software en su versión 3.16.01.000, y las tareas de adaptación y ajustes del catálogo para su consulta en línea por los usuarios finales, con opciones enriquecidas para las búsquedas de diferente tipo y la navegabilidad de los resultados

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El interés cada vez mayor por las redes de sensores inalámbricos pueden ser entendido simplemente pensando en lo que esencialmente son: un gran número de pequeños nodos sensores autoalimentados que recogen información o detectan eventos especiales y se comunican de manera inalámbrica, con el objetivo final de entregar sus datos procesados a una estación base. Los nodos sensores están densamente desplegados dentro del área de interés, se pueden desplegar al azar y tienen capacidad de cooperación. Por lo general, estos dispositivos son pequeños y de bajo costo, de modo que pueden ser producidos y desplegados en gran numero aunque sus recursos en términos de energía, memoria, velocidad de cálculo y ancho de banda están enormemente limitados. Detección, tratamiento y comunicación son tres elementos clave cuya combinación en un pequeño dispositivo permite lograr un gran número de aplicaciones. Las redes de sensores proporcionan oportunidades sin fin, pero al mismo tiempo plantean retos formidables, tales como lograr el máximo rendimiento de una energía que es escasa y por lo general un recurso no renovable. Sin embargo, los recientes avances en la integración a gran escala, integrado de hardware de computación, comunicaciones, y en general, la convergencia de la informática y las comunicaciones, están haciendo de esta tecnología emergente una realidad. Del mismo modo, los avances en la nanotecnología están empezando a hacer que todo gire entorno a las redes de pequeños sensores y actuadores distribuidos. Hay diferentes tipos de sensores tales como sensores de presión, acelerómetros, cámaras, sensores térmicos o un simple micrófono. Supervisan las condiciones presentes en diferentes lugares tales como la temperatura, humedad, el movimiento, la luminosidad, presión, composición del suelo, los niveles de ruido, la presencia o ausencia de ciertos tipos de objetos, los niveles de tensión mecánica sobre objetos adheridos y las características momentáneas tales como la velocidad , la dirección y el tamaño de un objeto, etc. Se comprobara el estado de las Redes Inalámbricas de Sensores y se revisaran los protocolos más famosos. Así mismo, se examinara la identificación por radiofrecuencia (RFID) ya que se está convirtiendo en algo actual y su presencia importante. La RFID tiene un papel crucial que desempeñar en el futuro en el mundo de los negocios y los individuos por igual. El impacto mundial que ha tenido la identificación sin cables está ejerciendo fuertes presiones en la tecnología RFID, los servicios de investigación y desarrollo, desarrollo de normas, el cumplimiento de la seguridad y la privacidad y muchos más. Su potencial económico se ha demostrado en algunos países mientras que otros están simplemente en etapas de planificación o en etapas piloto, pero aun tiene que afianzarse o desarrollarse a través de la modernización de los modelos de negocio y aplicaciones para poder tener un mayor impacto en la sociedad. Las posibles aplicaciones de redes de sensores son de interés para la mayoría de campos. La monitorización ambiental, la guerra, la educación infantil, la vigilancia, la micro-cirugía y la agricultura son solo unos pocos ejemplos de los muchísimos campos en los que tienen cabida las redes mencionadas anteriormente. Estados Unidos de América es probablemente el país que más ha investigado en esta área por lo que veremos muchas soluciones propuestas provenientes de ese país. Universidades como Berkeley, UCLA (Universidad de California, Los Ángeles) Harvard y empresas como Intel lideran dichas investigaciones. Pero no solo EE.UU. usa e investiga las redes de sensores inalámbricos. La Universidad de Southampton, por ejemplo, está desarrollando una tecnología para monitorear el comportamiento de los glaciares mediante redes de sensores que contribuyen a la investigación fundamental en glaciología y de las redes de sensores inalámbricos. Así mismo, Coalesenses GmbH (Alemania) y Zurich ETH están trabajando en diversas aplicaciones para redes de sensores inalámbricos en numerosas áreas. Una solución española será la elegida para ser examinada más a fondo por ser innovadora, adaptable y polivalente. Este estudio del sensor se ha centrado principalmente en aplicaciones de tráfico, pero no se puede olvidar la lista de más de 50 aplicaciones diferentes que ha sido publicada por la firma creadora de este sensor específico. En la actualidad hay muchas tecnologías de vigilancia de vehículos, incluidos los sensores de bucle, cámaras de video, sensores de imagen, sensores infrarrojos, radares de microondas, GPS, etc. El rendimiento es aceptable, pero no suficiente, debido a su limitada cobertura y caros costos de implementación y mantenimiento, especialmente este ultimo. Tienen defectos tales como: línea de visión, baja exactitud, dependen mucho del ambiente y del clima, no se puede realizar trabajos de mantenimiento sin interrumpir las mediciones, la noche puede condicionar muchos de ellos, tienen altos costos de instalación y mantenimiento, etc. Por consiguiente, en las aplicaciones reales de circulación, los datos recibidos son insuficientes o malos en términos de tiempo real debido al escaso número de detectores y su costo. Con el aumento de vehículos en las redes viales urbanas las tecnologías de detección de vehículos se enfrentan a nuevas exigencias. Las redes de sensores inalámbricos son actualmente una de las tecnologías más avanzadas y una revolución en la detección de información remota y en las aplicaciones de recogida. Las perspectivas de aplicación en el sistema inteligente de transporte son muy amplias. Con este fin se ha desarrollado un programa de localización de objetivos y recuento utilizando una red de sensores binarios. Esto permite que el sensor necesite mucha menos energía durante la transmisión de información y que los dispositivos sean más independientes con el fin de tener un mejor control de tráfico. La aplicación se centra en la eficacia de la colaboración de los sensores en el seguimiento más que en los protocolos de comunicación utilizados por los nodos sensores. Las operaciones de salida y retorno en las vacaciones son un buen ejemplo de por qué es necesario llevar la cuenta de los coches en las carreteras. Para ello se ha desarrollado una simulación en Matlab con el objetivo localizar objetivos y contarlos con una red de sensores binarios. Dicho programa se podría implementar en el sensor que Libelium, la empresa creadora del sensor que se examinara concienzudamente, ha desarrollado. Esto permitiría que el aparato necesitase mucha menos energía durante la transmisión de información y los dispositivos sean más independientes. Los prometedores resultados obtenidos indican que los sensores de proximidad binarios pueden formar la base de una arquitectura robusta para la vigilancia de áreas amplias y para el seguimiento de objetivos. Cuando el movimiento de dichos objetivos es suficientemente suave, no tiene cambios bruscos de trayectoria, el algoritmo ClusterTrack proporciona un rendimiento excelente en términos de identificación y seguimiento de trayectorias los objetos designados como blancos. Este algoritmo podría, por supuesto, ser utilizado para numerosas aplicaciones y se podría seguir esta línea de trabajo para futuras investigaciones. No es sorprendente que las redes de sensores de binarios de proximidad hayan atraído mucha atención últimamente ya que, a pesar de la información mínima de un sensor de proximidad binario proporciona, las redes de este tipo pueden realizar un seguimiento de todo tipo de objetivos con la precisión suficiente. Abstract The increasing interest in wireless sensor networks can be promptly understood simply by thinking about what they essentially are: a large number of small sensing self-powered nodes which gather information or detect special events and communicate in a wireless fashion, with the end goal of handing their processed data to a base station. The sensor nodes are densely deployed inside the phenomenon, they deploy random and have cooperative capabilities. Usually these devices are small and inexpensive, so that they can be produced and deployed in large numbers, and so their resources in terms of energy, memory, computational speed and bandwidth are severely constrained. Sensing, processing and communication are three key elements whose combination in one tiny device gives rise to a vast number of applications. Sensor networks provide endless opportunities, but at the same time pose formidable challenges, such as the fact that energy is a scarce and usually non-renewable resource. However, recent advances in low power Very Large Scale Integration, embedded computing, communication hardware, and in general, the convergence of computing and communications, are making this emerging technology a reality. Likewise, advances in nanotechnology and Micro Electro-Mechanical Systems are pushing toward networks of tiny distributed sensors and actuators. There are different sensors such as pressure, accelerometer, camera, thermal, and microphone. They monitor conditions at different locations, such as temperature, humidity, vehicular movement, lightning condition, pressure, soil makeup, noise levels, the presence or absence of certain kinds of objects, mechanical stress levels on attached objects, the current characteristics such as speed, direction and size of an object, etc. The state of Wireless Sensor Networks will be checked and the most famous protocols reviewed. As Radio Frequency Identification (RFID) is becoming extremely present and important nowadays, it will be examined as well. RFID has a crucial role to play in business and for individuals alike going forward. The impact of ‘wireless’ identification is exerting strong pressures in RFID technology and services research and development, standards development, security compliance and privacy, and many more. The economic value is proven in some countries while others are just on the verge of planning or in pilot stages, but the wider spread of usage has yet to take hold or unfold through the modernisation of business models and applications. Possible applications of sensor networks are of interest to the most diverse fields. Environmental monitoring, warfare, child education, surveillance, micro-surgery, and agriculture are only a few examples. Some real hardware applications in the United States of America will be checked as it is probably the country that has investigated most in this area. Universities like Berkeley, UCLA (University of California, Los Angeles) Harvard and enterprises such as Intel are leading those investigations. But not just USA has been using and investigating wireless sensor networks. University of Southampton e.g. is to develop technology to monitor glacier behaviour using sensor networks contributing to fundamental research in glaciology and wireless sensor networks. Coalesenses GmbH (Germany) and ETH Zurich are working in applying wireless sensor networks in many different areas too. A Spanish solution will be the one examined more thoroughly for being innovative, adaptable and multipurpose. This study of the sensor has been focused mainly to traffic applications but it cannot be forgotten the more than 50 different application compilation that has been published by this specific sensor’s firm. Currently there are many vehicle surveillance technologies including loop sensors, video cameras, image sensors, infrared sensors, microwave radar, GPS, etc. The performance is acceptable but not sufficient because of their limited coverage and expensive costs of implementation and maintenance, specially the last one. They have defects such as: line-ofsight, low exactness, depending on environment and weather, cannot perform no-stop work whether daytime or night, high costs for installation and maintenance, etc. Consequently, in actual traffic applications the received data is insufficient or bad in terms of real-time owed to detector quantity and cost. With the increase of vehicle in urban road networks, the vehicle detection technologies are confronted with new requirements. Wireless sensor network is the state of the art technology and a revolution in remote information sensing and collection applications. It has broad prospect of application in intelligent transportation system. An application for target tracking and counting using a network of binary sensors has been developed. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices in order to have a better traffic control. The application is focused on the efficacy of collaborative tracking rather than on the communication protocols used by the sensor nodes. Holiday crowds are a good case in which it is necessary to keep count of the cars on the roads. To this end a Matlab simulation has been produced for target tracking and counting using a network of binary sensors that e.g. could be implemented in Libelium’s solution. Libelium is the enterprise that has developed the sensor that will be deeply examined. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices. The promising results obtained indicate that binary proximity sensors can form the basis for a robust architecture for wide area surveillance and tracking. When the target paths are smooth enough ClusterTrack particle filter algorithm gives excellent performance in terms of identifying and tracking different target trajectories. This algorithm could, of course, be used for different applications and that could be done in future researches. It is not surprising that binary proximity sensor networks have attracted a lot of attention lately. Despite the minimal information a binary proximity sensor provides, networks of these sensing modalities can track all kinds of different targets classes accurate enough.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica:  Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool).  Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral.  Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx.  Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema.  Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As redes de sensores sem fio, aplicadas à automação do controle de ambientes representam um paradigma emergente da computação, onde múltiplos nós providos de sensores, sistemas computacionais autônomos e capacidade de comunicação sem fio, conformam uma rede cuja topologia altamente dinâmica permite adquirir informações sobre sistemas complexos sendo monitorados. Um dos fatores essenciais para obter um ganho na produtividade avícola é o controle da ambiência animal. Atualmente os métodos utilizados para o monitoramento e controle ambiental não podem considerar a grande quantidade de microambientes internos nos ambientes de produção animal e também requerem infraestruturas cabeadas complexas. Dentro desse contexto o objetivo deste trabalho foi desenvolver e testar um sistema automatizado de controle ambiental, através da utilização de sensores sem fio, que auxilie e proporcione maior segurança no controle de ambientes automatizados. O sistema monitora variáveis que influenciam na produtividade de aves, tais como temperatura e umidade e outras variáveis físico-químicas do aviário. A infraestrutura desenvolvida foi testada em um aviário experimental e resultou em um sistema seguro e com grande escalabilidade, que é capaz de controlar e monitorar o ambiente e ainda coletar e gravar dados. Foi utilizado o protocolo ZigBee® para gerenciar o fluxo de dados do sistema. Foram feitas análises da eficiência de comunicação do sistema no aviário, monitorando os pacotes de dados perdidos. Os testes demonstraram uma perda de dados de aproximadamente 2% dos pacotes enviados, demonstrando a eficiência das redes ZigBee® para gerenciar o fluxo de dados no interior do aviário. Desta forma, pode-se concluir que é possível e viável a implantação de uma rede ZigBee®, para automatizar ambientes de produção animal com coleta de dados em tempo real, utilizando um sistema integrado via internet, que compreende: instrumentação eletrônica, comunicação sem fio e engenharia de software\".

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Com esta dissertação pretende-se perceber qual a importância de um Sistema de Controlo Interno num processo de avaliação de desempenho na Administração Publica. Nesse sentido, e resultante da revisão de literatura, constata-se que a Auditoria tem vindo a assumir um papel preponderante na vida das instituições publicas e privadas, não se esgotando nos modelos de controlo meramente económico-financeiros, estabelecendo cada vez mais uma postura proactiva e de parceria estratégica na gestão das organizações. No que diz respeito ao Sistema Integrado de Gestão e Avaliação de Desempenho na Administração Publica(SIADAP) e passados quase 10 anos depois da sua aprovação, importa perceber o que pensam os seus protagonistas, avaliadores e avaliados. Para tal, propusemo-nos fazer um estudo, através de um inquérito por questionário, contando com a colaboração de 412 trabalhadores em funções publicas em instituições de ensino superior publico, do qual resultou um sinal de que apesar de grande parte dos trabalhadores fazerem um esforço para promover aquilo a que o SIADAP na sua essência se propôs, ou seja, a melhoria do desempenho e a qualidade dos serviços públicos, a analise de alguns comentários e sugestões indiciam que este processo está longe de ser consensual.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper prese nts the validation of the Performance Indicator System for Projects under Construction - SIDECC. The goal was to develop a system of performance indicators from the macroergonômica approach, con sidering criteria of usefulness , practicality and applicabilit y and the concept of continuous improveme nt in the construction industry . The validation process SIDECC consisted of three disti nct models . Modeling I corresponded to the theoretical development and valid ation of a system of indicators . Modeling II concern s the development and valida tion of multi - indicator system . For this modeling, we used the Mother of Use and Importance and Multivariate Analysis . Modeling III correspo nded to the validation situated , which consisted of a case study of a wo rk of construct ion of buildings , which were applied and anal yzed the results of modeling II . This work resulted in the development of an applied and tested for the construction of an integrated system of per formance indicators methodology , involving aspects of production , quality , e nvironmental, health and safety . It is inferred that the SIDECC can be applied, in full or in part , the construction companies as a whole, as we ll as in other economic sectors .

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con el objetivo de llevar a cabo el Proyecto de Centralización de Despacho de Vehículos y de Pasajeros del Transporte intermunicipal, se constituyó por Escritura Pública 5512 de 15 de octubre de 1967, otorgada en la Notaria 2ª. De Cali, la Sociedad Anónima denominada inicialmente Central de Transportes y posteriormente Centrales de Transportes S.A. con el propósito de procurar dar solución al problema de Transporte Masivo de Pasajeros por carretera mediante la construcción de Terminales de Transporte. Los objetivos propuestos para la Terminal fueron: Sociourbanístico, Control, Mejoramiento del nivel de servicio a los usuarios, creación de un polo de desarrollo, Aspectos urbanos, de tránsito y viales de la ciudad y Normatividad actual de la industria de transporte de pasajeros por carretera.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

147 p. El contenido del capítulo 6 está sujeto a confidencialidad.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação de Mestrado, Engenharia Elétrica e Eletrónica, Instituto Superior de Engenharia, Universidade do Algarve, 2014

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O Sistema Nacional de Proteção Civil tem vindo a registar alterações significativas nos últimos dez anos, desde a reestruturação que sofreu em 2006. No mesmo ano, deu-se a criação do Grupo de Intervenção de Proteção e Socorro, aumentando as competências e atribuições da Guarda Nacional Republicana. Com a maturação deste suprassistema, vários sistemas foram implementados para responder às necessidades, designadamente o Sistema Integrado de Operações de Proteção e Socorro, materializado pelo Dispositivo Integrado de Operações de Proteção e Socorro, bem como o aperfeiçoamento do Sistema de Gestão de Operações. Neste sistema, a Guarda insere-se num conjunto de agentes e entidades que concorrem para o mesmo fim, a proteção e socorro. Desta forma, esta investigação tem como objetivos analisar e avaliar o relacionamento entre a Guarda e os diversos agentes de proteção civil no espetro da proteção e socorro, salientando as potencialidades e as vulnerabilidades existentes no Sistema Nacional de Proteção Civil, bem como expor a relevância e a imprescindibilidade da Guarda. A presente investigação regeu-se por uma metodologia de caráter qualitativa, através da realização de inquéritos por entrevista a representantes de agentes e entidades de proteção civil e a elementos da estrutura operacional da Autoridade Nacional de Proteção Civil. Os resultados permitem concluir que, os sistemas implementados facilitam a coordenação e articulação, potenciando a existência de um bom relacionamento entre a Guarda e os agentes de proteção civil, e aumentando, desta forma, a sua eficiência. No entanto, verificam-se falhas a nível institucional, pois, o Sistema Integrado de Operações de Proteção e Socorro abrange entidades de vários Ministérios e entidades não estatais. Estas últimas constituem-se como agentes de proteção civil e assumem uma responsabilização diminuta quando existe atribuição de comando. Constatam-se também falhas no que diz respeito a normas, protocolos e procedimentos, nas relações interpessoais, falta de formação e desconhecimento das missões respeitantes a cada agente interveniente no sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el año de 1993 se implementó el “SICGE” (Sistema Integrado de Contabilidad Gubernamental del Estado) en 8 ministerios del Gobierno Central como un plan piloto, posteriormente se fueron incorporando las entidades autónomas y hospitales. Finalmente para el año 2000, el Ministerio de Hacienda, a través de la Dirección General de Contabilidad Gubernamental, instala este sistema contable computarizado inicialmente en 50 alcaldías, con la finalidad de que en un corto plazo se encuentren incorporadas la totalidad de municipalidades del país. Al finalizar el año 2004, las 262 alcaldías municipales contaban con el sistema contable citado anteriormente. En tal sentido y de acuerdo a la implementación del sistema de contabilidad gubernamental, se estandariza en las alcaldías el registro y control de los hechos económicos los cuales quedan reflejados en sus Estados Financieros definiendo en ellos todos sus recursos financieros y físicos que poseen y tomando en consideración el incremento de sus actividades ha surgido la necesidad de presentar una información financiera razonable; que sea útil para la toma de decisiones. Los bienes depreciables y no depreciables como parte de los recursos físicos que posee la municipalidad, y como un rubro importante dentro de los Estados Financieros, deberán ser controlados y registrados en las municipalidades a través de manuales de políticas y procedimientos, elaborados en base a las normas técnicas de control interno de cada municipalidad, en concordancia con la normas específicas de contabilidad Gubernamental ( emitidas por la Dirección General de Contabilidad Gubernamental). Precisamente esto motivó a realizar una propuesta en la que se pueda aportar una mejora a los controles ya existente sobre los bienes institucionales que poseen las municipalidades, siendo esto posible a través del diseño de un módulo para el control y registro de los bienes depreciables y no depreciables, permitiendo una integración con el software contable utilizado por las municipalidades. El método utilizado para el desarrollo del trabajo fue el hipotético deductivo, realizando la investigación bibliográfica y la de campo. La investigación se realizó con el total de la población de veintidós alcaldías municipales del departamento de la Libertad. De acuerdo a los resultados obtenidos durante la presente investigación se puede afirmar que un alto porcentaje de las municipalidades no cuentan con una persona que se encargue de la custodia de los bienes instituciones, por lo que al departamento de contabilidad se le ha delegado esta función. Las municipalidades del departamento de La Libertad en su mayoría no cuentan con políticas y procedimientos para el manejo y control de los bienes depreciables y no depreciables. Los resultados del estudio demuestran que un alto porcentaje de municipalidades considera necesario contar con un módulo automatizado que registre y controle los bienes instituciones, sin embargo la mayoría de ellas no cuentan con un software. Como resultado de la investigación se propone la creación de un módulo automatizado de control y registro de los bienes depreciables y no depreciables, el cual se encuentra relacionado con las políticas y procedimientos, que faciliten el control los bienes.La Dirección General de Contabilidad Gubernamental debe elaborar una norma específica que establezca lineamientos para un adecuado registro y presentación de las revaluaciones de los bienes institucionales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta investigación busca desde la logística inversa, mostrar como un producto tan implementado y desechado por la sociedad, puede generar un nuevo uso, e incluso la reintegración total de sus materias primas a la cadena de suministro, mostrando la estrecha relación que existe entre la logística inversa y la reutilización de productos fuera de uso. Para esto se analizara el manejo actual que tienen las llantas en Bogotá, planteando su flujo y dando a conocer el principal punto de falencia, que es la recolección y los diferentes sitios de acopio de estas. Los neumáticos o llantas son desechados anualmente en Bogotá sin medir las consecuencias ambientales que esto trae consigo, pues las quemas a cielo abierto de estos materiales y su almacenamiento inadecuado generan altos riesgos para su entorno y el medio ambiente. Además, el manejo inapropiado de llantas es una de las principales razones por la cual pasan a ser obsoletas al poco tiempo de uso. El proceso de fabricación de llantas es muy similar al proceso de cualquier producto, pues en resumen este cuenta con la implementación de sus materias primas, proceso de manufactura, una inspección final y como resultado un producto terminado, que al ser vendido muchas compañías se libran de la disposición final de las llantas. Pero ahí radica un punto a favor para la logística inversa, donde esta buscara la manera de darle un nuevo ciclo de vida a este producto, a través del reciclaje y la reutilización. Mediante esta investigación, se busca captar los principales lugares de acopio de llantas usadas en Bogotá, de manera que estos serán nuestros principales puntos de información para el proyecto, que permita plantear y definir de manera clara estrategias y conclusiones cualitativas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La producción de azúcar ha jugado un papel central en gran parte de la historia de Cuba, así como en Brasil. En algunos períodos de la historia de estos dos países se consideró esta actividad, tecnológicamente hablando, moderna, y en otros se mostraron retrasos y demoras.Durante el período que cubrimos, 1875-1929, el cultivo de caña de azúcar de Cuba fue el más desarrollado del mundo, presentando altos niveles de productividad. Ya la de Brasil estaba estancada en el tiempo, totalmente incapaz de competir en el mercado internacional.En Brasil, el estado de Sao Paulo se perfilaba como un productor emergente, dotado de una mayor capacidad de asimilación de la tecnología y la expansión del cultivo de caña de azúcar. En el proceso de despliegue de sus modernas plantas en primer lugar, el ejemplo de Cuba fue de grande influencia a los productores de Sao Paulo.Lo que pretendemos analizar con esta investigación es cómo el sistema cubano de transporte de la caña tuvo divulgación y fue asimilado parcialmente en el estado de Sao Paulo, que pronto se convertiría en el principal productor de azúcar en el Brasil.