1000 resultados para DESNUTRICION - PROCESAMIENTO DE DATOS


Relevância:

80.00% 80.00%

Publicador:

Resumo:

En el presente Trabajo Fin de Grado, de ahora en adelante TFG, se han realizado las operaciones de captura y procesamiento de datos, con el fin de obtener una serie de productos cartográficos. El diseño, tratamiento y edición de dichos datos se amplía hasta la aplicación de técnicas informáticas para desarrollar una Infraestructura de Datos Espaciales (IDE) en forma de geoportal. La localización del TFG es el área arqueológica de Geoktchik Depe, en la región del Dehistán,Turkmenistán. El proyecto desarrollado se puede dividir en dos líneas de actuación: cartografía e IDE. Ambas ramas se apoyan una a otra puesto que comparten la información recopilada en campo. Además, el geoportal obtenido se ejecuta mediante las capas de datos tratadas y editadas en la fase cartográfica. Las dos líneas presentadas podrían ser englobadas en una fase experimental que se inicia con la captura de datos y termina en la producción cartográfica tanto en formato papel como digital. Manteniendo como área común la captura de información realizada en campo, se procede a detallar brevemente las líneas de actuación: la cartografía incluye desde el diseño y gestión de la red fundamental hasta la impresión del mapa final, pasando por la creación y edición de los elementos cartografiados; respecto a la IDE, se ha creado un geoportal del yacimiento Geoktchik Depe que se apoya en los datos de la fase cartográfica y en la actualización de datos de una IDE de la zona,desarrollada en el Trabajo Fin de Máster de D. Óscar Luis Miguel Castro. La elaboración de esta fase culmina con la presentación de la información relacionada con el yacimiento a través de una página web. El geoportal se ha establecido mediante software libre. El TFG está estructurado de tal forma que sigue la norma UNE 157001:2014 que responde a los criterios generales para la elaboración de proyectos, [36].

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El objetivo que persigue el presente trabajo es el diseño de un sistema de interconexión basado en la tecnología WDM. Se presenta la comunicación entre dos Centros de Procesamiento de Datos (CPDs), localizados geográficamente distantes dentro de un entorno metropolitano. El punto de partida se establece sobre la base de una serie de requerimientos previos solicitados por un operador de telecomunicaciones, el cual pretende dotar de servicio mediante fibra óptica a varios centros de negocio dentro de la misma ciudad y, para ello, se solicita el diseño y la implementación de la solución lo que, en esencia, se tratará de un proyecto llave en mano. En este documento se expondrá el análisis del caso de estudio, la solución técnica desarrollada para satisfacer los requisitos requeridos por el cliente y la estimación económica del equipamiento e instalación del mismo. Del mismo modo, se establecerán líneas de trabajo futuras de cara a mejorar el sistema de comunicación implementado de acuerdo a las necesidades actuales y futuras, ya sea traducido en una mejora de las prestaciones o ahorro de costes. Para poder realizar el diseño de la solución, se establecen las bases teóricas de la tecnología WDM con el fin de disponer de los conocimientos necesarios para el estudio, diseño e implementación de la solución propuesta. ABSTRACT. The aim of this paper is to study the design of an interconnection system based on WDM technology. Communication will be means of two Data Center (DC) located at different geographical points within a metropolitan area. The starting point is based on a serie of demands requested by a telecommunications service provider, which claims to provide a communication service using fibre optics to several business centers within the same city and, to do this, it requires the design and deploy the solution that, will basically be a turnkey project. The paper analyzes the case of study, the technical solution which needs to be developed to fulfil the requirements required by the client and an estimate budget as regards the equipment and installation needed. In the same way, it describes the possible lines of work so as to improve implemented communication system taking into account the future needs, either related to improved performance or cost savings. To carry out the design of the solution, a theoretical basis of WDM technology is established in order to obtain the knowledge needed for the study, design and implementation of the proposed solution.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica:  Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool).  Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral.  Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx.  Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema.  Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La seguridad y fiabilidad de los procesos industriales son la principal preocupación de los ingenieros encargados de las plantas industriales. Por lo tanto, desde un punto de vista económico, el objetivo principal es reducir el costo del mantenimiento, el tiempo de inactividad y las pérdidas causadas por los fallos. Por otra parte, la seguridad de los operadores, que afecta a los aspectos sociales y económicos, es el factor más relevante a considerar en cualquier sistema Debido a esto, el diagnóstico de fallos se ha convertido en un foco importante de interés para los investigadores de todo el mundo e ingenieros en la industria. Los principales trabajos enfocados en detección de fallos se basan en modelos de los procesos. Existen diferentes técnicas para el modelado de procesos industriales tales como máquinas de estado, árboles de decisión y Redes de Petri (RdP). Por lo tanto, esta tesis se centra en el modelado de procesos utilizando redes de petri interpretadas. Redes de Petri es una herramienta usada en el modelado gráfico y matemático con la habilidad para describir información de los sistemas de una manera concurrente, paralela, asincrona, distribuida y no determinística o estocástica. RdP son también una herramienta de comunicación visual gráfica útil como lo son las cartas de flujo o diagramas de bloques. Adicionalmente, las marcas de las RdP simulan la dinámica y concurrencia de los sistemas. Finalmente, ellas tienen la capacidad de definir ecuaciones de estado específicas, ecuaciones algebraicas y otros modelos que representan el comportamiento común de los sistemas. Entre los diferentes tipos de redes de petri (Interpretadas, Coloreadas, etc.), este trabajo de investigación trata con redes de petri interpretadas principalmente debido a características tales como sincronización, lugares temporizados, aparte de su capacidad para procesamiento de datos. Esta investigación comienza con el proceso para diseñar y construir el modelo y diagnosticador para detectar fallos definitivos, posteriormente, la dinámica temporal fue adicionada para detectar fallos intermitentes. Dos procesos industriales, concretamente un HVAC (Calefacción, Ventilación y Aire Acondicionado) y un Proceso de Envasado de Líquidos fueron usados como banco de pruebas para implementar la herramienta de diagnóstico de fallos (FD) creada. Finalmente, su capacidad de diagnóstico fue ampliada en orden a detectar fallos en sistemas híbridos. Finalmente, un pequeño helicóptero no tripulado fue elegido como ejemplo de sistema donde la seguridad es un desafío, y las técnicas de detección de fallos desarrolladas en esta tesis llevan a ser una herramienta valorada, desde que los accidentes de las aeronaves no tripuladas (UAVs) envuelven un alto costo económico y son la principal razón para introducir restricciones de volar sobre áreas pobladas. Así, este trabajo introduce un proceso sistemático para construir un Diagnosticador de Fallos del sistema mencionado basado en RdR Esta novedosa herramienta es capaz de detectar fallos definitivos e intermitentes. El trabajo realizado es discutido desde un punto de vista teórico y práctico. El procedimiento comienza con la división del sistema en subsistemas para seguido integrar en una RdP diagnosticadora global que es capaz de monitorear el sistema completo y mostrar las variables críticas al operador en orden a determinar la salud del UAV, para de esta manera prevenir accidentes. Un Sistema de Adquisición de Datos (DAQ) ha sido también diseñado para recoger datos durante los vuelos y alimentar la RdP diagnosticadora. Vuelos reales realizados bajo condiciones normales y de fallo han sido requeridos para llevar a cabo la configuración del diagnosticador y verificar su comportamiento. Vale la pena señalar que un alto riesgo fue asumido en la generación de fallos durante los vuelos, a pesar de eso esto permitió recoger datos básicos para desarrollar el diagnóstico de fallos, técnicas de aislamiento, protocolos de mantenimiento, modelos de comportamiento, etc. Finalmente, un resumen de la validación de resultados obtenidos durante las pruebas de vuelo es también incluido. Un extensivo uso de esta herramienta mejorará los protocolos de mantenimiento para UAVs (especialmente helicópteros) y permite establecer recomendaciones en regulaciones. El uso del diagnosticador usando redes de petri es considerado un novedoso enfoque. ABSTRACT Safety and reliability of industrial processes are the main concern of the engineers in charge of industrial plants. Thus, from an economic point of view, the main goal is to reduce the maintenance downtime cost and the losses caused by failures. Moreover, the safety of the operators, which affects to social and economic aspects, is the most relevant factor to consider in any system. Due to this, fault diagnosis has become a relevant focus of interest for worldwide researchers and engineers in the industry. The main works focused on failure detection are based on models of the processes. There are different techniques for modelling industrial processes such as state machines, decision trees and Petri Nets (PN). Thus, this Thesis is focused on modelling processes by using Interpreted Petri Nets. Petri Nets is a tool used in the graphic and mathematical modelling with ability to describe information of the systems in a concurrent, parallel, asynchronous, distributed and not deterministic or stochastic manner. PNs are also useful graphical visual communication tools as flow chart or block diagram. Additionally, the marks of the PN simulate the dynamics and concurrence of the systems. Finally, they are able to define specific state equations, algebraic equations and other models that represent the common behaviour of systems. Among the different types of PN (Interpreted, Coloured, etc.), this research work deals with the interpreted Petri Nets mainly due to features such as synchronization capabilities, timed places, apart from their capability for processing data. This Research begins with the process for designing and building the model and diagnoser to detect permanent faults, subsequently, the temporal dynamic was added for detecting intermittent faults. Two industrial processes, namely HVAC (Heating, Ventilation and Air Condition) and Liquids Packaging Process were used as testbed for implementing the Fault Diagnosis (FD) tool created. Finally, its diagnostic capability was enhanced in order to detect faults in hybrid systems. Finally, a small unmanned helicopter was chosen as example of system where safety is a challenge and fault detection techniques developed in this Thesis turn out to be a valuable tool since UAVs accidents involve high economic cost and are the main reason for setting restrictions to fly over populated areas. Thus, this work introduces a systematic process for building a Fault Diagnoser of the mentioned system based on Petri Nets. This novel tool is able to detect both intermittent and permanent faults. The work carried out is discussed from theoretical and practical point of view. The procedure begins with a division of the system into subsystems for further integration into a global PN diagnoser that is able to monitor the whole system and show critical variables to the operator in order to determine the UAV health, preventing accidents in this manner. A Data Acquisition System (DAQ) has been also designed for collecting data during the flights and feed PN Diagnoser. Real flights carried out under nominal and failure conditions have been required to perform the diagnoser setup and verify its performance. It is worth noting that a high risk was assumed in the generation of faults during the flights, nevertheless this allowed collecting basic data so as to develop fault diagnosis, isolations techniques, maintenance protocols, behaviour models, etc. Finally, a summary of the validation results obtained during real flight tests is also included. An extensive use of this tool will improve preventive maintenance protocols for UAVs (especially helicopters) and allow establishing recommendations in regulations. The use of the diagnoser by using Petri Nets is considered as novel approach.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

LLas nuevas tecnologías orientadas a la nube, el internet de las cosas o las tendencias "as a service" se basan en el almacenamiento y procesamiento de datos en servidores remotos. Para garantizar la seguridad en la comunicación de dichos datos al servidor remoto, y en el manejo de los mismos en dicho servidor, se hace uso de diferentes esquemas criptográficos. Tradicionalmente, dichos sistemas criptográficos se centran en encriptar los datos mientras no sea necesario procesarlos (es decir, durante la comunicación y almacenamiento de los mismos). Sin embargo, una vez es necesario procesar dichos datos encriptados (en el servidor remoto), es necesario desencriptarlos, momento en el cual un intruso en dicho servidor podría a acceder a datos sensibles de usuarios del mismo. Es más, este enfoque tradicional necesita que el servidor sea capaz de desencriptar dichos datos, teniendo que confiar en la integridad de dicho servidor de no comprometer los datos. Como posible solución a estos problemas, surgen los esquemas de encriptación homomórficos completos. Un esquema homomórfico completo no requiere desencriptar los datos para operar con ellos, sino que es capaz de realizar las operaciones sobre los datos encriptados, manteniendo un homomorfismo entre el mensaje cifrado y el mensaje plano. De esta manera, cualquier intruso en el sistema no podría robar más que textos cifrados, siendo imposible un robo de los datos sensibles sin un robo de las claves de cifrado. Sin embargo, los esquemas de encriptación homomórfica son, actualmente, drás-ticamente lentos comparados con otros esquemas de encriptación clásicos. Una op¬eración en el anillo del texto plano puede conllevar numerosas operaciones en el anillo del texto encriptado. Por esta razón, están surgiendo distintos planteamientos sobre como acelerar estos esquemas para un uso práctico. Una de las propuestas para acelerar los esquemas homomórficos consiste en el uso de High-Performance Computing (HPC) usando FPGAs (Field Programmable Gate Arrays). Una FPGA es un dispositivo semiconductor que contiene bloques de lógica cuya interconexión y funcionalidad puede ser reprogramada. Al compilar para FPGAs, se genera un circuito hardware específico para el algorithmo proporcionado, en lugar de hacer uso de instrucciones en una máquina universal, lo que supone una gran ventaja con respecto a CPUs. Las FPGAs tienen, por tanto, claras difrencias con respecto a CPUs: -Arquitectura en pipeline: permite la obtención de outputs sucesivos en tiempo constante -Posibilidad de tener multiples pipes para computación concurrente/paralela. Así, en este proyecto: -Se realizan diferentes implementaciones de esquemas homomórficos en sistemas basados en FPGAs. -Se analizan y estudian las ventajas y desventajas de los esquemas criptográficos en sistemas basados en FPGAs, comparando con proyectos relacionados. -Se comparan las implementaciones con trabajos relacionados New cloud-based technologies, the internet of things or "as a service" trends are based in data storage and processing in a remote server. In order to guarantee a secure communication and handling of data, cryptographic schemes are used. Tradi¬tionally, these cryptographic schemes focus on guaranteeing the security of data while storing and transferring it, not while operating with it. Therefore, once the server has to operate with that encrypted data, it first decrypts it, exposing unencrypted data to intruders in the server. Moreover, the whole traditional scheme is based on the assumption the server is reliable, giving it enough credentials to decipher data to process it. As a possible solution for this issues, fully homomorphic encryption(FHE) schemes is introduced. A fully homomorphic scheme does not require data decryption to operate, but rather operates over the cyphertext ring, keeping an homomorphism between the cyphertext ring and the plaintext ring. As a result, an outsider could only obtain encrypted data, making it impossible to retrieve the actual sensitive data without its associated cypher keys. However, using homomorphic encryption(HE) schemes impacts performance dras-tically, slowing it down. One operation in the plaintext space can lead to several operations in the cyphertext space. Because of this, different approaches address the problem of speeding up these schemes in order to become practical. One of these approaches consists in the use of High-Performance Computing (HPC) using FPGAs (Field Programmable Gate Array). An FPGA is an integrated circuit designed to be configured by a customer or a designer after manufacturing - hence "field-programmable". Compiling into FPGA means generating a circuit (hardware) specific for that algorithm, instead of having an universal machine and generating a set of machine instructions. FPGAs have, thus, clear differences compared to CPUs: - Pipeline architecture, which allows obtaining successive outputs in constant time. -Possibility of having multiple pipes for concurrent/parallel computation. Thereby, In this project: -We present different implementations of FHE schemes in FPGA-based systems. -We analyse and study advantages and drawbacks of the implemented FHE schemes, compared to related work.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este artículo aborda la investigación, realizada con los estudiantes del primer semestre de la titulación de Informática de la Facultad de Filosofía, Letras y Ciencias de la Educación de la Universidad Central del Ecuador, cuyo propósito ha sido analizar el uso de entornos de programación no mediados simbólicamente como herramienta didáctica para el desarrollo del pensamiento computacional. Se pretende establecer las posibles ventajas de aplicar este tipo de entorno para que los estudiantes desarrollen habilidades del pensamiento computacional tales como la creatividad, modelación y abstracción, entre otras, consideradas relevantes dentro de la programación. La metodología en que se apoyó la investigación es mixta, con investigación de campo y documental a nivel descriptivo. Se utilizó como instrumento un cuestionario para la recolección de datos entre el alumnado de la titulación. Finalmente, con la información recopilada se procedió al procesamiento de datos a partir de la estadística descriptiva para, así, obtener resultados que permitiesen alcanzar las pertinentes conclusiones y recomendaciones.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Force plate or pressure plate analysis came as an innovative tool to biomechanics and sport medicine -- This allows engineers, scientists and doctors to virtually reconstruct the way a person steps while running or walking using a measuring system and a computer -- With this information they can calculate and analyze a whole set of variables and factors that characterize the step -- Then they are able to make corrections and/or optimizations, designing appropriate shoes and insoles for the patient -- The idea is to study and understand all the hardware and software implications of this process and all the components involved, and then propose an alternative solution -- This solution should have at least similar performance to existing systems -- It should increase the accuracy and/or the sampling frequency to obtain better results -- By the end, there should be a working prototype of a pressure measuring system and a mathematical model to govern it -- The costs of the system have to be lower than most of the systems in the market

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En el presente trabajo se aplica el perfil de complejidad al modelamiento de procesos de negocio, desarrollado a partir del formalismo de Event-driven Process Chain (EPC). Al ser el perfil de complejidad una función de la información mutua entre elementos de un sistema, para cada nivel de escala de este, su aplicación al modelamiento de procesos permitirá establecer cuánta información recogen estos y cómo se distribuye esta información en cada posible secuencia de sus subprocesos. Se explora, en un inicio, las características cualitativas que tiene dicho perfil según cómo se encuentre estructurado el diagrama y qué significado esconden las estructuras más básicas con las que puede construirse un proceso. En la medida en que el modelado de procesos se realiza con el objetivo de optimizar el funcionamiento de un negocio, la aplicación del perfil de complejidad podrá ofrecer también una medida cuantitativa con la cual establecer cuánto afecta en el resultado final la modificación de un subproceso.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La higiene de los alimentos para el consumo humano es un derecho que tienen todas las personas, pues esto les evita daños a la salud. La incidencia de las enfermedades por transmisión alimentaria ha ido en aumento, y pueden llevar en muchos casos incluso hasta la muerte. Asimismo, hay efectos negativos en el deterioro de los alimentos, significan costos y pérdidas económicas para los países. Estas son razones por las que se deben tener sistemas que aseguren la higiene de los alimentos. Los riesgos alimentarios pueden ser de tipo microbiológico, residuos de plaguicidas, utilización inadecuada de los aditivos alimentarios, contaminantes químicos, incluidas las toxinas biológicas, adulteraciones. Así también se pueden incluir organismos genéticamente modificados, alérgenos, residuos de medicamentos veterinarios y hormonas. Por estas razones, es necesario un control eficaz de la higiene para evitar las enfermedades y por el daño en alimentos a la economía de un país. Cada vez que un consumidor paga por un alimento, bien sea para consumo inmediato o para un proceso de cocción y luego ser ingerido, espera que lo puede consumir sin ningún peligro, ya que confía en que las autoridades sanitarias encargadas en cada uno de los eslabones de la cadena alimenticia (Finca, Planta, Expendio, Comercio, Transporte) han desarrollado actividades que le den la garantía al consumidor de pagar por el producto e ingerirlo sin pensar en que afectará su salud. Hoy en día, se observa, como sigue en aumento los índices de Enfermedades Transmitidas por Alimentos (ETA´s), mientras que, los esfuerzos por disminuir e identificar las fallas en el aseguramiento de la inocuidad de los alimentos en todo el proceso son insuficientes. El Gobierno de Nicaragua, ha tomado conciencia y se está preparando para los próximos desafíos que presentará el comercio mundial en cuanto a garantizar productos de alta calidad e inocuidad. Por lo tanto, el MAG para mejorar y asegurar la inocuidad de los productos de origen animal y vegetal se ha basado en la implementación del sistema HACCP cuyo enfoque principal es la seguridad alimentaria y nutricional, en conjunto con la implementación de los programas prerrequisitos como son las Buenas Prácticas Agrícolas (BPA), Buenas Prácticas de manufactura (BPM), Programas de Operación y Sanitización (SOP's).(Picado, 2002).El objetivo del presente estudio de caso fue: Contrastar la aplicación de las normas Sistemas de Análisis de Peligro y Puntos Críticos de Control (HACCP) en el periodo 2014 – 2015, en el MATADERO NICA BEEF PACKERS S.A, que funciona en el municipio de Condega, Departamento de Estelí, Nicaragua. Para alcanzar el objetivo se aplicó una metodología comparativa entre un estudio anterior y las nuevas realidades generadas en la empresa, apoyándonos para tal efecto de técnicas e instrumentos aplicados por la ciencia como son: la entrevista, la observación, el análisis documental, y programas de aplicación Microsoft Word y Excel 2010, las que fueron utilizadas pertinentemente en su momento, permitiendo el procesamiento de datos y su posterior análisis. El punto de partida de este proceso investigativo fue la búsqueda de información relacionada al objeto de estudio, determinándose los tres puntos críticos de control y las variables que influyen en el fenómeno estudiado.. Las variables tomadas en cuenta fueron: Buenas prácticas de manufacturación, Procedimientos operativos estandarizados de Higiene, Análisis de riesgos, identificación y control de puntos críticos (HACCP). En lo concerniente a la primer variable las buenas prácticas de manufactura que realiza el personal de la empresa, se cumplen en un 91 % en ambos estudios, destacándose en forma ascendente las condiciones de edificio con el 94% y el personal con 93%; la segunda variable referida a los Procedimientos Operacionales Estándares (POE), se cumplen en un 88.65 %, ubicándose en un lugar privilegiado la salud de los trabajadores al tener 99% de cumplimiento. En promedio estos prerrequisitos generales se cumplen en un 89.82 %. La tercera variable las acciones correctivas de los PCC del sistema HACCP presentaron un 95.22% de cumplimiento, mostrando así que los equipos de trabajo de la empresa tienen un alto grado de conocimiento y la práctica requerida para las labores que realizan; en esta última sobresale el PCC N°2 que en cuanto a intervención antimicrobiano tuvo el 100% de cumplimiento, y un rango aceptable en la concentración de la solución de ácido orgánico de 1.5 a 2% y pH entre 3 y 4.4 unidades después del rociado,. En el PCC N°3 relacionada a la etapa de enfriamiento, se está cumpliendo con las normas establecidas en el reglamento HACCP, manteniendo temperatura de canales ≤ 8.33333 Grados Celsius, y 24 horas de refrigeración, impidiendo todas estas aplicaciones el desarrollo de bacterias patógenas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Debido a los constantes cambios económicos y avances tecnológicos, la aplicación de nuevos enfoques y aumento en la competencia, obliga a las empresas a asumir nuevos retos, como mejorar sus procesos de costeo; utilizando métodos que permitan determinar de mejor manera como asignar los costos y así obtener cifras confiables para una acertada toma de decisiones.Para la realización de la investigación, se tomaron como unidades de análisis los restaurantes dedicados a la elaboración de pollo rostizado del municipio de san salvador, haciendo uso de herramientas de recolección de datos como el cuestionario, desarrollándose posteriormente el procesamiento de datos, dando como resultado un diagnóstico que muestra la situación actual de las entidades, de esta manera se constató que dichas empresas carecen de un método de costeo que muestre adecuadamente el costo invertido en la producción; es por ello que se propone en el presente trabajo la aplicación del sistema de costos basados en actividades como una respuesta a la problemática, permitiéndoles obtener de manera adecuada una distribución razonable de los desembolsos que no están directamente relacionados con la producción pero son indispensables para ella; ya que estos son distribuidos a las labores que son necesarias para la elaboración del producto. Hoy en día ABC ofrece la forma más rápida y eficaz de reducir los costos, porque se adquiere suficiente información para comprender cuáles son los verdaderos inductores de recurso y actuar sobre éstos para obtener un proceso racional, por lo tanto al distribuir los costes indirectos mediante la metodología de dicho sistema, se reconoce la relación causa efecto entre los generadores del costo con las actividades, brindando el conocimiento necesario para el mejoramiento, la optimización y la complejidad de los procesos que generará mayores coste. Se tomó como ejemplo un restaurante el cual proporciono la información necesaria, para describir las generalidades del proceso productivo; esto permitió determinar los costos a través del método (ABC), por consiguiente se realizó un análisis de los resultados obtenidos de modo que se determinó que la aplicación de este sistema, es conveniente para todo tipo de empresas, sean estas de servicios, industriales, comerciales; pues esta técnica innovadora identifica las actividades que generan valor a los productos logrando mayor precisión en la determinación de importe invertido en la producción. Por tanto, se concluye que es necesaria la implementación de una herramienta que les permita enfocar y asignar los costos a cada actividad y que le proporcione información oportuna para la toma de decisiones, mejorando los diferentes procesos productivos y su competitividad.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El presente trabajo de grado titulado “Auditoria de calidad del servicio al cliente en cadena de restaurantes de comida rápida en el área metropolitana de San Salvador” caso ilustrativo; tiene como finalidad realizar una auditoría de calidad de servicio al cliente con el fin brindar una herramienta mercadológica y así de esta manera construir una ventaja competitiva y la mejora de la satisfacción del cliente. Con la elaboración de este trabajo de grado se ofrecerá, índices de satisfacción de los clientes en cuanto a la infraestructura, imagen corporativa, aspectos comerciales, productos, procesos internos, recursos humanos además de estrategias encaminadas a la mejora del servicio. Luego se justifica el proyecto de investigación según su practicidad, relevancia y su importancia dentro del mercadeo. Se muestra en el marco teórico, toda la información que contribuya al conocimiento, entendimiento y comprensión del tema en estudio para posteriormente abordar los objetivos que guían la investigación. Dentro de la metodología de investigación se presentan su propósito o finalidad, amplitud y profundidad, tipo de investigación, diseño de la investigación, determinación de la muestra, fuentes de datos, procedimiento para la recolección y procesamiento de datos para realizar posteriormente la propuesta, los instrumentos y técnicas a utilizar, debido a que se recolectará información exacta sobre la satisfacción de los clientes y su percepción hacia las empresas en estudio, los gustos y necesidades de éstos para formar un perfil del consumidor con el fin de que los esfuerzos que se realicen sean orientados para la prestación de un servicio de comida, y de esta manera diferenciarse ante la competencia. En el segundo capítulo trata la investigación de campo relacionada directamente con la auditoria de calidad de servicio al cliente, la cual se mide dentro del área de mercadeo, utilizado los instrumentos con el fin de medir la satisfacción del cliente en el momento de verdad, la investigación se desarrolla en las cadenas de restaurantes de comida rápida ubicadas en el área metropolitana de San Salvador. El contenido de este capítulo está comprendido por planteamiento del problema, su enunciado, la descripción del F.O.D.A. general y por cada cadena de restaurantes, objetivos de la investigación, metodología utilizada para la recolección de información para la cual se utilizó dos herramientas: prueba piloto y la encuesta para ser implementada tanto a los gerentes y empleados de los restaurantes y para medir el momento de verdad a los clientes de éstos restaurantes; posteriormente se muestra la tabulación de la información en donde se refleja los datos para dar a mostrar los resultados de las encuestas a los objetos de estudio; luego se realiza las conclusiones y recomendaciones las cuales son elaboradas conforme a los resultados de los datos obtenidos. En el tercer capítulo contiene el plan de fidelización, donde el objeto es apoyar a la cadena de restaurante de Pollo Campero a contrarrestar el pronunciado y generalizado declive de la lealtad de los clientes; el análisis de las principales causas de esta tendencia indica que el declive de la lealtad se debe, en gran parte, a causas estructurales entre las cuales destaca la dificultad de conseguir una diferenciación verdadera, producida por la competencia de restaurantes de comida rápida en el área metropolitana de San Salvador. El plan de fidelización el cual consiste en establecer vínculos duraderos entre los clientes y la empresa contribuyendo a la creación de una diferenciación en el tiempo a través del desarrollo de los aspectos relacionales CRM; ésta apuesta por un plan de fidelización relacional que esté basada en el análisis de los estudios previos sobre el efecto de la interacción entre los incentivos económicos (como lo son los descuentos) y los aspectos emocionales e instintivos; un plan de fidelización es una estrategia de marketing establecida por las empresas con el propósito de premiar el comportamiento de compra de sus clientes, lo que produce en ellos un sentido de lealtad y fidelidad hacia la empresa; este tipo de programas ofrece acceso a descuentos, premios o cualquier otro tipo de beneficio que logre afirmar su compromiso con la marca. Finalmente se presenta la bibliografía, que comprende los libros de texto, revistas, tesis, páginas web, entre otras, consultadas para el proyecto de investigación. Se incluye una propuesta de los instrumentos a utilizar, es decir, la guía de preguntas para desarrollar las encuestas, la clisa, el cliente incógnito y la observación “in situ” con el objetivo de obtener toda la información pertinente para resolver la problemática en estudio. Las gráficas, tablas y demás elementos visuales que facilitan la comprensión y entendimiento del tema serán abordadas en los anexos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper presents the implementation of a high quality real-time 3D video system intended for 3D videoconferencing -- Basically, the system is able to extract depth information from a pair of images coming from a short-baseline camera setup -- The system is based on the use of a variant of the adaptive support-weight algorithm to be applied on GPU-based architectures -- The reason to do it is to get real-time results without compromising accuracy and also to reduce costs by using commodity hardware -- The complete system runs over the GStreamer multimedia software platform to make it even more flexible -- Moreover, an autoestereoscopic display has been used as the end-up terminal for 3D content visualization

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tomando en cuenta la poca oferta de productos destinados a la desinfección de frutas, verduras y agua no purificada, surge la necesidad de proponer soluciones a la problemática, de los efectos que causa el consumo de alimentos y agua contaminada o clorada, especialmente en las familias de más bajos recursos económicos en el municipio de San Salvador. La problemática antes mencionada, dio origen a que el equipo de investigación, lleve a cabo el presente trabajo investigativo el cual tiene como objetivo principal establecer la factibilidad de producir y comercializar CLOROSANIL, en el municipio de San Salvador, dicha investigación se realizó para la empresa Oficina Consultora para la Protección del Medio Ambiente, S.A. de C.V. (OFICMA, S.A. DE C.V.). Para realizar la investigación de campo fue necesario analizar la oferta y la demanda, así como la situación actual de la empresa, para ello se utilizaron fuentes de información primarias, es decir información de clientes potenciales obtenida mediante encuestas, asimismo fuentes secundarias como libros, tesis, páginas web, información importante para el diagnóstico. Como parte de la metodología utilizada para realizar la investigación se tiene el método científico, que comprende: la observación del problema, diseño del estudio y trabajo de campo, éste último incluyó con la recolección y procesamiento de datos. Además se utilizaron métodos auxiliares de "Análisis" el cual permitió estudiar cada una de las partes del problema más a detalle y la "Síntesis" que permitió integrar todos los resultados y otros aportes de la investigación, información que sirvió para elaborar la propuesta sobre la factibilidad del proyecto. En cuanto a las principales conclusiones el equipo de investigación estableció: Se concluye que es factible realizar el proyecto de producción y comercialización de Clorosanil. De acuerdo a la investigación de campo realizada en el municipio de San Salvador existe una demanda potencial de productos para la desinfección de frutas, verduras y purificación de agua.Sé determinó que los clientes potenciales están dispuestos a consumir un nuevo producto que garantice beneficios tangibles a la salud. El personal muestra una apertura total a la innovación y actualización de los procedimientos de trabajo que ayuden a optimizar el desempeño y calidad de los productos elaborados. OFICMA, S.A. DE C.V. cuenta con el equipo básico para el desarrollo de sus funciones, sin embargo manifestaron la necesidad de adquirir o diseñar herramientas que permitan desarrollar de una mejor manera los procesos que ejecutan. La mejora en los procesos de producción tendría un impacto en la reducción de los tiempos de producción, representando un ahorro sustancial de tiempo que puede ser aprovechado para el desarrollo de otras actividades dentro la empresa.La empresa OFICMA, S.A. de C.V. cuenta con la experiencia y el conocimiento requerido para llevar a cabo proyectos enfocados en la protección del medio y salud de los habitantes del municipio de San Salvador. Con base a las conclusiones se formularon las siguientes recomendaciones: Realizar las gestiones pertinentes para iniciar el proyecto de producción y comercialización de Clorosanil. Se recomienda contar con el equipo, material y personal adecuado para garantizar que la demanda potencial sea cubierta de manera satisfactoria. Se recomienda crear estrategias de mercadeo que satisfagan las expectativas del mercado potencial. Proponer nuevas metodologías de trabajo que se realicen a corto y largo plazo para mejorar el desempeño de los empleados, buscando que estos puedan visualizar la calidad de su ejecución y hacer mejoras aportes o mejoras en los procesos. herramientas, maquinaria y equipo para el óptimo desarrollo de la producción. Se recomienda elaborar planes de capacitación para todo el personal, orientado a la mejora en los procesos de producción, que contribuyan a mejorar el desempeño de sus funciones dentro la empresa.Se recomienda emplear la experiencia acumulada por el personal en el desarrollo de nuevos proyectos que beneficien y protejan el medio ambiente así como la salud de los habitantes del municipio de San Salvador.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El turismo se ha consolidado como la principal actividad económica de muchos países y el sector de más rápido crecimiento en términos de ingresos y creación de empleo, es el hotelero, convirtiéndose, en una de las principales fuentes de ocupación estimulando enormes inversiones en infraestructura, la mayor parte de las cuales contribuye a mejorar las condiciones de vida de la población además de los turistas. La mediana empresa de la Industria Hotelera en El Salvador tiene como propósito armonizar y presentar información contable y oportuna a los usuarios interesados en las actividades del sector debiendo de aplicar de manera actualizada, técnica y legal, sus registros contables según lo establecido por el ente encargado de emitir los cambios que se están efectuando a nivel internacional, el Consejo de Vigilancia de la Profesión de la Contaduría Pública y Auditoría han acordado la adopción de la normativa internacional en forma escalonada a partir del ejercicio contable 2004 debiéndose aplicar conforme al tipo y tamaño de empresa para cumplir con lineamientos para el registro técnico contable de aceptación a nivel mundial. Con el fin de dar apoyo al sector en esta actividad se elabora el presente documento, ya que las normas internacionales que aprobaron no han sido implementadas por éste sector, por lo cual se cuenta con aproximadamente un 10% de empresas a nivel nacional que han implementado NIC (porcentaje se extrajo de anuncio del día 13 de junio de 2008 en el periódico El Diario de Hoy). La elaboración de la siguiente propuesta detalla los criterios más básicos que deben presentar los registros contables de tan importante industria Para la realización de la investigación se ha utilizado el método hipotético-deductivo, tomando como unidades de análisis a los encargados de la unidad contable y como universo se requirió de la base de datos que posee la Dirección General de Estadísticas y Censos actualizada al año 2005 sobre la existencia de 330 empresas del Sector Hotelero catalogadas como grandes, medianas, pequeñas y micro, haciéndose uso de herramientas de recolección de datos como el cuestionario y la entrevista,desarrollándose el procesamiento de datos manualmente y auxiliándose de hojas electrónicas, dando como resultado el diagnóstico que muestra la situación actual de los hoteles. En la aplicación de las políticas y procedimientos de acuerdo a NIC-NIIF se detectó que de acuerdo a las tabulaciones efectuadas las empresas de la mediana empresa del sector hotelero le dan más importancia a los ingresos, inventarios, costos y activos fijos, lo cual se consideró como necesaria la creación de un documento dónde especifique la forma de cómo aplicar dichas normas transformadas en políticas y procedimientos ya que un negocio a veces no considera necesario crearlas de manera formal, cuando un negocio progresa es necesario una mayor cantidad de controles que facilitan la generación de información conveniente, la cual se transforma en registros contables adecuados.