955 resultados para Windows (Interfaces gráficas de usuarios)


Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica:  Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool).  Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral.  Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx.  Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema.  Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A parallel computing environment to support optimization of large-scale engineering systems is designed and implemented on Windows-based personal computer networks, using the master-worker model and the Parallel Virtual Machine (PVM). It is involved in decomposition of a large engineering system into a number of smaller subsystems optimized in parallel on worker nodes and coordination of subsystem optimization results on the master node. The environment consists of six functional modules, i.e. the master control, the optimization model generator, the optimizer, the data manager, the monitor, and the post processor. Object-oriented design of these modules is presented. The environment supports steps from the generation of optimization models to the solution and the visualization on networks of computers. User-friendly graphical interfaces make it easy to define the problem, and monitor and steer the optimization process. It has been verified by an example of a large space truss optimization. (C) 2004 Elsevier Ltd. All rights reserved.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta investigación aborda el consumo que los jóvenes universitarios de España y Brasil realizan de las publicaciones para tabletas. A través del estudio de seis casos –las revistas españolas Don, VisàVis y Quality Sport, y los vespertinos brasileños O Globo a Mais, de Río de Janeiro; Estadão Noite, de Sao Paulo; y Diário do Nordeste Plus, de Fortaleza– se aplica una metodología cualitativa, el test de usabilidad, para detectar qué aspectos ralentizan y entorpecen la navegación en las nuevas generaciones de usuarios de medios móviles. A pesar de la influencia de las revistas impresas en la configuración de las publicaciones para tableta, los datos muestran que el usuario necesita “entrenarse” para conocer unas opciones de interacción a veces poco intuitivas o para las que carece de la madurez visual necesaria. Por ello las publicaciones más sencillas obtienen los mejores resultados de usabilidad.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

ANTECEDENTES: En gran parte del mundo la medicina tradicional es el pilar principal de la prestación de servicios de salud, por ello en algunos países suele denominarse medicina complementaria. La medicina tradicional ha sufrido transformaciones, y los valores de este tipo de medicina están desapareciendo con rapidez a pesar que la OMS dicta estrategias para su implementación y el MSP del Ecuador reconoce su valor. OBJETIVO GENERAL: Caracterización de la aplicación de la medicina ancestral en los usuarios y usuarias del Centro de Salud “Carlos Elizalde”. METODOLOGIA: Es un estudio cuantitativo descriptivo en el que caracteriza la aplicación de la medicina ancestral en los usuarios del Centro de Salud “Carlos Elizalde”. El método utilizado fue la entrevista previo consentimiento informado realizada, según criterios de inclusión y exclusión a un universo de 110 usuarios, en la tabulación de datos se utilizó el programa SPSS Windows y Excel, y estos fueron analizados en tablas simples y gráficos. RESULTADOS: Los resultados obtenidos han servido para identificar la aplicación la Medicina Ancestral en los usuarios que acuden al Centro de Salud “Carlos Elizaldede la Parroquia Yanuncay, identificando a las personas que más acuden al tratamiento son adultos con 71% y adultos mayores con un 16%, la mayoría son amas de casa en un 38%, con instrucción de primaria incompleta, es las enfermedades más frecuentes son espanto con un 36%, mal aire 18% y 10% caída de zhungo; para el tratamiento utilizan plantas o hiervas en un 54%

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Oceans environmental monitoring and seafloor exploitation need in situ sensors and optical devices (cameras, lights) in various locations and on various carriers in order to initiate and to calibrate environmental models or to operate underwater industrial process supervision. For more than 10 years Ifremer deploys in situ monitoring systems for various seawater parameters and in situ observation systems based on lights and HD Cameras. To be economically operational, these systems must be equipped with a biofouling protection dedicated to the sensors and optical devices used in situ. Indeed, biofouling, in less than 15 days [1] will modify the transducing interfaces of the sensors and causes unacceptable bias on the measurements provided by the in situ monitoring system. In the same way biofouling will decrease the optical properties of windows and thus altering the lighting and the quality fot he images recorded by the camera.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis tiene dos objetivos, el primero es responder a la pregunta: ¿Cómo las personas con discapacidad pueden ser incluidos en los gimnasios regulares de la ciudad de Medellín y mediante la práctica de la actividad física aumentar su calidad de vida? -- El segundo objetivo es la aplicación de un proceso de diseño construido a partir de 3 metodologías: HCD Toolkit de IDEO, metodología de diseño y desarrollo de nuevos productos de Ulrich y Eppinger y las técnicas de ingeniería inversa y desarrollo de nuevos productos de Kevin otto y Kristin Wood, cuyo diferenciador es la ubicación de la usabilidad y la innovación social como eje transversal durante el proceso de diseño -- Para alcanzar estos objetivos, se diseñó una investigación aplicada y explicativa, en la que tuvieron participación medios documentales, de campo y de experimentación como libros, entrevistas, hallazgos guiados por la comunidad de personas con discapacidad en el gimnasio VIVO de la Universidad EAFIT y pruebas de uso de los productos diseñados con el usuario real en el contexto real; adicionalmente, esta tesis fue desarrollada bajo la modalidad de investigación cualitativa de acción en la que se tuvo contacto constante con la población y caso de estudio “población con discapacidad en gimnasios de la ciudad de Medellín” durante toda su ejecución, sin embargo, para efectos de la etapa de desarrollo de producto fue necesario aplicar la modalidad cuantitativa, por lo tanto tiene un carácter mixto -- Se realizó una investigación sobre las dificultades y necesidades que tenían las personas con discapacidad para acceder a un gimnasio regular, esto por medio de una validación en la que se llevó a dichos usuarios al gimnasio VIVO de la Universidad EAFIT donde luego del análisis del ejercicio de validación se identificó la necesidad de diseñar un kit de objetos de interacción que permitiera a las personas con discapacidad, usar los objetos de los gimnasios regulares, específicamente para la población con dificultades para agarrar como cuadripléjicos y artríticos; y para usuarios de sillas de ruedas con dificultades de equilibrio a la hora de interactuar con algunas de las máquinas -- El proceso de diseño aplicado para dicho desarrollo fue construido mediante la mezcla de tres metodologías diferentes mencionadas anteriormente y teniendo en cuenta la aplicación de la usabilidad y la innovación social como eje transversal del mismo proceso de creación -- Finalmente, se diseñó un freno para sillas de ruedas el cual evita que estas derriben al usuario hacia atrás cuando hace fuerza y un elemento tipo guante que reemplaza el agarre y la pinza gruesa de la mano; con estos objetos se logró que la mayoría de personas con dificultades para agarrar objetos o manijas puedan acceder a los gimnasios regulares y realizar una amplia serie de ejercicios con los que pueden aumentar la funcionalidad de su cuerpo y por tanto su calidad de vida

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Administración del Capital de Trabajo es una herramienta que complementa oportunamente el análisis financiero empresarial, puesto que mide directamente el manejo del efectivo en un periodo de tiempo denominado Ciclo Operativo, permitiendo pronósticos que toman en cuenta factores internos y externos relacionados con todo tipo de situaciones sociales, económicas o de otra índole que afectan la estabilidad financiera de la entidad. El Capital de Trabajo es de mucha importancia en la vida económica de cualquier empresa, las PYMES del sector industrial manejan una gran cantidad de recursos financieros, humanos y tecnológicos que se encuentran representados en activos y pasivos sean estos de corto y largo plazo que se utilizan como una fuente de maniobra para lograr una mayor rentabilidad o una mejor liquidez en su ciclo operativo. Las instituciones financieras hacen préstamos en diversos ámbitos, la mayoría de pequeñas y medianas empresas nacen con fuerte apoyo bancario, los banqueros confían en los estados financieros al tomar decisiones de préstamo y al establecer las condiciones y tasas de interés. Para lo cual cada uno de los rubros expresados deben ser relevantes y tener sus propias bases de análisis que permitan realizar comparaciones de un periodo a otro más complejas para emitir juicios objetivos y concretos. Así surge recientemente la NIIF para PYMES, estableciendo un nuevo orden para con un conjunto de normas de alta calidad, comprensibles que buscan reforzar la transparencia y comparabilidad de la información financiera para la toma de decisiones. De lo anterior surge la realización de un estudio sobre la Gestión del Capital de Trabajo en las PYMES del sector industrial dedicadas a las artes, siendo esto posible a través del diseño de un Manual de Políticas y Procedimientos, dividido en tres áreas fundamentales en el análisis del Capital de Trabajo: Compras e Inventarios, Cuentas por Cobrar y Ventas, Efectivo y sus Equivalentes; dirigiendo cada punto específicamente a crear un control de las asignaciones y usos de los recursos que hacen posible el mantenimiento del giro normal de la empresa. Para el caso se cuenta con el apoyo de ECOGRAFIC, S.A. DE C.V. empresa industrial dedicada a las artes gráficas en el municipio de Mejicanos, que está en toda la disposición de colaborar en la realización de la actividad. Uno de los objetivos trazados para ello es la obtención de información de carácter financiero de la entidad así como información general y administrativa de la misma para conocer la situación financiera actual de esta y orientar esfuerzos en pro de mejorar las condiciones en cada área estudiada a través del desarrollo de un manual de políticas y procedimientos financieros dirigidos a la optimización del uso del capital de trabajo para mejorar la condición financiera de corto plazo. De esta manera es posible crear documentación que fundamente la toma de decisiones de cada entidad, tomando en cuenta principios contables y de información financiera que establecen la importancia de desarrollar mecanismos que ayuden a mejorar la calidad, comprensión y utilización de la información financiera para cada uno de los usuarios.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper summarises the development of a machine-readable model series for explaining Gaudi's use of ruled surface geometry in the Sagrada Familia in Barcelona, Spain. The first part discusses the modeling methods underlying the columns of the cathedral and the techniques required to translate them into built structures. The second part discusses the design and development of a tangible machine-readable model to explain column-modeling methods interactively in educational contexts such as art exhibitions. It is designed to explain the principles underlying the column design by means of physical interaction without using mathematical terms or language.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

There is a mismatch between the kinds of movements used in gesture interfaces and our existing theoretical understandings of gesture. We need to re-examine the assumptions of gesture research and develop theory more suited to gesture interface design. In addition to improved theory, we need to develop ways for participants in the process of design to adapt, extend and develop theory for their own design contexts. Gesture interface designers should approach theory as a contingent resource for design actions that is responsive to the needs of the design process.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In Australia, airports have emerged as important sub-regional activity centres and now pose challenges for both airport operation and planning in the surrounding urban and regional environment. The changing nature of airports in their metropolitan context and the emergence of new pressures and problems require the introduction of a fresh conceptual framework to assist the better understanding of these complex roles and spatial interactions. The approach draws upon the meta-concept of interfaces of an ‘airport metropolis’ as an organising device consisting of four main domains: economic development, land use,infrastructure, and governance. The paper uses the framework to further discuss airport and regional interactions and highlights the use of sustainability criteria to operationalise the model. The approach aims to move research and practice beyond the traditionally compartmentalised analysis of airport issues and policy-making by highlighting interdependencies between airports and regions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Considerable past research has explored relationships between vehicle accidents and geometric design and operation of road sections, but relatively little research has examined factors that contribute to accidents at railway-highway crossings. Between 1998 and 2002 in Korea, about 95% of railway accidents occurred at highway-rail grade crossings, resulting in 402 accidents, of which about 20% resulted in fatalities. These statistics suggest that efforts to reduce crashes at these locations may significantly reduce crash costs. The objective of this paper is to examine factors associated with railroad crossing crashes. Various statistical models are used to examine the relationships between crossing accidents and features of crossings. The paper also compares accident models developed in the United States and the safety effects of crossing elements obtained using Korea data. Crashes were observed to increase with total traffic volume and average daily train volumes. The proximity of crossings to commercial areas and the distance of the train detector from crossings are associated with larger numbers of accidents, as is the time duration between the activation of warning signals and gates. The unique contributions of the paper are the application of the gamma probability model to deal with underdispersion and the insights obtained regarding railroad crossing related vehicle crashes. Considerable past research has explored relationships between vehicle accidents and geometric design and operation of road sections, but relatively little research has examined factors that contribute to accidents at railway-highway crossings. Between 1998 and 2002 in Korea, about 95% of railway accidents occurred at highway-rail grade crossings, resulting in 402 accidents, of which about 20% resulted in fatalities. These statistics suggest that efforts to reduce crashes at these locations may significantly reduce crash costs. The objective of this paper is to examine factors associated with railroad crossing crashes. Various statistical models are used to examine the relationships between crossing accidents and features of crossings. The paper also compares accident models developed in the United States and the safety effects of crossing elements obtained using Korea data. Crashes were observed to increase with total traffic volume and average daily train volumes. The proximity of crossings to commercial areas and the distance of the train detector from crossings are associated with larger numbers of accidents, as is the time duration between the activation of warning signals and gates. The unique contributions of the paper are the application of the gamma probability model to deal with underdispersion and the insights obtained regarding railroad crossing related vehicle crashes.