997 resultados para Redes em chip. Processadores. IPNoSyS. Paralelismo.Software Pipelining. Desempenho
Resumo:
Lo buscado en este proyecto es desarrollar un software de aplicación que le permita la médico especialista, sin demasiado esfuerzo, la búsqueda de patologías en un estudio Holter de 24 horas de un paciente ambulatorio. El proyecto se realizará con la aplicación de las nuevas técnicas de redes neuronales, tratando con las mismas de aislar e identificar variadas patologías cardíacas, con distintos tipos de vecindades como entrada a la red neuronal y además, completarlo con un sistema experto de ayuda al médico sugiriéndole la patología posible ya registrada con el adquisidor. Importancia del proyecto: El mismo tiene un carácter imperativo desde el punto de vista del usuario del sistema, ya que un médico no puede estar viendo 24 hs. de estudio cardíaco, sino que el sistema debe ser capaz de avisarle al médico en qué parte del estudio hay una posible patología y así acortar el tiempo de diagnóstico del estudio a menos de una hora de análisis. (...) Los objetivos particulares de este proyecto son: * Desarrollo de software para tratamiento de señales fisiológicas de estudios cardíacos, en particular Holter para poder determinar variadas patologías y si los resultados son positivos, se realizaría una transferencia de esta inteligencia del reconocimiento de patologías al sistema de adquisidor de datos, de tal manera que adquiera los eventos patológicamente positivos.
Resumo:
El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme
Resumo:
En aquest projecte s'han classificat i posteriorment caracteritzat els jocs on la tecnologia d'agents mòbils és més òptima. Posteriorment s'ha dissenyat un core per al desenvolupament de jocs d'aquesta tipologia. Mitjançant aquest core s'han implementat el joc del Parchís i el joc del Nim. Aquest últim cas pràctic ha estat realitzat per a l'elaboració d'una pràctica per a l'assignatura de Xarxes de Computadors II. Gràcies als avantatges que ens oferix la tecnologia d'agents mòbils, com la tolerància a fallades i flexibilitat, hem demostrat amb aquest projecte que és òptim utilitzar aquesta tecnologia per a la implementació de jocs.
Resumo:
Este proyecto presenta el desarrollo de una aplicación que permite traducir Redes de Petri Coloreadas diseñadas en CPN Tools a un lenguaje para la generación de ficheros de entrada a un simulador/optimizador de Redes de Petri Coloreadas. De esta manera se podrán optimizar modelos creados en CPN Tools ya que esta herramienta no facilita la optimización. Todo el proyecto se ha realizado en C++.
Resumo:
La presente investigación es acerca de la acción colectiva en el caso conocido como Free Open Source Software (FOSS) desde la perspectiva de la economía política y de su corriente denominada como neoinstitucionalismo económico (Peters, 2003). El marco teórico que utilizo para analizar el caso es el conocido como el Análisis de Desarrollo Institucional (IAD1, ver Hess y Ostrom, 2007:41) que durante más de 30 años ha sido utilizado por diferentes investigadores en el análisis de recursos comunes. Mi estrategia de investigación consiste en establecer un diálogo entre la teoría y los estudios empíricos acerca del FOSS. Para las personas no familiarizadas con el tema, FOSS es el conjunto de organizaciones e individuos que con un marco institucional específico están dedicados al desarrollo de software no propietario.
Resumo:
Aquesta memòria descriu el procés de desenvolupament d'un projecte que consisteix en un conjunt de hardware, “PSoC” (Programmable System on Chip), i un software, C#, mitjançant els quals s'automatitza la gestió de comandes a les taules d'un restaurant. A cada taula trobem un aparell anomenat “WaiterClient”, a través del qual els clients sol·liciten l'atenció d'un cambrer. Aquest hardware té una pantalla on es mostrarà informació i un conjunt de polsadors per demanar. Per una altra banda, trobem un altre aparell, “WaiterServidor”, encarregat de rebre els senyals enviats per wireless des dels “WaiterClients” que hi ha a cada taula. Un cop rebudes, les transmet a un ordinador central per cable sèrie RS-232.
Resumo:
Aquesta memòria descriu el procés de desenvolupament del projecte de fi de carrera “Sistema de monitorització vital portable amb System on Chip i interfície SD Card”. Aquest es tracta d’un dispositiu de dimensions reduïdes, baix consum i portable amb capacitat d’enregistrar els biopotencials cardíacs dins d’una targeta de memòria flash SD Card. En temps real es mostra una representació d’aquests biopotencials mitjançant una pantalla LCD gràfica. El projecte, a més, inclou el desenvolupament d’un software de visualització per PC que permet l’anàlisi posterior més detallada dels registres emmagatzemats a la targeta SD Card.
Resumo:
Aquest treball final de carrera consisteix en la creació d'un complement que afegeix noves característiques a un navegador conegut com Firefox produït i proporcionat pel Projecte Mozilla. Aquest projecte desenvolupa, implementa i promou el programari lliure. El complement consisteix en un filtre de pàgines web a nivell de contingut.
Resumo:
Este trabajo trata de dar respuesta a la necesidad planteada dentro de un operador de telecomunicaciones para poder hacer trazados y análisis para troubleshooting de bajo nivel en redes UTRAN con transporte Ethernet/IP con software única y exclusivamente de licencia libre.
Resumo:
El objeto último de este proyecto consiste en establecer una interfaz que permita que un dispositivo embebido cualquiera, con capacidad para conectarse a una red de datos, pueda describir los actuadores y sensores de los que dispone y ponerlos al servicio de un usuario u otro sistema. Como prueba de concepto se diseñará e implementará una aplicación para teléfonos móviles capaz de hacer uso de esta interfaz para controlar cualquier dispositivo que implemente dicha especificación al que pueda conectarse. También se diseñará y fabricará un dispositivo que pueda controlarse haciendo uso del marco de trabajo propuesto.
Resumo:
El trabajo se centra en proporcionar una solución informática para la Administración de Propiedades haciendo uso de nuevas tecnologías y a su vez dotar de las herramientas necesarias para la construcción de una comunidad. El desarrollo de la solución pasa por la descripción de las herramientas empleadas y las etapas para su construcción, que incluyen el análisis, diseño, implementación y posterior implantación. Se hace énfasis en el Framework elegido para demostrar las ventajas de su aplicación. En la construcción de la comunidad se describen las herramientas utilizadas para la difusión del proyecto que incluyen la publicación de una página del proyecto, el uso de redes sociales y páginas publicitarias y la puesta en marcha de un software de colaboración para la administración del desarrollo del proyecto.
Resumo:
El presente trabajo proporciona un nivel de ayuda para los usuarios de aplicaciones sociales, brindándoles un criterio adicional al momento de contactar a otra persona, apoyando al usuario con advertencias sobre algún comportamiento de riesgo de sus contactos y fomentando así la prevención de enfermedades.
Resumo:
En los últimos años, el sector de las TIC (Tecnologías de la Información y la Comunicación) está contemplando cómo va creciendo la demanda de profesionales y, a la vez, el número de matriculaciones universitarias está cayendo. Esta situación está comenzando a ser alarmante dentrodel mundo de las empresas y profesionales de este campo.Con el fin de buscar una solución, se ha demostrado que existen una serie de metodologías pedagógicas basadas en la teoría Constructivista que, combinadas con la tecnología software necesaria, pueden incrementar el nivel de interés de los estudiantes por el mundo de las TIC. Apesar de ello, actualmente hay una escasez de herramientas que implementen dichas metodologías pedagógicas y que proporcionen al mismo tiempo los mecanismos necesarios para dar apoyo a los estudiantes durante el aprendizaje de conceptos TIC. Una posible solución a este problema es la creación de juegos educativos que implementen este tipo de metodologías y que integren mecanismos de scaffolding, es decir, mecanismos de apoyo al aprendizaje del estudiante.Dentro de este marco, siguiendo la propuesta de un modelo conceptual que define los elementos necesarios para crear juegos basados en puzles con scaffolding, el propósito que tiene este proyectoes dar a conocer conceptos relacionados con las TIC mediante la implementación de un juego educativo con la intención de despertar el interés de los estudiantes por esta área. En concreto, el proyecto se basa en el diseño, implementación y evaluación de un juego educativo dentro del área de las redes de ordenadores que proporcione mecanismos de ayuda a los estudiantes para guiarlos a que alcancen soluciones correctas.
Resumo:
Desde a década de 1990 a cotonicultura brasileira vem apresentando crescimento, tendo a adoção de tecnologias, em especial variedades de algodão geneticamente modificadas, cujo seu cultivo foi liberado em 2005, como um grande fator no aumento da produtividade e redução dos custos e consequente retomada da cultura em antigas regiões produtoras desfavorecidas por crises que causaram a retração desta cultura. De salientar que o lançamento das cultivares está envolto a discussões sobre seus impactos ambientais. Embora se tenha observado o ressurgimento da cotonicultura em diversas regiões do país o cenário é ainda de grande disparidade produtiva entre as regiões do Centro – Oeste e do Nordeste do país. O acesso à tecnologia, o nível de escolaridade, e o acesso à assistência técnica são os principais vetores das desigualdades. No que diz respeito ao acesso à tecnologia, pode-se afirmar que independentemente da maior ou menor disponibilidade de tecnologias desenvolvidas para os agricultores familiares, mostra-se necessário ter claro que a maior dificuldade principal refere-se à capacidade de inovar, e esta está relacionada não só à tecnologia em si, mas também à inserção nos mercados, condições de financiamento, disponibilidade de recursos, análise de risco, dentre outros fatores. Desse modo a criação de redes sociais entre os pequenos cotonicultores tem se mostrado como uma alternativa para que se tenha melhor acesso à tecnologia. É nesse contexto que a rede de cotonicultores de Catuti foi escolhida para ser o objeto de estudo desta dissertação na medida em que chama atenção por ser uma organização de pequenos produtores que retomaram o cultivo de algodão através da utilização de sementes transgênicas, e apresentar ganhos de produção, e plantio de forma sustentável. O estudo de caso mostrou através do software PAJEK, que a organização em forma de rede propicia ao elo de vários atores de naturezas distintas, o que por seu turno possibilita a inserção no mercado e a adoção de tecnologia por parte dos pequenos agricultores associados à Cooperativa de Produtores Rurais de Catuti (COOPERCAT).
Resumo:
Los agentes de software en la era de las redes globales son una herramienta vital para superar el fenómeno llamado "sobrecarga de información". El grado de madurez alcanzado en esta tecnología permite que hoy se puedan ver aplicaciones concretas funcionado en organizaciones, como así también en el escritorio del usuario hogareño. El objetivo de este trabajo es presentar una revisión bibliográfica sobre la tecnología de agentes de software, con orientación a los modelos que permiten gerenciar la sobrecarga de información.