906 resultados para Redes em chip. Processadores. IPNoSyS. Paralelismo.Software Pipelining. Desempenho


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste artigo estuda-se o comportamento de 12 empresas inovadoras do Sector dos Moldes em Portugal. Determina-se onde e como as empresas inovadoras do sector dos moldes nacional, adquirem o conhecimento necessário para a realização das suas inovações, isto é, se apenas internamente e/ou se externamente através de redes de inovação, determinando quais os principais elementos que constituem as redes de inovação, bem como qual o seu desempenho, como impulsionadores da inovação. Este trabalho procura, assim, estudar a relação entre inovação e as ligações que são estabelecidas entre as empresas do Sector dos Moldes e outras empresas (clientes, fornecedores, concorrentes), bem como com instituições académicas (universidades e institutos superiores) e instituições do sector público (laboratórios, centros tecnológicos e de formação). Consequentemente, com este trabalho de investigação, é possível constatar que são fortes e consistentes as ligações que estas empresas têm com outras empresas, sejam elas clientes, fornecedores ou mesmo concorrentes, mas são extremamente fracas e por vezes inexistentes as relações que existem com as instituições académicas e que as empresas mais inovadoras são as que mais se relacionam com as instituições académicas e instituições do sector público. Podendo-se concluir, que a grande vantagem competitiva deste sector da indústria nacional deve-se à sua forte capacidade de se relacionar com outros parceiros, independentemente da sua posição na cadeia de valor.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

The number of applications based on embedded systems grows significantly every year, even with the fact that embedded systems have restrictions, and simple processing units, the performance of these has improved every day. However the complexity of applications also increase, a better performance will always be necessary. So even such advances, there are cases, which an embedded system with a single unit of processing is not sufficient to achieve the information processing in real time. To improve the performance of these systems, an implementation with parallel processing can be used in more complex applications that require high performance. The idea is to move beyond applications that already use embedded systems, exploring the use of a set of units processing working together to implement an intelligent algorithm. The number of existing works in the areas of parallel processing, systems intelligent and embedded systems is wide. However works that link these three areas to solve any problem are reduced. In this context, this work aimed to use tools available for FPGA architectures, to develop a platform with multiple processors to use in pattern classification with artificial neural networks

Relevância:

40.00% 40.00%

Publicador:

Resumo:

[ES]El objetivo de este proyecto ha sido desarrollar una herramienta software que permita medir el rendimiento de redes con tecnología móvil 4G, también conocida como LTE. Para ello se ha creado un sistema software que está compuesto por una aplicación móvil y un servidor de aplicaciones. El sistema en conjunto realiza la función de recoger indicadores de calidad de la red móvil de diversa índole, que posteriormente son procesados utilizando herramientas software matemáticas, para así obtener gráficas y mapas que permiten analizar la situación y el rendimiento de una red 4G concreta. El desarrollo del software ha llegado a nivel de prototipo y se han realizado pruebas reales con él obteniendo resultados positivos de funcionamiento.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A demanda crescente por poder computacional estimulou a pesquisa e desenvolvimento de processadores digitais cada vez mais densos em termos de transistores e com clock mais rápido, porém não podendo desconsiderar aspectos limitantes como consumo, dissipação de calor, complexidade fabril e valor comercial. Em outra linha de tratamento da informação, está a computação quântica, que tem como repositório elementar de armazenamento a versão quântica do bit, o q-bit ou quantum bit, guardando a superposição de dois estados, diferentemente do bit clássico, o qual registra apenas um dos estados. Simuladores quânticos, executáveis em computadores convencionais, possibilitam a execução de algoritmos quânticos mas, devido ao fato de serem produtos de software, estão sujeitos à redução de desempenho em razão do modelo computacional e limitações de memória. Esta Dissertação trata de uma versão implementável em hardware de um coprocessador para simulação de operações quânticas, utilizando uma arquitetura dedicada à aplicação, com possibilidade de explorar o paralelismo por replicação de componentes e pipeline. A arquitetura inclui uma memória de estado quântico, na qual são armazenados os estados individuais e grupais dos q-bits; uma memória de rascunho, onde serão armazenados os operadores quânticos para dois ou mais q-bits construídos em tempo de execução; uma unidade de cálculo, responsável pela execução de produtos de números complexos, base dos produtos tensoriais e matriciais necessários à execução das operações quânticas; uma unidade de medição, necessária à determinação do estado quântico da máquina; e, uma unidade de controle, que permite controlar a operação correta dos componente da via de dados, utilizando um microprograma e alguns outros componentes auxiliares.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

[ES]Este proyecto busca caracterizar el retardo sufrido por los mensajes de estadísticas en las redes definidas por software cuando la red se encuentra en estado de saturación. Para ello, se utilizarán los paquetes OpenFlow que utiliza el controlador OpenDaylight para comunicarse con los nodos presentes en la red, a través de ellos se podrán monitorizar los recursos consumidos por los servicios instalados. Toda la monitorización se llevará a cabo desde el controlador, el módulo de monitorización optimizado en este proyecto permitirá al controlador conocer el valor promedio del ancho de banda consumido en instantes de tiempo de hasta un segundo en todos los nodos de la red donde se hayan instalado los servicios. Estos valores podrán ser utilizados para controlar el ancho de banda consumido por los distintos servicios dentro de una red, realizando acciones desde el propio controlador sobre aquellos servicios que superen el límite establecido.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este trabajo se ha desarrollado en el Facultad de Informática de la Universidad Pontificia de Salamanca por un equipo de tres profesores y es utilizado en las clases de prácticas de Inteligencia Artificial e Informática Industrial, calidad del software. Permite a profesores y alumnos acceder en un único trabajo a una gran variedad de técnicas de simulación de redes neuronales ya que la bibliografía necesaria para obtener un conocimiento global y específico de la materia tratada es demasiado amplia y dispersa para poder ser consultada por el alumno y su tratamiento demasiado complejo. Facilita al alumno el tener una visión global de la materia tratada en un único estudio. Indudablemente el trabajo resultante de este proyecto es de gran utilidad en la tarea docente de los profesores tanto en primer como segundo ciclo, así como una introducción al tercer ciclo, por tratarse de un enfoque moderno pero comprensible del problema y estar complementada por un amplio material de simulación. Además los profesores podrán disponer de ejemplos reales en los que se aplican redes neuronales y técnicas estadísticas y compararlas. Se considera importante como material de apoyo a las clases impartidas por los profesores. Este trabajo facilitará la asimilación de las ideas teóricas por parte del alumno y le ayudará a iniciarse en el mundo de la ciencia moderna utilizando la simulación como herramienta de trabajo. Además aprenderá a realizar un análisis de la fiabilidad del software que le permita comparar las simulaciones software utilizadas en cada caso, permitiéndolo comprobar en que medida que teorías son más adecuadas para su implementación software. Los resultados que se han recopilado y elaborado con las distintas y últimas técnicas existentes se han implementado en un CD, en el que se recogen las simulaciones utilizadas en el desarrollo del estudio de redes neuronales y permite realizar un estudio de la calidad del software implementado, además se acompaña de un manual en el que se recogen diversos ejemplos que permiten adentrarse en la materia sin un conocimiento previo. Este material de simulación se esta utilzando en el aula por los alumnos, en la realización de las prácticas correspondientes.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este trabajo se ha desarrollado en la Facultad de Informática de la Universidad Pontificia de Salamanca por un equipo de tres profesores y es utilizado en las clases prácticas de Inteligencia Artificial e Informática Industrial, calidad del software. Permite a profesores y alumnos acceder, en un único trabajo, a una gran variedad de técnicas de simulación de redes neuronales ya que la bibliografía necesaria para obtener un conocimiento global y específico de la materia tratada es demasido amplia y dispersa para poder ser consultada por el alumno, y su tratamiento demasiado complejo; facilitando así al alumno tener una visión global de la materia tratada en un único estudio. Indudablemente el trabajo resultante de este proyecto es de gran utilidad en la tarea docente de los profesores tanto en primer como segundo ciclo, así como un introducción al tercer ciclo; por tratarse de un enfoque moderno pero comprensible del problema y estar complementada por un amplio material de simulación. Además los profesores podrán disponer de ejemplos reales en los que se aplican redes neuronales y técnicas estadísticas y compararlas. Se considera importante como material de apoyo a las clases impartidas por los profesores. Este trabajo facilitará la asimilación de las ideas teóricas por parte del alumno y le ayudará a iniciarse en el mundo de la ciencia moderna utilizando la simulación como herramienta de trabajo. Además aprenderá a realizar un análisis de la fiabilidad del software que le permita comparar las simulaciones software utilizadas en cada caso, permitiéndolo comprobar en qué medida qué teorías son más adecuadas para su implementación software. Los resultados que se han recopilado y elaborado con las distintas y últimas técnicas existentes se han implementado en un cd, en el que se recogen las simulaciones utilizadas en el desarrollo del estudio de redes neuronales y permite realizar un estudio de la calidad del software implementado, además se acompaña de un manual en el que se recogen diversos ejemplos que permiten adentrarse en la materia sin un conocimiento previo. El material de simulación se está utilizando en el aula por los alumnos en la realización de las prácticas correspondientes.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo sobre a criação de redes sociais eletrônicas e o papel estruturante do Software Livre e de Código Aberto (SL/CA), a partir da experiência do Projeto Rede de Atenção à Criança e ao Adolescente do Programa Pró-Menino, da Fundação Telefônica. Para tanto, foi necessário caminhar por diferentes áreas do conhecimento, para compreender os vários aspectos das redes sociais eletrônicas e, com isso, construir uma visão multifacetada do problema. Esse percurso foi construído ao longo de dez meses de trabalhos, com oito municípios do Estado de São Paulo e com a Fundação Telefônica, até a criação de um software, a partir da seguinte pergunta: “o que faz um software de rede eletrônica ter sucesso por longo período?”. O trabalho possibilitou o entendimento de como o SL/CA pode servir a redes sociais e das aprendizagens que ele pode propiciar-lhes, mostrando que a gratuidade é apenas um de suas características. O SL/CA possui uma série de aspectos que podem constituir elementos estruturantes da rede, seja no que diz respeito aos modelos de produção de software propriamente, seja no que tange ao gerenciamento de equipes de projetos com grande complexidade técnica em comunidades geograficamente dispersas e sem controle hierárquico e, enfim, no que tange aos aspectos de produção e distribuição de conhecimentos como bens públicos.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este trabalho tem por objetivo o estudo e a integração, como forma de validação, de ferramentas de software livre para o uso em Gerência e Monitoração de Redes de computadores. Com o crescimento das redes surgiu a necessidade por controle de seus recursos. Desta necessidade foi criado o protocolo SNMP, utilizado nos dias de hoje como padrão de fato na gerência e monitoração de redes. Anteriormente ao surgimento do Software Livre, para a atividade de gerência e monitoração, existiam apenas produtos proprietários, os quais estavam restritos a poucas empresas que podiam arcar com seus custos. Com o surgimento do Software Livre, ferramentas simples de gerência e monitoração começaram a ser criadas. Estas ferramentas simples necessitam ser integradas de forma a prover maior quantidade de recursos. O método proposto desenvolve um protótipo capaz de integrar várias ferramentas de gerência e monitoração utilizando exclusivamente ferramentas de Software Livre. E para demonstrar a idéia na prática, um Estudo de Caso é apresentado utlizando o protótipo desenvolvido.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Os Sistemas de Detecção e Prevenção de Intrusão (Intrusion Detection Systems – IDS e Intrusion Prevention Systems - IPS) são ferramentas bastante conhecidas e bem consagradas no mundo da segurança da informação. Porém, a falta de integração com os equipamentos de rede como switches e roteadores acaba limitando a atuação destas ferramentas e exige um bom dimensionamento de recursos de hardware como processamento, memória e interfaces de rede de alta velocidade, utilizados para implementá-las. Diante de diversas limitações deparadas por pesquisadores e administradores de redes, surgiu o conceito de Rede Definida por Software (Software Defined Network – SDN), que ao separar os planos de controle e de dados, permite adaptar o funcionamento da rede de acordo com as necessidades de cada um. Desta forma, devido à padronização e flexibilidade propostas pelas SDNs, e das limitações apresentadas dos IPSs, esta dissertação de mestrado propõe o IPSFlow, um framework que utiliza uma rede baseada na arquitetura SDN e o protocolo OpenFlow para a criação de um IPS com ampla cobertura e que permite bloquear um tráfego caracterizado pelos IDS(s) como malicioso no equipamento mais próximo da origem. Para validar o framework, experimentos no ambiente virtual Mininet foram realizados utilizando-se o Snort como IDS para analisar tráfego de varredura (scan) gerado pelo Nmap de um host ao outro. Os resultados coletados apresentam que o IPSFlow funcionou conforme planejado ao efetuar o bloqueio de 85% do tráfego de varredura.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Pós-graduação em Engenharia Elétrica - FEIS

Relevância:

40.00% 40.00%

Publicador:

Resumo:

I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El campo de las redes de sensores inalámbricas ha cobrado gran importancia en esta última década ya que se han abierto diversas líneas de investigación con el fin de poder llevar a la práctica los conceptos y definiciones que envuelven el potencial de esta tecnología, y que está llamada a ser el futuro en la adquisición de datos de cualquier entorno físico de aplicación, mediante una herramienta basada en la autogestión y desatención durante largos periodos de tiempo, capacidad de tomar muestras cuando sea necesario a través de nodos sensores que se caractericen por el ahorro de energía y que puedan ser capaces de trabajar de forma autónoma durante meses, y que el carácter inalámbrico de la red a desplegar facilite las tareas de instalación y mantenimiento. Ello requiere que las condiciones para que una red de sensores inalámbrica sea la forma más viable de monitorizar un determinado entorno se base en ciertos requisitos de diseño, como lo es la baja tasa de transferencia de datos por parte de los nodos (estos deben ser capaces de transmitir la información recolectada desde los sensores y luego permanecer dormidos hasta una nueva adquisición), hardware enfocado al bajo consumo de energía con el fin de evitar cambios en la fuente de energía (baterías) durante largos periodos de tiempo, adaptabilidad al entorno de aplicación, flexibilidad y escalabilidad de la red si la aplicación hace necesario la inclusión de nuevos nodos o la modificación de los ya existentes, sin que ello suponga mayores dificultades en su desarrollo e implementación. El Centro de Electrónica industrial de la Universidad Politécnica de Madrid se incluye dentro de este último grupo, donde se ha diseñado una completa plataforma hardware para redes de sensores inalámbricas, con el fin de investigar las potencialidades, dificultades y retos que supone el realizar un despliegue de nodos inalámbricos en cumplimiento de características primordiales como autonomía, flexibilidad y escalabilidad de la red, además de la autogestión de los dispositivos que forman parte de ella. El presente trabajo de investigación se centra en cubrir estas necesidades, por lo que su principal objetivo es la creación de una plataforma de integración hardware-software que permita explotar todas las potencialidades de la arquitectura Cookies a través de una herramienta que facilite el despliegue, control y mantenimiento de una red de sensores inalámbrica, con el fin último de contar con un sistema total para el prototipado rápido de aplicaciones, soporte de pruebas de nuevos desarrollos y la posibilidad de implementación de dicha plataforma en cualquier entorno real, siendo sólo necesario realizar pequeños ajustes desde el más alto nivel de abstracción para que el sistema sea capaz de adaptarse por sí solo. Para cumplir tales propósitos y lograr una completa integración del sistema conjunto, ha sido necesario fijar principalmente tres líneas de trabajo que se enmarcan dentro de los objetivos específicos del presente proyecto, las cuales se detallan a continuación: Bibliotecas Software modulares: Basada en la filosofía de modularidad y flexibilidad de la plataforma hardware, se hace imprescindible primeramente contar con una plataforma software para el control de todos y cada uno de los elementos que componen al nodo Cookie, a partir de bloques funcionales que permitan gestionar desde el núcleo de procesamiento principal todas las características de la plataforma. Esto permitirá asegurar el control de los recursos hardware y facilitar la utilización de la plataforma desde un nivel más alto de abstracción, sólo con la configuración de parámetros estandarizados para el funcionamiento de la misma. Perfil de aplicación Cookies: Después de contar con bloques software que permitan controlar las características de bajo nivel del nodo inalámbrico, es necesario crear una herramienta para la estandarización de la forma en la que se comunican los dispositivos a nivel de aplicación, con el fin de gestionar las características y atributos de los nodos sensores de forma remota y facilitar el entendimiento entre ellos. Para ello, es necesario fijar ciertas directivas y reglas que permitan homogeneizar la gestión de tareas asociadas a los nodos Cookies, a través del diseño de un perfil de aplicación. Testbed para redes de sensores: Como resultado de las dos líneas anteriores de trabajo, la idea es contar con un instrumento que permita realizar pruebas reales haciendo uso de la plataforma de integración HW-SW, a partir de la gestión de todas las características y potencialidades que ofrece el perfil de aplicación creado y así facilitar el desarrollo de prototipos para aplicaciones basadas en redes de sensores inalámbricas, de forma rápida y eficiente. En este sentido, la idea es contar con un banco de pruebas basado en un despliegue de nodos Cookies que pueda ser controlado desde un ordenador central a través de una interfaz de usuario, desde el cual se lleva a cabo la monitorización y actuación sobre la red inalámbrica. Con el fin de lograr todos los objetivos planteados, ha sido necesario realizar un exhaustivo estudio de la plataforma hardware descrita anteriormente con el fin de conocer la forma en la que interactúan cada uno de los elementos incluidos en los nodos, así como la arquitectura y filosofía de los mismos, para poder llevar a cabo la integración con el software y, como se verá más adelante, realizar ajustes en el hardware para poder implementar correctamente las funcionalidades diseñadas. Por otro lado, ha sido necesario analizar las características de la especificación ZigBee y, sobre todo, las propiedades que posee el módulo de comunicaciones que incluye la plataforma hardware, el ETRX2, con el fin de poder realizar una configuración y gestión adecuada de los nodos a través de la red inalámbrica, aprovechando las posibilidades y recursos que ofrece dicho módulo.