992 resultados para Hardware reconfigurable
Resumo:
This paper proposes a wireless EEG acquisition platform based on Open Multimedia Architecture Platform (OMAP) embedded system. A high-impedance active dry electrode was tested for improving the scalp- electrode interface. It was used the sigma-delta ADS1298 analog-to-digital converter, and developed a “kernelspace” character driver to manage the communications between the converter unit and the OMAP’s ARM core. The acquired EEG signal data is processed by a “userspace” application, which accesses the driver’s memory, saves the data to a SD-card and transmits them through a wireless TCP/IP-socket to a PC. The electrodes were tested through the alpha wave replacement phenomenon. The experimental results presented the expected alpha rhythm (8-13 Hz) reactiveness to the eyes opening task. The driver spends about 725 μs to acquire and store the data samples. The application takes about 244 μs to get the data from the driver and 1.4 ms to save it in the SD-card. A WiFi throughput of 12.8Mbps was measured which results in a transmission time of 5 ms for 512 kb of data. The embedded system consumes about 200 mAh when wireless off and 400 mAh when it is on. The system exhibits a reliable performance to record EEG signals and transmit them wirelessly. Besides the microcontroller-based architectures, the proposed platform demonstrates that powerful ARM processors running embedded operating systems can be programmed with real-time constrains at the kernel level in order to control hardware, while maintaining their parallel processing abilities in high level software applications.
Resumo:
A animação 3D de expressões faciais é uma tarefa complexa, o que aliado ao alto consumo de recursos do próprio hardware, torna o processo extremamente longo. Adicionando duas outras condicionantes, nomeadamente os cada vez mais baixos orçamentos praticados e a rapidez exigida pelos clientes, podem por em causa a sustentabilidade de um projeto de animação. Nesse sentido é necessário reunir esforços e investigar profundamente para tornar a animação 3D acessível a qualquer animador. É importante começar precisamente com softwares grátis, para salvaguardar uma despesa logo à partida, e open source, para qualquer programador poder igualmente dar asas à sua imaginação e qualquer tipo de extensão ou melhoria processual poder ser livremente adicionada. O atual paradigma dos softwares grátis e de código aberto na área de modelação e animação 3D é o Blender 3D e foi tomado como referência para qualquer especificação técnica.
Resumo:
Os edifícios estão a ser construídos com um número crescente de sistemas de automação e controlo não integrados entre si. Esta falta de integração resulta num caos tecnológico, o que cria dificuldades nas três fases da vida de um edifício, a fase de estudo, a de implementação e a de exploração. O desenvolvimento de Building Automation System (BAS) tem como objectivo assegurar condições de conforto, segurança e economia de energia. Em edifícios de grandes dimensões a energia pode representar uma percentagem significativa da factura energética anual. Um BAS integrado deverá contribuir para uma diminuição significativa dos custos de desenvolvimento, instalação e gestão do edifício, o que pode também contribuir para a redução de CO2. O objectivo da arquitectura proposta é contribuir para uma estratégia de integração que permita a gestão integrada dos diversos subsistemas do edifício (e.g. aquecimento, ventilação e ar condicionado (AVAC), iluminação, segurança, etc.). Para realizar este controlo integrado é necessário estabelecer uma estratégia de cooperação entre os subsistemas envolvidos. Um dos desafios para desenvolver um BAS com estas características consistirá em estabelecer a interoperabilidade entre os subsistemas como um dos principais objectivos a alcançar, dado que o fornecimento dos referidos subsistemas assenta normalmente numa filosofia multi-fornecedor, sendo desenvolvidos usando tecnologias heterogéneas. Desta forma, o presente trabalho consistiu no desenvolvimento de uma plataforma que se designou por Building Intelligence Open System (BIOS). Na implementação desta plataforma adoptou-se uma arquitectura orientada a serviços ou Service Oriented Architecture (SOA) constituída por quatro elementos fundamentais: um bus cooperativo, denominado BIOSbus, implementado usando Jini e JavaSpaces, onde todos os serviços serão ligados, disponibilizando um mecanismo de descoberta e um mecanismo que notificada as entidades interessadas sobre alterações do estado de determinado componente; serviços de comunicação que asseguram a abstracção do Hardware utilizado da automatização das diversas funcionalidades do edifício; serviços de abstracção de subsistemas no acesso ao bus; clientes, este podem ser nomeadamente uma interface gráfica onde é possível fazer a gestão integrada do edifício, cliente de coordenação que oferece a interoperabilidade entre subsistemas e os serviços de gestão energética que possibilita a activação de algoritmos de gestão racional de energia eléctrica.
Resumo:
A robótica tem evoluído no sentido de criar robots e componentes cada vez mais evoluídos a preços acessíveis. Este facto permitiu que o desenvolvimento de aplicações no âmbito da robótica se tenha massificado e que a utilidade dos robots se tenha alargado a diferentes áreas de aplicação. Apesar da evolução dos robots e dos componentes para os mesmos, subsistem limitações que restringem a utilização de robots a certas aplicações, nomeadamente quando a capacidade de processamento e de memória não é suficiente para executar as aplicações. A forma para ultrapassar estas limitações tem residido essencialmente em duas abordagens: limitar as aplicações desenvolvidas à medida dos recursos disponíveis no hardware; ou estender as capacidades do robot usando recursos externos ao robot, quer por extensão do hardware do robot, quer por controlo remoto dos componentes do robot. Atendendo a esta problemática, foi desenvolvida uma plataforma que estende as capacidades dos robots segundo uma abordagem que usa o controlo remoto do robot, para capacitar as aplicações de controlo desenvolvidas de mais recursos, nomeadamente em termos de capacidade de processamento e memória. A plataforma desenvolvida disponibiliza ainda um simulador que virtualiza um campo de simulação e um robot, e simula a forma como estes interagem. O simulador é integrado na plataforma de forma semelhante aos adaptadores para robots, para que as aplicações desenvolvidas possam ser usadas quer em robots reais como no simulador.
Resumo:
As teachers, we are challenged everyday to solve pedagogical problems and we have to fight for our students’ attention in a media rich world. I will talk about how we use ICT in Initial Teacher Training and give you some insight on what we are doing. The most important benefit of using ICT in education is that it makes us reflect on our practice. There is no doubt that our classrooms need to be updated, but we need to be critical about every peace of hardware, software or service that we bring into them. It is not only because our budgets are short, but also because e‐learning is primarily about learning, not technology. Therefore, we need to have the knowledge and skills required to act in different situations, and choose the best tool for the job. Not all subjects are suitable for e‐learning, nor do all students have the skills to organize themselves their own study times. Also not all teachers want to spend time programming or learning about instructional design and metadata. The promised land of easy use of authoring tools (e.g. eXe and Reload) that will lead to all teachers become Learning Objects authors and share these LO in Repositories, all this failed, like previously HyperCard, Toolbook and others. We need to know a little bit of many different technologies so we can mobilize this knowledge when a situation requires it: integrate e‐learning technologies in the classroom, not a flipped classroom, just simple tools. Lecture capture, mobile phones and smartphones, pocket size camcorders, VoIP, VLE, live video broadcast, screen sharing, free services for collaborative work, save, share and sync your files. Do not feel stressed to use everything, every time. Just because we have a whiteboard does not mean we have to make it the centre of the classroom. Start from where you are, with your preferred subject and the tools you master. Them go slowly and try some new tool in a non‐formal situation and with just one or two students. And you don’t need to be alone: subscribe a mailing list and share your thoughts with other teachers in a dedicated forum, even better if both are part of a community of practice, and share resources. We did that for music teachers and it was a success, in two years arriving at 1.000 members. Just do it.
Resumo:
O presente trabalho consiste na implementação em hardware de unidades funcionais dedicadas e optimizadas, para a realização das operações de codificação e descodificação, definidas na norma de codificação com perda Joint Photographic Experts Group (JPEG), ITU-T T.81 ISO/IEC 10918-1. Realiza-se um estudo sobre esta norma de forma a caracterizar os seus principais blocos funcionais. A finalidade deste estudo foca-se na pesquisa e na proposta de optimizações, de forma a minimizar o hardware necessário para a realização de cada bloco, de modo a que o sistema realizado obtenha taxas de compressão elevadas, minimizando a distorção obtida. A redução de hardware de cada sistema, codificador e descodificador, é conseguida à custa da manipulação das equações dos blocos Forward Discrete Cosine Transform (FDCT) e Quantificação (Q) e dos blocos Forward Discrete Cosine Transform (IDCT) e Quantificação Inversa (IQ). Com as conclusões retiradas do estudo e através da análise de estruturas conhecidas, descreveu-se cada bloco em Very-High-Speed Integrated Circuits (VHSIC) Hardware Description Language (VHDL) e fez-se a sua síntese em Field Programmable Gate Array (FPGA). Cada sistema implementado recorre à execução de cada bloco em paralelo de forma a optimizar a codificação/descodificação. Assim, para o sistema codificador, será realizada a operação da FDCT e Quantificação sobre duas matrizes diferentes e em simultâneo. O mesmo sucede para o sistema descodificador, composto pelos blocos Quantificação Inversa e IDCT. A validação de cada bloco sintetizado é executada com recurso a vectores de teste obtidos através do estudo efectuado. Após a integração de cada bloco, verificou-se que, para imagens greyscale de referência com resolução de 256 linhas por 256 colunas, é necessário 820,5 μs para a codificação de uma imagem e 830,5 μs para a descodificação da mesma. Considerando uma frequência de trabalho de 100 MHz, processam-se aproximadamente 1200 imagens por segundo.
Resumo:
Object-oriented programming languages presently are the dominant paradigm of application development (e. g., Java,. NET). Lately, increasingly more Java applications have long (or very long) execution times and manipulate large amounts of data/information, gaining relevance in fields related with e-Science (with Grid and Cloud computing). Significant examples include Chemistry, Computational Biology and Bio-informatics, with many available Java-based APIs (e. g., Neobio). Often, when the execution of such an application is terminated abruptly because of a failure (regardless of the cause being a hardware of software fault, lack of available resources, etc.), all of its work already performed is simply lost, and when the application is later re-initiated, it has to restart all its work from scratch, wasting resources and time, while also being prone to another failure and may delay its completion with no deadline guarantees. Our proposed solution to address these issues is through incorporating mechanisms for checkpointing and migration in a JVM. These make applications more robust and flexible by being able to move to other nodes, without any intervention from the programmer. This article provides a solution to Java applications with long execution times, by extending a JVM (Jikes research virtual machine) with such mechanisms. Copyright (C) 2011 John Wiley & Sons, Ltd.
Resumo:
Com o surgimento de novos sistemas de telecomunicações sem fios, que necessitam de maiores potências de emissão e largura de banda disponível, surgem os regulamentos que controlam as emissões rádio. Só assim estas tecnologias podem coexistir em bandas próximas, com o máximo desempenho e com a garantia que os níveis de poluição electromagnética não são ultrapassados. Cada vez mais, regulamentos que limitam a potência da transmissão têm em vista questões de saúde pública e por isso devem ser estritamente respeitados. Para se poder controlar as emissões rádio é necessário um dispositivo que consiga analisar o espectro rádio. Um dos instrumentos fundamentais na metrologia de radiofrequência é o analisador de espectros, que tem como principal função apresentar a potência de porções do espectro em função da frequência. Existem vários tipos de analisadores espectrais, que se baseiam em arquitecturas de recepção distintas. O tipo de analisador define a sua complexidade e o tipo de análises que consegue fazer. Com esta dissertação pretende-se mostrar a implementação de um analisador de espectro portátil, de baixo custo, baseado num receptor heteródino e com uma frequência de operação compreendida entre os 2 e os 3 GHz. Este projecto abrange diversas áreas, desde o hardware de recepção rádio, passando pelo microcontrolador que faz a aquisição de dados e comunicação com o computador, acabando na aplicação que foi desenvolvida em Java para permitir ao utilizador uma interface de utilização simples e funcional. Foi também desenvolvida com sucesso uma antena impressa adequada à banda de frequência referida. Embora tenham existidos problemas simples, um na localização do filtro passa-banda e o outro na resposta do filtro intermédio, os objectivos foram alcançados obtendo-se um analisador de espectro portátil, funcional e de baixo custo, conforme pretendido. O analisador tem um erro máximo na detecção de potência de 2,5 dB e o tempo de varrimento máximo é cerca de 16 segundos com 500 pontos de resolução. Foram realizadas várias medições e uma comparação com um analisador de espectros comercial, para demonstrar o funcionamento e desempenho do analisador desenvolvido, tendo os resultados sido bastante promissores. A funcionalidade deste analisador medir a potência do sinal ao longo do tempo é uma mais-valia face ao analisador comercial utilizado para a comparação.
Resumo:
A new high throughput and scalable architecture for unified transform coding in H.264/AVC is proposed in this paper. Such flexible structure is capable of computing all the 4x4 and 2x2 transforms for Ultra High Definition Video (UHDV) applications (4320x7680@ 30fps) in real-time and with low hardware cost. These significantly high performance levels were proven with the implementation of several different configurations of the proposed structure using both FPGA and ASIC 90 nm technologies. In addition, such experimental evaluation also demonstrated the high area efficiency of theproposed architecture, which in terms of Data Throughput per Unit of Area (DTUA) is at least 1.5 times more efficient than its more prominent related designs(1).
Resumo:
This paper presents an algorithm to efficiently generate the state-space of systems specified using the IOPT Petri-net modeling formalism. IOPT nets are a non-autonomous Petri-net class, based on Place-Transition nets with an extended set of features designed to allow the rapid prototyping and synthesis of system controllers through an existing hardware-software co-design framework. To obtain coherent and deterministic operation, IOPT nets use a maximal-step execution semantics where, in a single execution step, all enabled transitions will fire simultaneously. This fact increases the resulting state-space complexity and can cause an arc "explosion" effect. Real-world applications, with several million states, will reach a higher order of magnitude number of arcs, leading to the need for high performance state-space generator algorithms. The proposed algorithm applies a compilation approach to read a PNML file containing one IOPT model and automatically generate an optimized C program to calculate the corresponding state-space.
Resumo:
A evolução tecnológica, com particular incidência nas tecnologias de informação, e a necessidade de uma integração cada vez mais profunda do sector da manutenção na gestão estratégica global da empresa, contribuíram para o aparecimento dos sistemas de e-maintenance. Por outro lado, os conceitos associados à manutenção deverão estar cada vez mais associados à manutenção remota. Assim, o desenvolvimento de plataformas de e-maintenance, entendidas como a agregação de software e hardware e outras tecnologias integradas, permitiram implementar serviços, que foram determinantes para a evolução deste conceito. Nesta comunicação apresenta-se uma plataforma de e-maintenance aplicada a um sistema automatizado de pesagem de viaturas na indústria cimenteira. O sistema é baseado na monitorização constante da degradação dos componentes críticos que, através de um sistema de alertas, permite antecipar as falhas notificando, atempadamente, a equipe de operadores específicos. A aplicação foi desenvolvida na Framework SLV Cement da empresa Cachapuz. Possuindo vários módulos de gestão da manutenção esta plataforma permite definir e controlar todo o fluxo de informação.
Resumo:
Dissertação apresentada à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Audiovisual e Multimédia.
Resumo:
CoDeSys "Controller Development Systems" is a development environment for programming in the area of automation controllers. It is an open source solution completely in line with the international industrial standard IEC 61131-3. All five programming languages for application programming as defined in IEC 61131-3 are available in the development environment. These features give professionals greater flexibility with regard to programming and allow control engineers have the ability to program for many different applications in the languages in which they feel most comfortable. Over 200 manufacturers of devices from different industrial sectors offer intelligent automation devices with a CoDeSys programming interface. In 2006, version 3 was released with new updates and tools. One of the great innovations of the new version of CoDeSys is object oriented programming. Object oriented programming (OOP) offers great advantages to the user for example when wanting to reuse existing parts of the application or when working on one application with several developers. For this reuse can be prepared a source code with several well known parts and this is automatically generated where necessary in a project, users can improve then the time/cost/quality management. Until now in version 2 it was necessary to have hardware interface called “Eni-Server” to have access to the generated XML code. Another of the novelties of the new version is a tool called Export PLCopenXML. This tool makes it possible to export the open XML code without the need of specific hardware. This type of code has own requisites to be able to comply with the standard described above. With XML code and with the knowledge how it works it is possible to do component-oriented development of machines with modular programming in an easy way. Eplan Engineering Center (EEC) is a software tool developed by Mind8 GmbH & Co. KG that allows configuring and generating automation projects. Therefore it uses modules of PLC code. The EEC already has a library to generate code for CoDeSys version 2. For version 3 and the constant innovation of drivers by manufacturers, it is necessary to implement a new library in this software. Therefore it is important to study the XML export to be then able to design any type of machine. The purpose of this master thesis is to study the new version of the CoDeSys XML taking into account all aspects and impact on the existing CoDeSys V2 models and libraries in the company Harro Höfliger Verpackungsmaschinen GmbH. For achieve this goal a small sample named “Traffic light” in CoDeSys version 2 will be done and then, using the tools of the new version it there will be a project with version 3 and also the EEC implementation for the automatically generated code.
Resumo:
A Ressonância Magnética Mamaria (RMM), ao longo da década, tem demonstrado um franco desenvolvimento no diagnóstico e caracterização do Carcinoma Mamário. O objectivo deste trabalho científico é demonstrar, através de uma revisão bibliográfica, os avanços desta modalidade na avaliação das lesões da mama, tendo em conta as características: elasticidade (Elastografia), bioquímicas (Espectroscopia), celularidade (Difusão) e vascularização (Perfusão). A avaliação destas em consonância com as morfológicas e cinéticas (RMM), permitem um aumento da especificidade da RMM, reduzindo assim o número de biopsias desnecessárias. Contudo estas evoluções técnicas devem estar em consonância com a inovação em questões de software de processamento de Imagem e hardware dos equipamentos de Ressonância Magnética.
Resumo:
Today, business group decision making is an extremely important activity. A considerable number of applications and research have been made in the past years in order to increase the effectiveness of decision making process. In order to support the idea generation process, IGTAI (Idea Generation Tool for Ambient Intelligence) prototype was created. IGTAI is a Group Decision Support System designed to support any kind of meetings namely distributed, asynchronous or face to face. It aims at helping geographically distributed (or not) people and organizations in the idea generation task, by making use of pervasive hardware in a meeting room, expanding the meeting beyond the room walls by allowing a ubiquitous access through different kinds of equipment. This paper focus on the research made to build IGTAI prototype, its architecture and its main functionalities, namely the support given in the different phases of the idea generation meeting.