62 resultados para Arquitetura de hardware
Resumo:
Esta dissertação apresenta duas implementações de algoritmos para gerência dinâmica de memória em software, as quais foram desenvolvidas utilizando como alvo uma plataforma embarcada Java. Uma vez que a plataforma utilizada pertence a uma metodologia para geração semi-automática de hardware e software para sistemas embarcados, os dois algoritmos implementados foram projetados para serem integrados ao contexto desta mesma metodologia. Como forma de estabelecer comparações detalhadas entre as duas implementações desenvolvidas, foram realizadas diversas estimativas em desempenho, uso de memória, potência e energia para cada implementação, utilizando para isto duas versões existentes da plataforma adotada. Através da análise dos resultados obtidos, observou-se que um dos algoritmos desenvolvidos obteve um desempenho melhor para realização da gerência dinâmica da memória. Em contrapartida, o outro algoritmo possui características de projeto que possibilitam sua utilização com aplicações de tempo-real. De um modo geral, os custos adicionais resultantes da utilização do algoritmo de tempo-real, em relação ao outro algoritmo também implementado, são de aproximadamente 2% para a potência média dissipada, 16% para o número de ciclos executados, 18% para a energia consumida e 10% sobre a quantidade de total memória utilizada. Isto mostra que o custo extra necessário para utilização do algoritmo de tempo real é razoavelmente baixo se comparado aos benefícios proporcionados pela sua utilização. Como impactos finais produzidos por este trabalho, obteve-se um acréscimo de 35% sobre o número total de instruções suportadas pela arquitetura utilizada. Adicionalmente, 12% das instruções que já existiam no conjunto desta arquitetura foram modificadas para se adaptarem aos novos mecanismos implementados. Com isto, o conjunto atual da arquitetura passa a corresponder a 44% do total de instruções existentes na arquitetura da máquina virtual Java. Por último, além das estimativas desenvolvidas, foram também realizadas algumas sugestões para melhoria global dos algoritmos implementados. Em síntese, alguns pontos cobertos por estas sugestões incluem: a migração de elementos do processamento do escopo dinâmico para o estático, o desenvolvimento de mecanismos escaláveis para compactação de memória em tempo-real, a integração de escalonadores ao processo de gerência de memória e a extensão do processo de geração semi-automática de software e hardware para sistemas embarcados.
Resumo:
Esse trabalho de dissertação está incluído no contexto das pesquisas realizadas no Grupo de Processamento Paralelo e Distribuído da UFRGS. Ele aborda as áreas da computação de alto desempenho, interfaces simples de programação e de sistemas de interconexão de redes velozes. A máquina paralela formada por agregados (clusters) tem se destacado por apresentar os recursos computacionais necessários às aplicações intensivas que necessitam de alto desempenho. Referente a interfaces de programação, Java tem se mostrado uma boa opção para a escrita de aplicações paralelas por oferecer os sistemas de RMI e de soquetes que realizam comunicação entre dois computadores, além de todas as facilidades da orientação a objetos. Na área a respeito de interconexão de rede velozes está emergindo como uma tentativa de padronização a nova tecnologia Infiniband. Ela proporciona uma baixa latência de comunicação e uma alta vazão de dados, além de uma série de vantagens implementadas diretamente no hardware. É neste contexto que se desenvolve o presente trabalho de dissertação de mestrado. O seu tema principal é o sistema Aldeia que reimplementa a interface bastante conhecida de soquetes Java para realizar comunicação assíncrona em agregados formados por redes de sistema. Em especial, o seu foco é redes configuradas com equipamentos Infiniband. O Aldeia objetiva assim preencher a lacuna de desempenho do sistema padrão de soquetes Java, que além de usar TCP/IP possui um caráter síncrono. Além de Infiniband, o Aldeia também procura usufruir dos avanços já realizados na biblioteca DECK, desenvolvida no GPPD da UFRGS. Com a sua adoção, é possível realizar comunicação com uma interface Java sobre redes Myrinet, SCI, além de TCP/IP. Somada a essa vantagem, a utilização do DECK também proporciona a propriedade de geração de rastros para a depuração de programas paralelos escritos com o Aldeia. Uma das grandes vantagens do Aldeia está na sua capacidade de transmitir dados assincronamente. Usando essa técnica, cálculos da aplicação podem ser realizados concorrentemente com as operações pela rede. Por fim, os canais de dados do Aldeia substituem perfeitamente aqueles utilizados para a serialização de objetos. Nesse mesmo caminho, o Aldeia pode ser integrado à sistemas que utilizem a implementação de soquetes Java, agora para operar sobre redes de alta velocidade. Palavras-chave: Arquitetura Infiniband, agregado de computadores, linguagem de programação Java, alto desempenho, interface de programação.
Resumo:
A popularização das tecnologias de acesso à Internet por “banda larga” suportam a crescente proliferação de aplicações do tipo “par-a-par” (peer-to-peer), onde o usuário doméstico, tipicamente consumidor de informação, passa também a atuar como provedor. De forma simultânea, há uma popularização crescente dos jogos em rede, especialmente dos “jogos maciçamente multijogador” (MMG ou massively multiplayer game) onde milhares de jogadores interagem, em tempo real, em mundos virtuais de estado persistente. Os MMGs disponíveis atualmente, como EverQuest e Ultima Online, são implementados como sistemas centralizados, que realizam toda a simulação do jogo no “lado servidor”. Este modelo propicia controle de acesso ao jogo pelo servidor, além de ser muito resistente a jogadores trapaceiros. Porém, a abordagem cliente-servidor não é suficientemente escalável, especialmente para pequenas empresas ou projetos de pesquisa que não podem pagar os altos custos de processamento e comunicação dos servidores de MMGs centralizados. Este trabalho propõe o FreeMMG, um modelo híbrido, cliente-servidor e par-a-par, de suporte a jogos maciçamente multijogador de estratégia em tempo real (MMORTS ou massively multiplayer online real-time strategy). O servidor FreeMMG é escalável pois delega a maior parte da tarefa de simulação do jogo para uma rede par-apar, formada pelos clientes. É demonstrado que o FreeMMG é resistente a certos tipos de trapaças, pois cada segmento da simulação distribuída é replicado em vários clientes. Como protótipo do modelo, foi implementado o jogo FreeMMGWizards, que foi utilizado para gerar testes de escalabilidade com até 300 clientes simulados e conectados simultaneamente no mesmo servidor Os resultados de escalabilidade obtidos são promissores, pois mostram que o tráfego gerado em uma rede FreeMMG, entre servidor e clientes, é significativamente menor se comparado com uma alternativa puramente cliente-servidor, especialmente se for considerado o suporte a jogos maciçamente multijogador de estratégia em tempo real.
Resumo:
Este trabalho apresenta o estudo e projetação de uma sala de controle de uma central de geração de energia de uma mineradora do norte do Brasil. Foi utilizada a ferramenta participativa Design Macroergonômico (DM) para a identificação da demanda ergonômica de usuários, além da análise da representação mental que os usuários tem do seu ambiente de trabalho. Foi feita a comparação das demandas dos usuários, da gerência, da chefia e do especialista, o que mostrou que o usuário é quem melhor define as suas necessidades. A etapa de projeto foi embasada na revisão biliográfica sobre o trabalho de controle e no conhecimento da equipe multidisciplinar. Para avaliação e visualização das propostas elaboradas pelos participantes da pesquisa, foi utilizado uma maquete eletrônica que permitiu a visualização do ambiente futuro o mais próximo do real. A participação é um fator de sucesso na aprovação de mudanças pois o projeto está em vias de implantação.
Resumo:
Um enfraquecimento da autoridade do arquiteto e um recente isolamento da disciplina são manifestados nos novos modos em que são tomadas as decisões de projeto e em uma cisão entre a investigação, a educação e a prática profissional. Na produção argentina da última década isto é colocado em evidência em uma prática onde as decisões sobre os diferentes aspectos do edifício - especialmente suas superfícies aparentes, sua estrutura sustentadora e seus sistemas técnicos - são tomadas independentemente, e até por diferentes atores profissionais. A crescente estandardização iconográfica e técnica dos edifícios estão unidas a novos programas e a uma tematização dos desenvolvimentos urbanos que tomam forma de encraves autônomos de seu contexto. Os processos de decisão se assimilam cada vez mais aos dos produtos de consumo, onde o princípio de êxito substitui o de utilidade e onde uma incrementada capacidade de reprodução do que é de sucesso produz um efeito de espelho. Essa premeditação corrói a autenticidade de todos os produtos, sumindo-os em uma acelerada obsolescência simbólica. Nessas circunstâncias aparece como verossímil apenas aquilo que está além da capacidade de reprodução e de manipulação: o incontrolável e o irreversível. Fontes de sentido onde a arte e a arquitetura buscam significado no passado, no acaso, na pobreza ou na violência Depois de sua retirada disciplinar e da crise dos fundamentos que Eisenmam chama de "clássicos", é sugerida uma possível missão para a arquitetura, novamente fundada na utilidade, ligada ao desafio que apresenta um mundo finito com demandas crescentes e ao reconhecimento da nova condição de um mundo mais residual e menos natural, expondo novamente a velha oposição natural-artificial. Essa missão deveria atuar sobre aspetos tanto culturais quanto técnicos e é ligada a duas visões opostas: o sedentarismo, identificado com a caverna e a acumulação cultural, e o nomadismo, identificado com a figura do navio e a condição do artificial. Essas figuras, sugerimos, circunscrevem o novo cenário onde a arquitetura deverá encontrar sua missão.
Resumo:
O que se pretende com o trabalho, é apresentar uma análise cuidadosa de uma arquitetura em desaparecimento, a arquitetura dos Mercados, bem como os significados que estes sugerem na sociedade em que estão inseridos. Elegeu-se três exemplares de Mercados Gaúchos para nomear o referido trabalho, Pelotas, Porto Alegre e Itaqui. Considerados como legítimos espaços de encontro e de troca, efetivamente, abarcam uma atmosfera de imagens, de sons, de aromas, de sabores e de calor humano, inerente a todos os Mercados brasileiros, mas de forma muito particular naqueles Mercados. Tais equipamentos urbanos se aproximam, não somente pelo período em que foram implantados, mas por apresentarem uma série de similaridades que vão dos antecedentes históricos, aos esquemas compositivos. Considerados testemunhos da evolução dos tempos, os Mercados sofreram paulatinamente com a depreciação de seus espaços e o desvirtuamento de suas operações internas ao longo dos anos. Hoje, apesar de avariados, estão todos tombados, senão legalmente pelas autoridades, mas afetivamente pela população, e por esse motivo, configuram como referenciais únicos no contexto urbano daquelas cidades.
Resumo:
Uma metodologia de modelagem para a exploração do espaço de projeto de processadores é apresentada. A exploração do espaço de projeto constitui uma das etapas do fluxo de projeto dos atuais processadores de alto desempenho e de sistemas embarcados, que auxilia os projetistas no tratamento da complexidade inerente ao processo contemporâneo de projeto de sistemas computacionais. A principal característica desta metodologia é um processo de modelagem simples e rápido. Isso é obtido através da disponibilização dos recursos de modelagem em camadas com propósitos e níveis de complexidade de uso diferenciados e da limitação do número de elementos (palavras-chave, classes e métodos) que devem ser conhecidos pelo projetista para o acesso a estes recursos, independentemente da camada na qual eles se encontram. A única exigência para o uso de tais recursos são conhecimentos que estudantes de Computação adquirem ao longo dos seus cursos da área de Computação e Informática. Outras características da metodologia de modelagem incluem: recursos específicos e distintos para a descrição da organização, da arquitetura e de aspectos temporais do processador; um estilo de descrição estrutural de alto nível da organização; a possibilidade de uso de recursos gráficos em tempo de modelagem e em tempo de simulação; e a existência de informações nos modelos que podem ser usadas para a tradução das descrições para uma Hardware Description Language Todas estas características constituem um conjunto de soluções de modelagem e simulação de processadores que não é encontrado em outros ambientes usados na exploração do espaço de projeto, baseados em Architecture Description Languages, Hardware Description Languages e ferramentas de simulação. Além disso, os modelos de processadores, desenvolvidos com esta metodologia, fornecem os recursos para a aceleração do aprendizado de conteúdos de arquitetura de computadores que só são encontrados em simuladores para ensino. Uma infra-estrutura de software que implementa a metodologia de modelagem foi desenvolvida e está disponível. Ela foi usada no ensino e no contexto da pesquisa para a modelagem e simulação de diversos processadores. Uma comparação com a metodologia de modelagem de uma Architecture Description Language demonstra a simplicidade e a rapidez do processo de modelagem previsto na metodologia apresentada.
Resumo:
The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.
Resumo:
Este estudo aborda os anteprojetos realizados por arquitetos paranaenses entre os anos de 1962 e 1981 para concursos nacionais de arquitetura, os quais influenciaram e transformaram a arquitetura moderna no Paraná. Apresenta um panorama da evolução da arquitetura moderna brasileira ao analisar obras da escola carioca e da escola brutalista paulista; investiga o nascimento da arquitetura moderna paranaense, através das obras dos pioneiros. Aborda a chegada dos arquitetos paulistas em Curitiba, a partir de 1962; analisa a corrente migratória de arquitetos vindos de outros estados para a implantação do Curso de Arquitetura da UFPR, a partir de 1964; investiga o surgimento do ‘Grupo do Paraná’ e estuda a formação acadêmica de seus integrantes; elabora um cadastro de todos os concursos nacionais com premiações de arquitetos paranaenses; subdivide em cinco fases distintas os concursos cadastrados e os analisa individualmente: 1957 a 1961 - Antecedências; 1962 a 1966 – Fase de Emergência; 1967 a 1972 – Fase de Cristalização; 1973 a 1981 – Fase de Dispersão; 1982 a 1996 – Excurso.
Resumo:
Este trabalho é uma contribuição para o estudo da relação da tecnologia da automação em sistemas prediais e a arquitetura nas últimas décadas do século XX e início do século XXI. Focado no uso dessa tecnologia em edificações comerciais, nos seus diversos aspectos e vertentes, o trabalho procura identificar as facetas positivas dessa relação e possíveis traços de inter-dependência. Além disso, busca analisar o pensamento arquitetônico corrente nesse período e a gênese de conceitos correlatos, como o referente aos chamados “Edifícios Inteligentes” e “Edifícios de Alta Tecnologia”. O texto pretende ser um elemento de conscientização para a prevenção de resultados insatisfatórios e suas conseqüências ambientais, oriundos dessa concepção ideológica que preconiza a tecnologia como força de mudanças. Pretende mostrar que a arquitetura tenta, e deve, recuperar valores como o entorno, o urbano, a consciência social e ecológica; valores esses que estão muito além do simples uso da tecnologia. Assim, o exame das características da tecnologia da automação como ferramenta na busca do desenvolvimento sustentável permite uma nova visão de sua relação com a arquitetura, necessária para justificar sua utilização. Longe de pretender apontar uma solução definitiva e única, pois certamente são muitas, deseja-se mostrar o quão danosa pode ser a relação automação/arquitetura, quando esta última é suprimida por equipamentos de alta tecnologia. Deste modo, pretende-se indicar, senão o rumo exato, ao menos a direção para que edifícios realmente inteligentes possam vir integrar a realidade arquitetônica no cenário nacional.
Resumo:
Esta dissertação tem por objetivo elaborar um Catálogo de Imagens que pretende identificar a representação arquitetônica na collage ao longo do século XX, através das obras mais relevantes de artistas e arquitetos. Trata -se de explora r as representações arquitetônicas nas collages e as collages nas representações arquitetônicas, e visualizar essa familiaridade entre os processos de representação artística e de produção arquitetônica. Para isso vamos recorrer aos aspectos conceituais da collage, extraídos das análises já efetuadas por diferentes autores como Fernando Fuão, Simón Fiz, Sergio Lima e outros. Este trabalho visa também demonstrar o quanto este procedimento da collage é inerente à produção arquitetônica.
Resumo:
A presente pesquisa aborda os movimentos desencadeados na instituição escolar com a chegada dos ambientes informatizados nas escolas da rede municipal de Porto Alegre, tendo como interface de investigação as categorias de tempo e de espaço. Problematizo a relação escolarizaçãotecnologia no contexto de um cenário social que emerge na hegemonia tecnológica digital das redes de informação e comunicação, para que se tornem evidentes as configurações de tempo e de espaço forjadas no palco de uma proposta de organização da escola pública municipal que, ao reorganizar tempo e espaço escolares, marca a saída do modelo da escola seriada e a entrada da escola por ciclos de formação e autoriza uma forma de escolarização que coloca de forma oficial a materialidade e os saberes da informática educativa na rede de ensino municipal de Porto Alegre. Sob a lógica de uma perspectiva de investigação histórica e cultural, desnaturaliza-se a inserção da informática no tempo e no espaço ao considerá-la como não-imune aos efeitos do contemporâneo fenômeno de compressão do tempo e do espaço. Percorrendo as diferentes experiências espaço-temporais e as configurações assumidas pela sociedade ocidental, ganham visibilidade formas de escolarização que, num processo histórico, conquistaram legitimidade e produziram a escola pública, gratuita, obrigatória, tecnológica e ajustada às transformações e exigências de um cenário social regido por uma imensa acumulação de espetáculos. Continuidades e descontinuidades marcam a inserção das tecnologias de informação e de comunicação na maquinaria escolar, e o disciplinamento cognitivo e comportamental conquista novos dispositivos. Em um corpus de análise em que se entrelaçam documentos, entrevistas, observações e o complexo e ambivalente fenômeno implementado pela permanente revolução das redes digitais de comunicação e de informação, é que a inserção do saber e da materialidade da Informática na Educação no tempo e no espaço escolares passa a ser tematizada. Como um jogo de cara e coroa que, ao revelar sua face de veneno, tornando mais eficiente o controle individual e coletivo, faz, também, girar a moeda, para que o potencial participativo, socializante e emancipador da rede mundial de computadores aponte para a face do próprio remédio. A partir dessa faceta condicionante e nãodeterminista da relação escolarização-tecnologia, tempos e espaços para colonizar são problematizados a fim de fazer emergir, na mesma intensidade, tempos e espaços para fruir, para deixar espraiar a sensibilidade e a interação humanas, para potencializar o aprendizado e a aquisição dos saberes.
Resumo:
Este trabalho tem como objetivo a análise de um conjunto de obras que pertence ao grupo da vertente modernista brasileira, parte da escola carioca e parte da escola paulista. O fator comum entre elas é a independência dos elementos estruturais em relação aos demais que compõem os edifícios. O período delimitado para este estudo começa em 1936 e vai até 1961, de acordo com as datas dos projetos analisados. Como os momentos de consolidação das duas escolas não são coincidentes, o período entre essas datas é o maior, de acordo com o panorama nacional e internacional, que não deve ser considerado isoladamente em relação a cada escola. A Arquitetura Moderna Brasileira, tendo por base os princípios do racionalisma estutural, sob forte influência corbusiana, trilha o caminho de uma produção própria, valendo-se da cultura e tecnologia locais. Utilizando-se os exemplos de Lúcio Costa, Affonso Eduardo Reidy e Vilanova Artigas, de temas diversos, puderam ser analisadas as influências internacionais recebidas e o legado deixado por eles à produção arquitetônica brasileira desde então. Acompanham o texto escrito ilustrações que, além de seu caráter complementar, são imprescindíveis para a compreensão deste trabalho.
Resumo:
Este trabalho pretende colaborar com o registro e esclarecimento da história da arquitetura moderna brasileira, a partir da produção do arquiteto Ruy Ohtake na década de 1960. Para isso, inicialmente apresenta o contexto histórico, político e cultural, nacional e internacional do período. Trata-se de um segundo momento para a arquitetura brasileira, após a fundação de Brasília, que faz com que a arquitetura brasileira seja respeitada e reconhecida internacionalmente. Focaliza a arquitetura paulista e a formação do arquiteto, em meio a um período de efervescência cultural. Aponta contingências e influências que vieram colaborar com a formação de um grupo coeso de arquitetos com uma produção que se destaca no cenário internacional. Em um segundo momento o trabalho se concentra na produção residencial do arquiteto no período em estudo, identificando particularidades e semelhanças dentro desta produção paulista. Busca referenciais nos precedentes nacionais, na arquitetura japonesa, e no raciocínio plástico vinculado ao abstracionismo geométrico derivado da convivência com as artes plásticas através de sua mãe, Tomie Ohtake. Uma breve apresentação de trabalhos de caráter público contrapõe a produção residencial. Enfim, trata-se de uma reflexão sobre a produção individual do arquiteto Ruy Ohtake, inserida na pluralidade de uma escola arquitetônica, através do exercício analítico de sua produção. Procurou-se identificar as raízes desta obra, suas bases conceituais, seus precedentes e suas particularidades e com isso colaborar para a compreensão de uma história recente em que a arquitetura protagoniza relações sociais, políticas e estéticas.
Resumo:
As modernas aplicações em diversas áreas como multimídia e telecomunicações exigem arquiteturas que ofereçam altas taxas de processamento. Entretanto, os padrões e algoritmos mudam com incrível rapidez o que gera a necessidade de que esses sistemas digitais tenham também por característica uma grande flexibilidade. Dentro desse contexto, tem-se as arquiteturas reconfiguráveis em geral e, mais recentemente, os sistemas reconfiguráveis em um único chip como soluções adequadas que podem oferecer desempenho, sendo, ao mesmo tempo, adaptáveis a novos problemas e a classes mais amplas de algoritmos dentro de um dado escopo de aplicação. Este trabalho apresenta o estado-da-arte em relação a arquiteturas reconfiguráveis nos meios acadêmcio e industrial e descreve todas as etapas de desenvolvimento do processador de imagens reconfigurável DRIP (Dynamically Reconfigurable Image Processor), desde suas origens como um processador estático até sua última versão reconfigurável em tempo de execução. O DRIP possui um pipeline composto por 81 processadores elementares. Esses processadores constituem a chave do processo de reconfiguração e possuem a capacidade de computar um grande número de algoritmos de processamento de imagens, mais específicamente dentro do domínio da filtragem digital de imagens. Durante o projeto, foram desenvolvidos uma série de modelos em linguagem de descrição de hardware da arquitetura e também ferramentas de software para auxiliar nos processos de implementação de novos algorimos, geração automática de modelos VHDL e validação das implementações. O desenvolvimento de mecanismos com o objetivo de incluir a possibilidade de reconfiguração dinâmica, naturalmente, introduz overheads na arquitetura. Contudo, o processo de reconfiguração do DRIP-RTR é da ordem de milhões de vezes mais rápido do que na versão estaticamente reconfigurável implementada em FPGAs Altera. Finalizando este trabalho, é apresentado o projeto lógico e elétrico do processador elementar do DRIP, visando uma futura implementação do sistema diretamente como um circuito VLSI.