81 resultados para Arquitetura modular do produto


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho propõe a utilização da arquitetura Trace como um sistema de detecção de intrusão. A arquitetura Trace oferece suporte ao gerenciamento de protocolos de alto nível, serviços e aplicações através de uma abordagem baseada na observação passiva de interações de protocolos (traços) no tráfego de rede. Para descrever os cenários a serem monitorados, é utilizada uma linguagem baseada em máquinas de estado. Esta linguagem permite caracterizar aspectos observáveis do tráfego capturado com vistas a sua associação com formas de ataque. O trabalho mostra, através de exemplos, que esta linguagem é adequada para a modelagem de assinaturas de ataques e propõe extensões para permitir a especificação de um número maior de cenários ligados ao gerenciamento de segurançaa. Em seguida, é descrita a implementação do agente de monitoração, componente-chave da arquitetura Trace, e sua utilização para detectar intrusões. Esse agente (a) captura o tráfego da rede, (b) observa a ocorrência dos traços programados e (c) armazena estatísticas sobre a sua ocorrência em uma base de informações de gerenciamento (MIB { Management Information Base). O uso de SNMP permite a recuperação destas informações relativas µa ocorrências dos ataques. A solução apresentada mostrou ser apropriada para resolver duas classes de problemas dos sistemas de detecção de intrusão: o excesso de falsos positivos e a dificuldade em se modelar certos ataques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente tese apresenta a concepção de uma rede neural oscilatória e sua realização em arquitetura maciçamente paralela, a qual é adequada à implementação de chips de visão digitais para segmentação de imagens. A rede proposta, em sua versão final, foi denominada ONNIS-GI (Oscillatory Neural Network for Image Segmentation with Global Inhibition) e foi inspirada em uma rede denominada LEGION (Locally Excitatory Globally Inhibitory Oscillator Network), também de concepção recente. Inicialmente, é apresentada uma introdução aos procedimentos de segmentação de imagens, cujo objetivo é o de situar e enfatizar a importância do tema abordado dentro de um contexto abrangente, o qual inclui aplicações de visão artificial em geral. Outro aspecto abordado diz respeito à utilização de redes neurais artificiais em segmentação de imagens, enfatizando as denominadas redes neurais oscilatórias, as quais têm apresentado resultados estimulantes nesta área. A implementação de chips de visão, integrando sensores de imagens e redes maciçamente paralelas de processadores, é também abordada no texto, ressaltando o objetivo prático da nova rede neural proposta. No estudo da rede LEGION, são apresentados resultados de aplicações originais desenvolvidas em segmentação de imagens, nos quais é verificada sua propriedade de separação temporal dos segmentos. A versão contínua da rede, um arranjo paralelo de neurônios baseados em equações diferenciais, apresenta elevada complexidade computacional para implementação em hardware digital e muitos parâmetros, com procedimento de ajuste pouco prático. Por outro lado, sua arquitetura maciçamente paralela apresenta-se particularmente adequada à implementação de chips de visão analógicos com capacidade de segmentação de imagens. Com base nos bons resultados obtidos nas aplicações desenvolvidas, é proposta uma nova rede neural, em duas versões, ONNIS e ONNIS-GI, as quais suplantam a rede LEGION em diversos aspectos relativos à implementação prática. A estrutura dos elementos de processamento das duas versões da rede, sua implementação em arquitetura maciçamente paralela e resultados de simulações e implementações em FPGA são apresentados, demonstrando a viabilidade da proposta. Como resultado final, conclui-se que a rede ONNIS-GI apresenta maior apelo de ordem prática, sendo uma abordagem inovadora e promissora na solução de problemas de segmentação de imagens, possuindo capacidade para separar temporalmente os segmentos encontrados e facilitando a posterior identificação dos mesmos. Sob o ponto de vista prático, a nova rede pode ser utilizada para implementar chips de visão digitais com arquitetura maciçamente paralela, explorando a velocidade de tais topologias e apresentando também flexibilidade para implementação de procedimentos de segmentação de imagens mais sofisticados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo sobre a relação existente entre as variáveis de rugosidade, dureza e condutividade térmica de alguns materiais utilizados em design de produto e a percepção tátil. Inicialmente, foram realizadas pesquisas de descritores subjetivos que os usuários relacionavam com o ato de tocar. A partir destes resultados, foram identificadas características superficiais dos materiais que estavam ligadas a estes descritores. Foi possível então, desenvolver amostras em diferentes materiais (cerâmicos, poliméricos, metálicos e naturais), para serem testadas em ensaios diversos. Os primeiros testes realizados, permitiam a visualização das amostras. Posteriormente, foram realizados ensaios de forma que os entrevistados não podiam visualizar as amostras. Desta forma, somente a percepção tátil era testada sem influência dos demais órgãos dos sentidos. Nestes testes, os entrevistados verificavam entre as variáveis abordadas no trabalho (rugosidade, dureza e condutividade térmica), se haviam diferenças entre as amostras e ordenavam de maior à menor conforme o que era percebido. Com base nas respostas obtidas, e também nos valores atribuídos às amostras para as variáveis já relacionadas anteriormente, foi possível verificar limiares de percepção e também, a relação existente entre o que é percebido e os valores atribuídos às respectivas variáveis tecnológicas. Os resultados obtidos indicam que a percepção de diferentes texturas, foi mais facilmente detectada do que diferenças de condutividade térmica e principalmente de dureza. A preferência por texturas menos rugosas foi detectada em grande parte das respostas obtidas Da mesma forma, pode-se dizer que a temperatura ambiente de realização dos testes para condutividade térmica, teve influência direta nas respostas obtidas. Para os ensaios aplicados, não houve diferença grande entre respostas de adultos e de crianças e também entre crianças com deficiência visual e crianças sem deficiência. A investigação da percepção tátil, e posteriormente a relação que se pode fazer desta com algumas das propriedades dos materiais, contribui tanto na seleção de materiais para projeto de produtos, como para seleção de processos de fabricação. Sendo assim, este estudo pode servir como mais uma ferramenta no processo de criação, considerando assim os futuros usuários. Desta maneira, o vínculo entre o usuário e o produto torna-se mais forte, já que este atende às necessidades e também considera a percepção do usuário em relação aos materiais utilizados, podendo, inclusive, evitar um descarte rápido contribuindo para aumentar a sustentabilidade. Além disto, este estudo permite também que a produção nas indústrias de determinados segmentos (têxtil, brinquedos, utensílios, etc.) possa ser orientada de forma que considere limiares de percepção, evitando assim investimentos desnecessários em processos de produção que resultariam em mudanças que podem não ser percebidas pelos usuários. Em suma, os resultados obtidos neste estudo, podem ser utilizados em diversas áreas da Engenharia e do Design, agregando a estas uma ferramenta na orientação de projetos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso de Tecnologia da Informação (TI) tem evoluído muito nos últimos anos e isto influencia, sem dúvida, o ensino e a prática da arquitetura. Observa-se que o ensino de projeto nas escolas de arquitetura se dá através de um processo prático-reflexivo, no qual os alunos aprendem fazendo, sob a orientação dos professores. O conhecimento arquitetônico, portanto, vai sendo construído através da análise e interpretação do projeto e a busca de significados a partir da sua representação, sejam esboços à mão livre ou imagens digitais. Desta forma, as disciplinas de prática projetual têm grande importância, sendo consideradas fundamentais para a formação do arquiteto. Reconhecendo que a aplicação da TI gera novos paradigmas projetuais, mostrou-se importante a investigação da docência e da prática profissional. Este trabalho tem por objetivo caracterizar a presença e o uso de TI no ensino de projeto arquitetônico nas Faculdades de Arquitetura e Urbanismo (FAU) de Porto Alegre, RS. Demonstra-se, através dos resultados de estudo exploratório em quatro FAUs, as características pessoais e a forma como estão sendo desenvolvidas as habilidades dos alunos para a prática de projeto arquitetônico em função das tecnologias disponíveis e das tendências futuras que se apresentam a estes profissionais. Verificou-se como os estudantes usam recursos computacionais em geral, qual o seu o nível de conhecimento sobre TI e como tem sido feita a abordagem pelas FAUs deste tema. Explorou-se, de forma especial, a aplicação de sistemas CAD no processo de projeto arquitetônico Constatou-se que os sistemas ainda são bastante sub utilizados e que as disciplinas dos currículos das FAUs estudadas levam a uma formação aquém da necessidade exigida pelos escritórios de arquitetura, onde o uso de recursos computacionais é corrente. Para estarem adequados as exigências do mercado de trabalho, os estudantes além de completarem o seu Curso, necessitam superar a necessidade de aprendizagem de sistemas computacionais, muitas vezes adquirida durante o estágio ou em cursos extra-curriculares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente tese visa contribuir na construção de ambientes de desenvolvimento de software através da proposição de uma arquitetura reflexiva para ambiente de suporte a processo, nomeada WRAPPER (Webbased Reflective Architecture for Process suPport EnviRonment). O objetivo desta arquitetura é prover uma infra-estrutura para um ambiente de suporte a processo de software, integrando tecnologias da World Wide Web, objetos distribuídos e reflexão computacional. A motivação principal para esta arquitetura vem da necessidade de se obter maior flexibilidade na gerência de processo de software. Esta flexibilidade é obtida através do uso de objetos reflexivos que permitem a um gerente de processo obter informações e também alterar o processo de software de forma dinâmica. Para se obter um ambiente integrado, a arquitetura provê facilidades para a agregação de ferramentas CASE de plataformas e fabricantes diversos, mesmo disponibilizadas em locais remotos. A integração de ferramentas heterogêneas e distribuídas é obtida através do uso de tecnologias Web e de objetos distribuídos. Reflexão computacional é usada no ambiente tanto para extrair dados da execução do processo, quanto para permitir a adaptação do mesmo. Isto é feito através da introdução e controle de meta-objetos, no metanível da arquitetura, que podem monitorar e mesmo alterar os objetos do nível base. Como resultado, a arquitetura provê as seguintes características: flexibilidade na gerência de processo, permitindo o controle e adaptação do processo; distribuição do ambiente na Web, permitindo a distribuição de tarefas do processo de software e a integração de ferramentas em locais remotos; e heterogeneidade para agregar componentes ao ambiente, permitindo o uso de ferramentas de plataformas e fornecedores diversos. Neste contexto, o presente trabalho apresenta a estrutura da arquitetura reflexiva, bem como os mecanismos usados (e suas interações) para a modelagem e execução de processo dentro do ambiente de suporte ao processo de software.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O aumento na complexidade dos sistemas embarcados, compostos por partes de hardware e software, aliado às pressões do mercado que exige novos produtos em prazos cada vez menores, tem levado projetistas a considerar a possibilidade de construir sistemas a partir da integração de componentes já existentes e previamente validados. Esses componentes podem ter sido desenvolvidos por diferentes equipes ou por terceiros e muitas vezes são projetados utilizando diferentes metodologias, linguagens e/ou níveis de abstração. Essa heterogeneidade torna complexo o processo de integração e validação de componentes, que normalmente é realizado através de simulação. O presente trabalho especifica mecanismos genéricos e extensíveis que oferecem suporte à cooperação entre componentes heterogêneos em um ambiente de simulação distribuída, sem impor padrões proprietários para formatos de dados e para a descrição do comportamento e interface dos componentes. Esses mecanismos são baseados na arquitetura DCB (Distributed Co-Simulation Backbone), voltada para co-simulação distribuída e heterogênea e inspirada nos conceitos de federado (componente de simulação) e federação (conjunto de componentes) que são definidos pelo HLA (High Level Architecture), um padrão de interoperabilidade para simulações distribuídas. Para dar suporte à co-simulação distribuída e heterogênea, esse trabalho descreve mecanismos que são responsáveis pelas tarefas de cooperação e distribuição, chamados de embaixadores, assim como o mecanismo gateway, que é responsável pela interoperabilidade entre linguagens e conversão de tipos de dados. Também é apresentada uma ferramenta de suporte à geração das interfaces de co-simulação, que são constituídas de dois embaixadores configuráveis e um gateway para cada federado, gerado a partir de templates pré-definidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis presents the study and development of fault-tolerant techniques for programmable architectures, the well-known Field Programmable Gate Arrays (FPGAs), customizable by SRAM. FPGAs are becoming more valuable for space applications because of the high density, high performance, reduced development cost and re-programmability. In particular, SRAM-based FPGAs are very valuable for remote missions because of the possibility of being reprogrammed by the user as many times as necessary in a very short period. SRAM-based FPGA and micro-controllers represent a wide range of components in space applications, and as a result will be the focus of this work, more specifically the Virtex® family from Xilinx and the architecture of the 8051 micro-controller from Intel. The Triple Modular Redundancy (TMR) with voters is a common high-level technique to protect ASICs against single event upset (SEU) and it can also be applied to FPGAs. The TMR technique was first tested in the Virtex® FPGA architecture by using a small design based on counters. Faults were injected in all sensitive parts of the FPGA and a detailed analysis of the effect of a fault in a TMR design synthesized in the Virtex® platform was performed. Results from fault injection and from a radiation ground test facility showed the efficiency of the TMR for the related case study circuit. Although TMR has showed a high reliability, this technique presents some limitations, such as area overhead, three times more input and output pins and, consequently, a significant increase in power dissipation. Aiming to reduce TMR costs and improve reliability, an innovative high-level technique for designing fault-tolerant systems in SRAM-based FPGAs was developed, without modification in the FPGA architecture. This technique combines time and hardware redundancy to reduce overhead and to ensure reliability. It is based on duplication with comparison and concurrent error detection. The new technique proposed in this work was specifically developed for FPGAs to cope with transient faults in the user combinational and sequential logic, while also reducing pin count, area and power dissipation. The methodology was validated by fault injection experiments in an emulation board. The thesis presents comparison results in fault coverage, area and performance between the discussed techniques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Motivado pela relevância política do tema emprego, este trabalho quantifica e analisa os empregos que podem ser gerados no Rio Grande do Sul, no curto e médio prazo, através de alterações na demanda final de diferentes setores que compõem sua economia. Para tanto, utiliza-se da experiência de um modelo de geração de emprego baseado em técnicas insumo-produto, desenvolvido por economistas do BNDES, que neste trabalho é aplicado à informações referentes à economia gaúcha. Obtidos os resultados do modelo correlacionam-se os setores quanto a sua capacidade de gerar emprego com atributos que reflitam a qualidade do emprego gerado e sua capacidade de desencadear crescimento econômico. Também se procura mapear a estrutura produtiva do Estado como forma de avaliar os resultados de empregos setoriais em relação as suas diferentes regiões.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem o objetivo de delinear as condições de implantação e adequação dos edifícios a regiões especiais de arquitetura de pousadas, desenvolvidas na região do Pantanal, através de levantamento das condicionantes básicas que precisam ser levadas em conta nesta situação, a fim de fornecer subsídios referenciais para o desenvolvimento de uma arquitetura voltada e adaptada à natureza local.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste início de década, observa-se a transformação das áreas de Computação em Grade (Grid Computing) e Computação Móvel (Mobile Computing) de uma conotação de interesse emergente para outra caracterizada por uma demanda real e qualificada de produtos, serviços e pesquisas. Esta tese tem como pressuposto a identificação de que os problemas hoje abordados isoladamente nas pesquisas relativas às computações em grade, consciente do contexto e móvel, estão presentes quando da disponibilização de uma infra-estrutura de software para o cenário da Computação Pervasiva. Neste sentido, como aspecto central da sua contribuição, propõe uma solução integrada para suporte à Computação Pervasiva, implementada na forma de um middleware que visa criar e gerenciar um ambiente pervasivo, bem como promover a execução, sob este ambiente, das aplicações que expressam a semântica siga-me. Estas aplicações são, por natureza, distribuídas, móveis e adaptativas ao contexto em que seu processamento ocorre, estando disponíveis a partir de qualquer lugar, todo o tempo. O middleware proposto, denominado EXEHDA (Execution Environment for Highly Distributed Applications), é adaptativo ao contexto e baseado em serviços, sendo chamado de ISAMpe o ambiente por este disponibilizado. O EXEHDA faz parte dos esforços de pesquisa do Projeto ISAM (Infra-Estrutura de Suporte às Aplicações Móveis Distribuídas), em andamento na UFRGS. Para atender a elevada flutuação na disponibilidade dos recursos, inerente à Computação Pervasiva, o EXEHDA é estruturado em um núcleo mínimo e em serviços carregados sob demanda. Os principais serviços fornecidos estão organizados em subsistemas que gerenciam: (a) a execução distribuída; (b) a comunicação; (c) o reconhecimento do contexto; (d) a adaptação; (e) o acesso pervasivo aos recursos e serviços; (f) a descoberta e (g) o gerenciamento de recursos No EXEHDA, as condições de contexto são pró-ativamente monitoradas e o suporte à execução deve permitir que tanto a aplicação como ele próprio utilizem essas informações na gerência da adaptação de seus aspectos funcionais e não-funcionais. O mecanismo de adaptação proposto para o EXEHDA emprega uma estratégia colaborativa entre aplicação e ambiente de execução, através da qual é facultado ao programador individualizar políticas de adaptação para reger o comportamento de cada um dos componentes que constituem o software da aplicação. Aplicações tanto do domínio da Computação em Grade, quanto da Computação Pervasiva podem ser programadas e executadas sob gerenciamento do middleware proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce considérable travail de recherche s’occupe de faire la relation entre l’Architecture, le Pouvoir et l’Oppression. Pour devenir possible cette tâche, nous avons, d’abord et de façon particulière, discouri largement au sujet de ces concepts, pour arriver, à la fin, de forme étendue, à une étude plus complète, plus objective et plus conclusive. La recherche a été divisée en trois parties, aux abordages distintes, mais complémentaires parmi leurs mêmes. Dans la première, nous avons travaillé sur l’arc de l’évolution de l’Architecture, qui commence avec la Renaissance, continue travers le Maniérisme et polarise em arrivant au Baroque, lequel nous a intéressé , particulièrement, une fois qu’il s’agit d’une expréssion claire du Pouvoir sur les Arts. Dans la deuxième, nous avons defini le concept du mot Pouvoir à travailler, en choisissant le Roi Louis XIV , de France, comme le suprême représentant de l’expréssion. Tout de suíte, nous avons remarqué la Cour du Monarque comme paradigme de l’Oppression. Dans la troisième partie, finalement, nous avons réalisé la resumée de tous ces concepts, en une seule oeuvre: Versailles. Pour en finir, la compreension des études nous a permis identifer la force du symbolisme que la construction du Palais a eu: érigé pour la Gloire et la perpétuation du Pouvoir du Roi-Soleil . Le lieu où il se confond avec la construction et réalise son auto-affirmation ; le centre pour lequel toute la Cour - fréquemment opprimée par la forte vigilance du Monarque – a été déménagée. Louis XIV est le Pouvoir et Versailles est la plâce où le Roi semble lumineux comme le Soleil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é a definição de um conjunto de roteiros para o ensino de arquitetura de computadores com enfoque em arquiteturas superescalares. O procedimento é baseado em simulação e verificação da influência dos parâmetros arquiteturais dos processadores, em termos funcionais e de desempenho. É dada ênfase a conceitos como memória cache, predição de desvio, execução fora de ordem, unidades funcionais e etc. Através do estudo e avaliação dos parâmetros que constituem estes conceitos, procurava-se através dos roteiros identificar as configurações com melhor desempenho. Para a implementação destes roteiros é dotado o conjunto de ferramentas de simulação SimpleScalar. Este conjunto, além de estar disponibilizado em código aberto na página oficial das ferramentas, traz como vantagem a possibilidade de alteração do código para fins de pesquisa. Este trabalho e os roteiros que o compõem têm como objetivos auxiliar professores e estimular os alunos através de simulações, como forma didática de testar conceitos vistos em sala de aula. Os roteiros são apresentados com os respectivos resultados de simulação e incrementados com comentários e sugestões de um conjunto de perguntas e respostas para que o trabalho possa ter continuidade necessária, partindo da sala de aula para a simulação, busca de respostas e culminando com um relatório final a ser avaliado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O desconhecimento, por parte da comunidade em geral, Portoalegrense e Rio Grandense sobre quem foi o Engenheiro-Arquiteto Manoel Itaqui e qual foi a sua contribuição para a arquitetura da Capital Gaúcha, devido à pouca informação existente, é o motivo principal deste trabalho que procura demonstrar sua trajetória, sem ser uma biografia, tomando como ponto de partida o surgimento do sobrenome “Itaqui”, passando por sua formação, até a produção de seus projetos e obras que encontram-se ligados à própria História da Capital e da formação da Universidade Federal do Rio Grande do Sul. A análise de sua arquitetura, feita prédio a prédio, evidencia a sua evolução que inicia, nos primeiros anos do século XX, com o estilo “Art Nouveau” e vai sendo alterada com o passar do tempo até culminar com uma obra de engenharia, seu último projeto, pelo qual é mais conhecido, do Viaduto Otávio Rocha. Busca-se assim, colocar em evidência o elenco de sua produção intelectual para a Capital, em sua suposta totalidade, dar-lhe o devido reconhecimento e torná-lo mais conhecido pela comunidade, não só acadêmica como em geral.