983 resultados para Arquitetura modular do produto
Resumo:
As artes visuais, e especificamente a fotografia, possibilitam uma linguagem indireta e ao mesmo tempo subjetiva sobre as transformações do espaço. Isto nos faz pensar sobre o olhar singular do sujeito, que por sua vez também diz respeito ao contexto urbano como um todo. A fotografia ingressa neste trabalho como ferramenta comum de captação das imagens em três experiências por mim realizadas através de percursos. Ela não contribui apenas como um instrumento mecânico capaz de gerar imagens mas, principalmente, como um processo de reflexão sobre a arquitetura através da origem do processo fotográfico negativo-positivo e suas alternâncias (presença/ausência, mobilidade/imobilidade, luz/sombra, irreversível/inacabável) numa relação com a cidade. A primeira experiência, realizada junto ao viaduto Otávio Rocha, apresentada em pranchas de contato, tem o movimento futurista como referencial teórico, e relaciona o deslocamento do sujeito salientando questões referentes à simultaneidade, à velocidade, à mobilidade e à multiplicidade de imagens Na seqüência fotográfica, realizada na segunda experiência em Paris, a simultaneidade acontece através do acaso e da leitura das imagens que apresenta outros percursos realizados através do pensamento analógico, com referência no movimento surrealista. A terceira experiência se concentra especificamente no olhar, na atenção, no acúmulo de imagens e nas sombras projetadas, próprio do processo fotográfico, relacionado-os com o fenômeno urbano e o processo de tradução do fotográfico: o desenho panorâmico da avenida Borges de Medeiros. As características das imagens destas três experiências estão muito próximas das situações vividas na cidade. A fragmentação o acúmulo fotográficos gerados a partir dos percursos, constituem uma resposta simbólica à relação do sujeito na realidade urbana O processo de resgate do olhar do sujeito é análogo ao processo fotográfico pois, ao fotografarmos, iniciamos um processo de assimilação que se completa com o trabalho do negativo. O ato fotográfico, como tal, representa, enfim, a concretização da importância física do olhar de cada sujeito sobre a arquitetura e sobre a cidade.
Resumo:
A melhoria de produtos e processos industriais pode ser realizada utilizando-se métodos de otimização experimental. Este trabalho apresenta um método estruturado para otimização envolvendo variáveis relacionadas com qualidade, comumente utilizadas, e variáveis que descrevem a confiabilidade do produto. O interesse em particular, está em sistematizar uma forma apropriada de determinar o prazo de garantia de produtos, baseado em testes de degradação acelerados. Para atingir este propósito utiliza-se projeto de experimentos conjuntamente com técnicas de avaliação sensorial, utilizada para medir o grau de degradação das amostras provindas dos testes de confiabilidade acelerados. O método é ilustrado com um estudo de caso realizado num produto fabricado em injeção de plástico. No exemplo do estudo de caso, deseja-se modelar a garantia de um piso plástico utilizado, na maternidade, para criação de suínos. Até o momento da realização da análise ocorriam reclamações de problemas com o produto dentro do prazo e garantia. O principal problema era a delaminação do produto devida a intensa fucção entre os cascos do animal e o piso. Um número elevado de reclamações durante o prazo de garantia levou ao desenvolvimento de uma nova composição do piso; o método proposto aqui é utilizado para determinar um prazo de garantia apropriado para produtos novos.
Resumo:
A tarefa de estimação de movimento, utilizada na compressão de vídeo digital, é normalmente realizada em hardware por processador dedicado, uma vez que demanda expressiva capacidade computacional. Este trabalho propõe e desenvolve uma arquitetura de hardware para realizar o cálculo dos vetores de movimento no contexto de compressão de vídeo digital. Essa arquitetura para estimação de movimento é composta pelos blocos: interface de entrada e saída (E/S), matriz de processamento com 64 elementos de processamento, unidade de comparação e unidade de controle. A arquitetura foi descrita em linguagem VHDL de maneira que o número de bits utilizados para representação da luminância dos pontos é configurável. A partir desta descrição, foi gerado um protótipo para dados representados em 4 bits utilizando um kit de desenvolvimento baseado no dispositivo FPGA XC2S150 da Xilinx. Para validação do algoritmo e da arquitetura implementada, além da simulação, foi desenvolvido um software para plataforma PC capaz de exercitar as funcionalidades do protótipo. O PC é utilizado como dispositivo controlador de E/S para esta validação, na qual uma implementação do algoritmo em software e outra em linguagem de descrição de hardware são comparadas. A máxima freqüência de trabalho do protótipo, estimada por simulação da arquitetura mapeada no FPGA XC2S150, é de 33 MHz. A esta freqüência o núcleo da arquitetura paralela de 64 elementos de processamento realiza cerca de 2,1 GOps (bilhões de operações inteiras por segundo). Esta arquitetura de hardware calcula os vetores de movimento para vídeo no formato 640x480 pontos à taxa de 107,32 quadros por segundo, ou um quadro a cada 9,3 ms. A arquitetura implementada para luminânica em 4 bits ocupa 16 pinos de E/S, 71,1% dos blocos lógicos do FPGA e 83,3% dos blocos de memória disponíveis no dispositivo XC2S150.
Resumo:
Esta dissertação apresenta o desenvolvimento de produto em um fabricante de conexões. Mais especificamente, este trabalho apresenta a aplicação de metodologia de desenvolvimento de produto em uma empresa de médio porte, em um ambiente de engenharia simultânea, buscando o enfoque da qualidade em todas as fases, e realizando adaptações da metodologia quando necessário. A dissertação apresenta ainda uma revisão da literatura abordando: Desenvolvimento do Produto, Engenharia Simultânea, Desenvolvimento da Função Qualidade (Quality Function Development QFD) e Projeto de Experimentos (Design oi Experiments DOE). A engenharia simultânea pode ser considerada como sendo uma metodologia para desenvolvimento de produtos, objetivando otimizar tempo, custo, qualidade do produto e seu processo produtivo. A sinalização mais evidente da engenharia simultânea é o conceito para o trabalho em equipe, aproveitando as características multifuncionais próprias das pequenas e médias empresas. A identificação dos requisitos do cliente, transformadas em ações para o projeto, tem como ferramenta fundamental o QFD. A sua aplicação, com os devidos registros torna-se uma importante fonte de dados para novos desenvolvimentos. A aplicação do projeto de experimentos auxilia o desenvolvimento de produto, pois identificam como os parâmetros do projeto influenciam as caraterísticas da qualidade, orientando para testes mais objetivos com conseqüente ganho de tempo e menores custos de projeto.
Resumo:
Este trabalho propõe a utilização da arquitetura Trace como um sistema de detecção de intrusão. A arquitetura Trace oferece suporte ao gerenciamento de protocolos de alto nível, serviços e aplicações através de uma abordagem baseada na observação passiva de interações de protocolos (traços) no tráfego de rede. Para descrever os cenários a serem monitorados, é utilizada uma linguagem baseada em máquinas de estado. Esta linguagem permite caracterizar aspectos observáveis do tráfego capturado com vistas a sua associação com formas de ataque. O trabalho mostra, através de exemplos, que esta linguagem é adequada para a modelagem de assinaturas de ataques e propõe extensões para permitir a especificação de um número maior de cenários ligados ao gerenciamento de segurançaa. Em seguida, é descrita a implementação do agente de monitoração, componente-chave da arquitetura Trace, e sua utilização para detectar intrusões. Esse agente (a) captura o tráfego da rede, (b) observa a ocorrência dos traços programados e (c) armazena estatísticas sobre a sua ocorrência em uma base de informações de gerenciamento (MIB { Management Information Base). O uso de SNMP permite a recuperação destas informações relativas µa ocorrências dos ataques. A solução apresentada mostrou ser apropriada para resolver duas classes de problemas dos sistemas de detecção de intrusão: o excesso de falsos positivos e a dificuldade em se modelar certos ataques.
Resumo:
A presente tese apresenta a concepção de uma rede neural oscilatória e sua realização em arquitetura maciçamente paralela, a qual é adequada à implementação de chips de visão digitais para segmentação de imagens. A rede proposta, em sua versão final, foi denominada ONNIS-GI (Oscillatory Neural Network for Image Segmentation with Global Inhibition) e foi inspirada em uma rede denominada LEGION (Locally Excitatory Globally Inhibitory Oscillator Network), também de concepção recente. Inicialmente, é apresentada uma introdução aos procedimentos de segmentação de imagens, cujo objetivo é o de situar e enfatizar a importância do tema abordado dentro de um contexto abrangente, o qual inclui aplicações de visão artificial em geral. Outro aspecto abordado diz respeito à utilização de redes neurais artificiais em segmentação de imagens, enfatizando as denominadas redes neurais oscilatórias, as quais têm apresentado resultados estimulantes nesta área. A implementação de chips de visão, integrando sensores de imagens e redes maciçamente paralelas de processadores, é também abordada no texto, ressaltando o objetivo prático da nova rede neural proposta. No estudo da rede LEGION, são apresentados resultados de aplicações originais desenvolvidas em segmentação de imagens, nos quais é verificada sua propriedade de separação temporal dos segmentos. A versão contínua da rede, um arranjo paralelo de neurônios baseados em equações diferenciais, apresenta elevada complexidade computacional para implementação em hardware digital e muitos parâmetros, com procedimento de ajuste pouco prático. Por outro lado, sua arquitetura maciçamente paralela apresenta-se particularmente adequada à implementação de chips de visão analógicos com capacidade de segmentação de imagens. Com base nos bons resultados obtidos nas aplicações desenvolvidas, é proposta uma nova rede neural, em duas versões, ONNIS e ONNIS-GI, as quais suplantam a rede LEGION em diversos aspectos relativos à implementação prática. A estrutura dos elementos de processamento das duas versões da rede, sua implementação em arquitetura maciçamente paralela e resultados de simulações e implementações em FPGA são apresentados, demonstrando a viabilidade da proposta. Como resultado final, conclui-se que a rede ONNIS-GI apresenta maior apelo de ordem prática, sendo uma abordagem inovadora e promissora na solução de problemas de segmentação de imagens, possuindo capacidade para separar temporalmente os segmentos encontrados e facilitando a posterior identificação dos mesmos. Sob o ponto de vista prático, a nova rede pode ser utilizada para implementar chips de visão digitais com arquitetura maciçamente paralela, explorando a velocidade de tais topologias e apresentando também flexibilidade para implementação de procedimentos de segmentação de imagens mais sofisticados.
Resumo:
Este trabalho apresenta um estudo sobre a relação existente entre as variáveis de rugosidade, dureza e condutividade térmica de alguns materiais utilizados em design de produto e a percepção tátil. Inicialmente, foram realizadas pesquisas de descritores subjetivos que os usuários relacionavam com o ato de tocar. A partir destes resultados, foram identificadas características superficiais dos materiais que estavam ligadas a estes descritores. Foi possível então, desenvolver amostras em diferentes materiais (cerâmicos, poliméricos, metálicos e naturais), para serem testadas em ensaios diversos. Os primeiros testes realizados, permitiam a visualização das amostras. Posteriormente, foram realizados ensaios de forma que os entrevistados não podiam visualizar as amostras. Desta forma, somente a percepção tátil era testada sem influência dos demais órgãos dos sentidos. Nestes testes, os entrevistados verificavam entre as variáveis abordadas no trabalho (rugosidade, dureza e condutividade térmica), se haviam diferenças entre as amostras e ordenavam de maior à menor conforme o que era percebido. Com base nas respostas obtidas, e também nos valores atribuídos às amostras para as variáveis já relacionadas anteriormente, foi possível verificar limiares de percepção e também, a relação existente entre o que é percebido e os valores atribuídos às respectivas variáveis tecnológicas. Os resultados obtidos indicam que a percepção de diferentes texturas, foi mais facilmente detectada do que diferenças de condutividade térmica e principalmente de dureza. A preferência por texturas menos rugosas foi detectada em grande parte das respostas obtidas Da mesma forma, pode-se dizer que a temperatura ambiente de realização dos testes para condutividade térmica, teve influência direta nas respostas obtidas. Para os ensaios aplicados, não houve diferença grande entre respostas de adultos e de crianças e também entre crianças com deficiência visual e crianças sem deficiência. A investigação da percepção tátil, e posteriormente a relação que se pode fazer desta com algumas das propriedades dos materiais, contribui tanto na seleção de materiais para projeto de produtos, como para seleção de processos de fabricação. Sendo assim, este estudo pode servir como mais uma ferramenta no processo de criação, considerando assim os futuros usuários. Desta maneira, o vínculo entre o usuário e o produto torna-se mais forte, já que este atende às necessidades e também considera a percepção do usuário em relação aos materiais utilizados, podendo, inclusive, evitar um descarte rápido contribuindo para aumentar a sustentabilidade. Além disto, este estudo permite também que a produção nas indústrias de determinados segmentos (têxtil, brinquedos, utensílios, etc.) possa ser orientada de forma que considere limiares de percepção, evitando assim investimentos desnecessários em processos de produção que resultariam em mudanças que podem não ser percebidas pelos usuários. Em suma, os resultados obtidos neste estudo, podem ser utilizados em diversas áreas da Engenharia e do Design, agregando a estas uma ferramenta na orientação de projetos.
Resumo:
O uso de Tecnologia da Informação (TI) tem evoluído muito nos últimos anos e isto influencia, sem dúvida, o ensino e a prática da arquitetura. Observa-se que o ensino de projeto nas escolas de arquitetura se dá através de um processo prático-reflexivo, no qual os alunos aprendem fazendo, sob a orientação dos professores. O conhecimento arquitetônico, portanto, vai sendo construído através da análise e interpretação do projeto e a busca de significados a partir da sua representação, sejam esboços à mão livre ou imagens digitais. Desta forma, as disciplinas de prática projetual têm grande importância, sendo consideradas fundamentais para a formação do arquiteto. Reconhecendo que a aplicação da TI gera novos paradigmas projetuais, mostrou-se importante a investigação da docência e da prática profissional. Este trabalho tem por objetivo caracterizar a presença e o uso de TI no ensino de projeto arquitetônico nas Faculdades de Arquitetura e Urbanismo (FAU) de Porto Alegre, RS. Demonstra-se, através dos resultados de estudo exploratório em quatro FAUs, as características pessoais e a forma como estão sendo desenvolvidas as habilidades dos alunos para a prática de projeto arquitetônico em função das tecnologias disponíveis e das tendências futuras que se apresentam a estes profissionais. Verificou-se como os estudantes usam recursos computacionais em geral, qual o seu o nível de conhecimento sobre TI e como tem sido feita a abordagem pelas FAUs deste tema. Explorou-se, de forma especial, a aplicação de sistemas CAD no processo de projeto arquitetônico Constatou-se que os sistemas ainda são bastante sub utilizados e que as disciplinas dos currículos das FAUs estudadas levam a uma formação aquém da necessidade exigida pelos escritórios de arquitetura, onde o uso de recursos computacionais é corrente. Para estarem adequados as exigências do mercado de trabalho, os estudantes além de completarem o seu Curso, necessitam superar a necessidade de aprendizagem de sistemas computacionais, muitas vezes adquirida durante o estágio ou em cursos extra-curriculares.
Resumo:
O presente trabalho visa por um lado, avaliar o impacto das políticas sobre a concorrência em dois setores industriais nos anos 90 – automobilístico e farmacêutico –, mas principalmente, apresentar uma metodologia de análise de demanda e de concorrência em mercados de produtos diferenciados, pois negligenciar a diferenciação de produtos na formulação de políticas públicas pode levar a políticas completamente equivocadas.
Resumo:
A presente tese visa contribuir na construção de ambientes de desenvolvimento de software através da proposição de uma arquitetura reflexiva para ambiente de suporte a processo, nomeada WRAPPER (Webbased Reflective Architecture for Process suPport EnviRonment). O objetivo desta arquitetura é prover uma infra-estrutura para um ambiente de suporte a processo de software, integrando tecnologias da World Wide Web, objetos distribuídos e reflexão computacional. A motivação principal para esta arquitetura vem da necessidade de se obter maior flexibilidade na gerência de processo de software. Esta flexibilidade é obtida através do uso de objetos reflexivos que permitem a um gerente de processo obter informações e também alterar o processo de software de forma dinâmica. Para se obter um ambiente integrado, a arquitetura provê facilidades para a agregação de ferramentas CASE de plataformas e fabricantes diversos, mesmo disponibilizadas em locais remotos. A integração de ferramentas heterogêneas e distribuídas é obtida através do uso de tecnologias Web e de objetos distribuídos. Reflexão computacional é usada no ambiente tanto para extrair dados da execução do processo, quanto para permitir a adaptação do mesmo. Isto é feito através da introdução e controle de meta-objetos, no metanível da arquitetura, que podem monitorar e mesmo alterar os objetos do nível base. Como resultado, a arquitetura provê as seguintes características: flexibilidade na gerência de processo, permitindo o controle e adaptação do processo; distribuição do ambiente na Web, permitindo a distribuição de tarefas do processo de software e a integração de ferramentas em locais remotos; e heterogeneidade para agregar componentes ao ambiente, permitindo o uso de ferramentas de plataformas e fornecedores diversos. Neste contexto, o presente trabalho apresenta a estrutura da arquitetura reflexiva, bem como os mecanismos usados (e suas interações) para a modelagem e execução de processo dentro do ambiente de suporte ao processo de software.
Resumo:
O aumento na complexidade dos sistemas embarcados, compostos por partes de hardware e software, aliado às pressões do mercado que exige novos produtos em prazos cada vez menores, tem levado projetistas a considerar a possibilidade de construir sistemas a partir da integração de componentes já existentes e previamente validados. Esses componentes podem ter sido desenvolvidos por diferentes equipes ou por terceiros e muitas vezes são projetados utilizando diferentes metodologias, linguagens e/ou níveis de abstração. Essa heterogeneidade torna complexo o processo de integração e validação de componentes, que normalmente é realizado através de simulação. O presente trabalho especifica mecanismos genéricos e extensíveis que oferecem suporte à cooperação entre componentes heterogêneos em um ambiente de simulação distribuída, sem impor padrões proprietários para formatos de dados e para a descrição do comportamento e interface dos componentes. Esses mecanismos são baseados na arquitetura DCB (Distributed Co-Simulation Backbone), voltada para co-simulação distribuída e heterogênea e inspirada nos conceitos de federado (componente de simulação) e federação (conjunto de componentes) que são definidos pelo HLA (High Level Architecture), um padrão de interoperabilidade para simulações distribuídas. Para dar suporte à co-simulação distribuída e heterogênea, esse trabalho descreve mecanismos que são responsáveis pelas tarefas de cooperação e distribuição, chamados de embaixadores, assim como o mecanismo gateway, que é responsável pela interoperabilidade entre linguagens e conversão de tipos de dados. Também é apresentada uma ferramenta de suporte à geração das interfaces de co-simulação, que são constituídas de dois embaixadores configuráveis e um gateway para cada federado, gerado a partir de templates pré-definidos.
Resumo:
This thesis presents the study and development of fault-tolerant techniques for programmable architectures, the well-known Field Programmable Gate Arrays (FPGAs), customizable by SRAM. FPGAs are becoming more valuable for space applications because of the high density, high performance, reduced development cost and re-programmability. In particular, SRAM-based FPGAs are very valuable for remote missions because of the possibility of being reprogrammed by the user as many times as necessary in a very short period. SRAM-based FPGA and micro-controllers represent a wide range of components in space applications, and as a result will be the focus of this work, more specifically the Virtex® family from Xilinx and the architecture of the 8051 micro-controller from Intel. The Triple Modular Redundancy (TMR) with voters is a common high-level technique to protect ASICs against single event upset (SEU) and it can also be applied to FPGAs. The TMR technique was first tested in the Virtex® FPGA architecture by using a small design based on counters. Faults were injected in all sensitive parts of the FPGA and a detailed analysis of the effect of a fault in a TMR design synthesized in the Virtex® platform was performed. Results from fault injection and from a radiation ground test facility showed the efficiency of the TMR for the related case study circuit. Although TMR has showed a high reliability, this technique presents some limitations, such as area overhead, three times more input and output pins and, consequently, a significant increase in power dissipation. Aiming to reduce TMR costs and improve reliability, an innovative high-level technique for designing fault-tolerant systems in SRAM-based FPGAs was developed, without modification in the FPGA architecture. This technique combines time and hardware redundancy to reduce overhead and to ensure reliability. It is based on duplication with comparison and concurrent error detection. The new technique proposed in this work was specifically developed for FPGAs to cope with transient faults in the user combinational and sequential logic, while also reducing pin count, area and power dissipation. The methodology was validated by fault injection experiments in an emulation board. The thesis presents comparison results in fault coverage, area and performance between the discussed techniques.