105 resultados para Combinação Bluprins


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho investigou como a natureza de um líquido iônico pode influenciar a formação e o crescimento de nanopartículas de [Rh(0)], bem como estabeleceu o desempenho catalítico das nanopartículas obtidas em reações de hidrogenação de arenos. A simples redução de compostos de ródio RhCl3.3H2O, [Rh(cod)Cl]2 e [Rh(cod)2]X (X = BF4 -, CF3SO3 - e cod = 1,5-ciclooctadieno), dispersas em líquidos iônicos tetrafluoroborato (BF4 -), hexafluorofosfato (PF6 -) e trifluorometanosulfonato (CF3SO3 -) de 1- n-butil-3-metilimidazólio (BMI+), com hidrogênio molecular, rendeu nanopartículas de [Rh(0)], isoladas como pó escuro. As nanopartículas de [Rh(0)] formadas nos três líquidos iônicos foram caracterizadas por Microscopia Eletrônica de Transmissão (MET), Difração de Raios X (DRX) e Espectroscopia de Fotoelétrons de Raios X (XPS). O tamanho médio e a dispersão de tamanho destas nanopartículas depende pouco do precursor de ródio e mais do líquido iônico empregado. O tamanho médio das nanopartículas geradas em BMI.BF4 centram-se em 2,8 nm e em contraste, tamanhos médios maiores foram observados para nanopartículas de [Rh(0)] obtidas em BMI.PF6 (4,7 nm) e em BMI.CF3SO3 (5,0 nm). A atividade catalítica destas nanopartículas em reações de hidrogenação de arenos depende tanto da natureza do precursor quanto do líquido iônico empregado para prepará-las. Independentemente da natureza do líquido iônico, nanopartículas progressivamente mais ativas foram obtidas, primeiro, mudando o precursor na seqüência [Rh(cod)Cl]2 < [Rh(cod)2]CF3SO3 < RhCl3.3H2O < [Rh(cod)2]BF4 e, segundo, mudando o líquido iônico na sequência BMI.CF3SO3 < BMI.PF6 < BMI.BF4. É digno de nota, que as nanopartículas de [Rh(0)] obtidas pela combinação de [Rh(cod)2]BF4 / BMI.BF4 mostraram, na hidrogenação do benzeno, atividade catalítica similar à amostra de Rh/C.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissetação propõe um estudo da metodologia utilizada no Processo de Desenvolvimento de Produto (PDP) da Siemens Metering Ltda, uma empresa do ramo eletroeletrônico, aboradando o mesmo através de uma visão sistêmica, com o suporte de ferramentas de qulaidade, sendo o objetivo principal a utilização integrada das ferramentas QFD e FMEA no processo de desenvolvimento de produto tornando possível a prevenção de falhas, melhorando a eficiência do processo. Para o desenvolvimento do trabalho foram feitos estudos junto a áreas da empresa onde se identificou que o método atualmente empregado em 98% dos projetos desenvolvidos acarretava falhas no desenvolvimento e conseqüentes atrasos dos cronogramas dos problemas ocorridos, o faturamento previsto não era cumprido, ficando em média com 2% do faturamento total da empresa, quando a previsão era de 12% em média. O impacto financeiro de reduções de custo propostas e não implementadas geraram a empresa um montante de R$ 250.000,00/ano, de despesas que poderiam ter sido evitadas A proposta de melhoria constitiu em definir uma metodologia de desenvolvimento de produto com suporte de ferrramentas de qualidade, QFD e FMEA. A abordagem sistêmica do processo possibilitou a identificação dos pontos relevantes do projeto, de forma a atender os requisitos do cliente, bem como a definiçaõ de ações de prevenção em pontos importantes para o projeto. A combinação destas ações possibilita que o processo de desenvolvimento de produto seja mais confiável, quanto a prazos e também em relação ao desempenho do produto resultante. Para o desenvolvimento do trabalho, foram selecionados dois projetos em desenvolvimento pela atual metodologia, onde a proposta foi aplicada, de forma que, foi possível identificar os pontos que anteriormente não haviam sido identificados como relevantes para as etapas de desenvolvimento já concluídas. A aplicação do QFD possibilitou transformar a qualidade demandada em requisitos do produto e do processo. O FMEA, aplicado a um item de cada projeto, possibilitou a definição de ações preventivas que se implementadas com sucesso, minimizam a possibilidade de falha do produto acabado. Os resultados demonstram que a nova metodologia se aplicada na etapa inicial do processo de desenvolvimento de produto, permite um ganho de produtividade e de confiabilidade em relação aos resultados obtidos com o processo atual.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: Níveis de fator de necrose tumoral–alfa (TNF-α), N-peptídeo do pró-colágeno III (PIIINP) e metaloproteinase de matriz –1 (MMP-1), marcadores biológicos de remodelamento ventricular, estão elevados em pacientes com insuficiência cardíaca (IC), talvez refletindo elevadas pressões de enchimento. A correlação destes marcadores com variáveis clínicas e hemodinâmicas permanece pouco compreendida, particularmente no contexto ambulatorial da IC. Objetivo: Avaliar níveis séricos de marcadores biológicos de remodelamento ventricular em pacientes com IC, comparando tratamento guiado por ecocardiografia (ECO), buscando redução de pressões de enchimento, versus tratamento convencional (CLÍNICO), baseado em sinais e sintomas. Métodos: Ensaio clínico randomizado. Pacientes estáveis com IC e fração de ejeção menor do que 40% foram alocados entre os grupos de tratamento e submetidos a ecocardiograma e coletas de sangue no início do estudo e em 180 dias. TNF-α e MMP- 1 foram medidos por ELISA, e PIIINP, por radioimunoensaio. Resultados: Incluiu-se 80 pacientes, com 59 ± 15 anos e fração de ejeção de 26 ± 7%; 25% isquêmicos e 52% masculinos. Houve redução dos marcadores biológicos intragrupos, não havendo diferença entre os tratamentos. No grupo CLÍNICO, os níveis de TNF-α, MMP-1 e PIIINP apresentaram diferenças estatisticamente significativas entre os momentos basal e final (respectivamente, 3,11 ± 2,90 versus 1,24 ± 0,60 pg/mL p < 0,0003; 2,66 ± 1,00 versus 1,16 ± 0,40 ng/mL p < 0,0001; 6,12 ± 2,60 versus 3,89 ± 1,60 μg/L p < 0,0001). De maneira semelhante, tal diferença também foi observada no grupo ECO para os três marcadores (respectivamente, 3,90 ± 4,90 versus 1,40 ± 1,30 pg/mL p < 0,0001; 2,50 ± 0,90 versus 1,09 ± 0,40 ng/mL p < 0,0001; 6,09 ± 2,60 versus 3,50 ± 1,30 μg/L p<0,0001). Ao final da intervenção, no entanto, não foi observada diferença significativa dos valores de TNF-α , MMP-1 e PIIINP entre os dois grupos de tratamento (p = 0,7; p = 0,8; e p = 0,2; respectivamente). A combinação dos valores basais das variáveis biológicas gerou um escore que se associou significativamente com o comportamento final das pressões atrial direita e sistólica da artéria pulmonar. Pacientes com marcadores biológicos basais no quartil 75% mantiveram níveis superiores de pressões atrial direita (13 mmHg; p = 0,034) e sistólica de artéria pulmonar (60 mmHg; p = 0,007) ao final do seguimento. Conclusão: Independente do tratamento alocado, houve redução dos níveis de marcadores biológicos ao final do seguimento; no entanto, níveis basais mais elevados destes marcadores foram preditores de menor redução das pressões em átrio direito e sistólica da artéria pulmonar. Os dados sugerem que indicativos de intenso processo de remodelamento ventricular se associam à progressão da IC e a pressões de enchimento elevadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um mapeamento centrado nas construções não usuais da linguagem Nautilus, para a linguagem convencional, no caso Java, mantendo propriedades com atomicidade que são requisitos da semântica formal da linguagem. Nautilus é originalmente uma linguagem de especificação baseada em objetos, textual que suporta objetos concorrentes e não deterministas. Desde então a linguagem foi modificada aom extensões como classes e uma notação diagramática, além de se investigar seu uso como linguagem de programação. Suas construções incomuns (reificação, agregação, etc.) são baseados em seu domínio semântico: Automâtos Não Sequenciais. Este domíno satisfaz composição diagonal, i.e refinamentos se compõem (verticalmente) refletindo uma descrição gradual de sistemas, envolvendo múltiplos níveis de abstração, e distribui-se através de combinadores (horizontalmente), o que significa que o refinamento de um sistema composto é a combinação de do refinamento de suas partes.O trabalho inclui um mapeamento inicial de um subconjunto da linguagem(objeto base, reificação, agregação e visão), uma versão ampliada para abranger mais construções( interação e classes), e uma versão refinada mais concorrente e sugestões de modificação na linguagem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalhadores forçados a alterar o ciclo sono/repouso em função do turno de trabalho tendem a dessincronizar seus ritmos fisiológicos (endógenos) em relação aos do meio ambiente (exógenos) acarretando transtornos na organização dos sistemas fisiológicos. Os objetivos deste estudo foram avaliar a relação do turno de trabalho (manhã, noite e rotativo) e perfil cronobiológico e seus efeitos sobre desempenho em testes de atenção e memória de profissionais (médicos, enfermeiros e técnicos/auxiliares de enfermagem) dos serviços de emergência de dois hospitais de Porto Alegre (RS/Brasil). Uma amostra aleatória de 140 profissionais, de ambos os sexos e idade entre 25 e 60 anos, foi avaliada num estudo transversal. Os sujeitos que relataram presença de doença (clínica, neurológica ou psiquiátrica), transtornos do sono prévios ao emprego atual, e uso de benzodiazepínicos nas 6 horas anteriores à testagem foram excluídos. Padrão cronobiológico (matutinidade/vespertinidade) foi definido pelo questionário de Hidalgo-Chaves (2002). Os testes de atenção e memória foram span de dígitos, span palavras, stroop, memória lógica, e Wisconsin Card Sorting Test (versão computadorizada). Déficit de atenção foi definido pela combinação de testes positivos (50%+1). Não se observou associação significativa entre cronotipo e turnos de trabalho. A freqüência de desempenho abaixo do ponto de corte em diversos testes foi maior no turno da noite. Déficit de atenção/memória foi observado em 51% dos profissionais do turno da noite, 21% do turno da manhã, e 22% do rotativo. O desempenho nos testes de atenção/memória entre os sujeitos distribuídos por cronotipo (tanto no total, como entre coincidentes com o turno de trabalho) não mostrou diferença estatisticamente significativa. Em conclusão, a discordância entre turno de trabalho e cronotipo pode ser explicada por diferentes motivos como a falta de opção para escolher o turno, questões financeiras, e desconhecimento quanto às características relacionadas ao perfil cronobiológico. Os déficits observados podem expressar efeitos de longo prazo do trabalho em turnos e especialmente no noturno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Polímeros de engenharia foram avaliados para aplicação no par de engrenagens parafuso sem fim do porta-estepe de caminhão. A fim de suportar o carregamento de forma eficiente, dispensando lubrificantes e considerando um custo de fabricação competitivo para a engrenagem de um porta-estepe, foram pré-selecionados nove polímeros: um polipropileno, as poliamidas (PA) 6 e 66, de cadeia molecular linear, sem e com 15 e 30% de fibra de vidro (FV), uma poliamida de cadeia molecular ramificada, tipo estrela com 60% de fibra de vidro e um poliéster com 25% de grafite. Esses termoplásticos foram avaliados para selecionar o polímero com a melhor performance para a fabricação do par de engrenagens. O trabalho foi dividido em três etapas. A primeira consistiu na confecção de corpos-de-prova e análise dos polímeros quanto às resistências à tração e à flexão, resistência ao impacto Izod, análise dinâmico-mecânica (DMA) e resistência à abrasão. Os materiais selecionados, com o melhor conjunto de propriedades nessa etapa foram as PA 6 e 66 ambas com 30% de FV e também a PA com 60% de FV. Na segunda etapa, esses polímeros foram avaliados quanto às características reológicas. Os materiais com as melhores características reológicas foram a PA 6 com 30% de FV e a PA com 60% de FV. A terceira etapa consistiu em teste em bancada a partir da confecção de pares de engrenagens, sendo os materiais selecionados injetados em forma de tarugos e após usinados Foram feitas três combinações com as duas PA selecionadas para ensaio em bancada. Na primeira utilizou-se a PA 6 com 30% de FV no pinhão e na coroa; após 623 ciclos, houve falha do par de engrenagens com ruptura do dente do pinhão. Na segunda combinação, o pinhão e a coroa em PA com 60% de FV; em 161 ciclos, teve a quebra do dente do pinhão. Na última combinação utilizou-se a PA com 60% de FV no pinhão e a PA 6 com 30% de FV na coroa, sendo que o par de engrenagens resistiu até 1200 ciclos sem ocorrer falha do sistema. Apesar da garantia do porta-estepe ser de seis meses, a estimativa do fabricante é de cinco anos de vida útil do par de engrenagens, tendo três trocas de pneu por mês; com isso, tem-se um total de 180 ciclos de aplicação desse mecanismo. Portanto, o pinhão em PA com 60% de FV e a coroa em PA 6 com 30% de FV apresentaram a melhor performance para a fabricação do par de engrenagens parafuso sem fim do porta-estepe de caminhão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The evolution of integrated circuits technologies demands the development of new CAD tools. The traditional development of digital circuits at physical level is based in library of cells. These libraries of cells offer certain predictability of the electrical behavior of the design due to the previous characterization of the cells. Besides, different versions of each cell are required in such a way that delay and power consumption characteristics are taken into account, increasing the number of cells in a library. The automatic full custom layout generation is an alternative each time more important to cell based generation approaches. This strategy implements transistors and connections according patterns defined by algorithms. So, it is possible to implement any logic function avoiding the limitations of the library of cells. Tools of analysis and estimate must offer the predictability in automatic full custom layouts. These tools must be able to work with layout estimates and to generate information related to delay, power consumption and area occupation. This work includes the research of new methods of physical synthesis and the implementation of an automatic layout generation in which the cells are generated at the moment of the layout synthesis. The research investigates different strategies of elements disposition (transistors, contacts and connections) in a layout and their effects in the area occupation and circuit delay. The presented layout strategy applies delay optimization by the integration with a gate sizing technique. This is performed in such a way the folding method allows individual discrete sizing to transistors. The main characteristics of the proposed strategy are: power supply lines between rows, over the layout routing (channel routing is not used), circuit routing performed before layout generation and layout generation targeting delay reduction by the application of the sizing technique. The possibility to implement any logic function, without restrictions imposed by a library of cells, allows the circuit synthesis with optimization in the number of the transistors. This reduction in the number of transistors decreases the delay and power consumption, mainly the static power consumption in submicrometer circuits. Comparisons between the proposed strategy and other well-known methods are presented in such a way the proposed method is validated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, estudamos a posição de átomos de F na estrutura cristalina do Si. As amostras foram pré-amorfizadas utilizando um feixe de Si de 200 keV e, após, implantadas com F. Então recristalizamos a camada amorfa através do processo de Epitaxia de Fase Sólida (EFS). Empregamos as técnicas de Espectrometria de Retroespalhamento Rutherford, na condição de canalização iônica, e de Análise por Reação Nuclear (NRA), através da reação ressonante ( ) O p F 16 19 , αγ , à 5 , 340 keV, para determinar a posição dos átomos de F e, depois, reproduzimos os resultados experimentais através do programa de simulação computacional chamado Simulação Adaptada de Canalização de Íons Rápidos em Sólidos (CASSIS - Channeling Adapted Simulation of Swift Ions in Solids). Os resultados obtidos apontam para duas possíveis combinações lineares distintas de sítios. Uma delas concorda com a proposta teórica de Hirose et al. (Materials Science & Engineering B – 91-92, 148, 2002), para uma condição experimental similar. Nessa configuração, os átomos de F estão na forma de complexos entre átomos de flúor e vacâncias (F-V). A outra combinação ainda não foi proposta na literatura e também pode ser pensada como um tipo de complexo F-V.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do presente trabalho foi otimizar o sistema de transformação genética de embriões somáticos de soja [Glycine max (L.) Merr.] utilizando a biolística e o sistema Agrobacterium de maneira integrada. Os antibióticos, adicionados ao meio de cultura para supressão da bactéria após a transferência do transgene, foram o alvo do estudo. Inicialmente, comparou-se o efeito de diferentes tratamentos com antibióticos sobre o tecido embriogênico de soja e sua eficiência na supressão da linhagem LBA4404 de Agrobacterium tumefaciens durante o processo de transformação. A carbenicilina (500 mg/l) apresentou efeitos diferentes sobre o tecido vegetal das duas cultivares testadas. Os tecidos embriogênicos da cv. IAS5 não apresentaram diferenças significativas em relação ao controle, enquanto que a proliferação dos embriões somáticos da cv. Bragg foi três vezes maior com a adição deste antibiótico ao meio de cultura. Contudo, a presença da carbenicilina nas duas concentrações testadas (500 e 1000 mg/l) não foi eficiente para supressão de Agrobacterium. Por outro lado, nos tratamentos com cefotaxima sozinha (350 e 500 mg/l), ou cefotaxima (250 mg/l) + vancomicina (250 mg/l) esta bactéria foi completamente suprimida da superfície dos embriões somáticos após 49 dias de tratamento. No entanto, enquanto a presença de cefotaxima, em qualquer concentração, foi prejudicial à sobrevivência do tecido embriogênico, a combinação de cefotaxima + vancomicina não afetou significativamente os embriões somáticos de soja até os 63 dias de tratamento. Portanto, os resultados indicam que o tratamento com cefotaxima + vancomicina por um período de 49 - 63 dias é o mais adequado para a transformação genética de soja, por suprimir Agrobacterium e apresentar mínimos efeitos sobre o tecido embriogênico. Por fim, conjuntos de embriões somáticos de soja foram transformados e tratados com a combinação recomendada de antibióticos para avaliação da eficiência do método na obtenção de transformantes estáveis. Foram obtidos 48 e 232 clones higromicina-resistentes para Bragg e IAS5, respectivamente. Para cv. Bragg, 26 plantas foram obtidas de um único clone, enquanto 580 plantas foram regeneradas de 105 clones da cv. IAS5. As plantas transgênicas eram férteis e morfologicamente normais. A presença do transgene no genoma destas plantas foi confirmada por análises moleculares. Portanto, a adequação dos antibióticos permitiu o desenvolvimento de um método de transformação altamente eficiente para soja. Os resultados do presente trabalho constituem o primeiro registro (1) do efeito de antibióticos sobre tecidos de soja ou de leguminosas e (2) de obtenção de transformantes estáveis de soja utilizando a biolística e o sistema Agrobacterium de maneira integrada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelagem de um depósito mineral é realizada por meio da combinação de diversas fontes de informações. Dentre estas fontes pode-se citar a sísmica de reflexão. A sísmica de reflexão fornece dados de tempos de propagação de ondas sísmicas até essas serem refletidas pelas estruturas dos depósitos minerais. As profundidades dessas estruturas podem ser obtidas multiplicando-se os tempos pelas velocidades de propagação das ondas sísmicas. Normalmente, a velocidade de uma onda sísmica é determinada indiretamente por meio do processamento dos próprios dados sísmicos, o que pode gerar erros na interpretação de seções geológicas. A perfilagem geofísica é uma alternativa na determinação dessa velocidade, uma vez que a velocidade de onda acústica é obtida ao longo do furo perfilado e a velocidade de onda acústica pode ser relacionada com a velocidade de onda sísmica. As estimativas de valores de velocidade na região entre os furos perfilados permite as estimativas de valores de profundidade nessa região. Neste estudo, foram analisadas possibilidades de se estimar, em um grid, valores de velocidade e incertezas associadas a esses valores, utilizando-se ferramentas geoestatísticas. A simulação seqüencial Gaussiana, dentre as ferramentas analisadas, pareceu ser a mais adequada para obtenção de velocidades e incerteza dos valores estimados em cada nó do grid considerado. Para o caso abordado, alguns valores de profundidade da estrutura de interesse apresentaram variações significativas em função da incerteza de velocidade. Essas variações são muito importantes na execução de certos métodos de lavra subterrânea, o que enfatiza a importância da determinação da incerteza das velocidades estimadas. A metodologia é apresentada e ilustrada em um importante depósito de carvão em Queensland, Austrália.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis, we present a novel approach to combine both reuse and prediction of dynamic sequences of instructions called Reuse through Speculation on Traces (RST). Our technique allows the dynamic identification of instruction traces that are redundant or predictable, and the reuse (speculative or not) of these traces. RST addresses the issue, present on Dynamic Trace Memoization (DTM), of traces not being reused because some of their inputs are not ready for the reuse test. These traces were measured to be 69% of all reusable traces in previous studies. One of the main advantages of RST over just combining a value prediction technique with an unrelated reuse technique is that RST does not require extra tables to store the values to be predicted. Applying reuse and value prediction in unrelated mechanisms but at the same time may require a prohibitive amount of storage in tables. In RST, the values are already stored in the Trace Memoization Table, and there is no extra cost in reading them if compared with a non-speculative trace reuse technique. . The input context of each trace (the input values of all instructions in the trace) already stores the values for the reuse test, which may also be used for prediction. Our main contributions include: (i) a speculative trace reuse framework that can be adapted to different processor architectures; (ii) specification of the modifications in a superscalar, superpipelined processor in order to implement our mechanism; (iii) study of implementation issues related to this architecture; (iv) study of the performance limits of our technique; (v) a performance study of a realistic, constrained implementation of RST; and (vi) simulation tools that can be used in other studies which represent a superscalar, superpipelined processor in detail. In a constrained architecture with realistic confidence, our RST technique is able to achieve average speedups (harmonic means) of 1.29 over the baseline architecture without reuse and 1.09 over a non-speculative trace reuse technique (DTM).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dispositivos microeletrônicos como células solares e circuitos integrados MOS em satélites, estão sujeitos ao bombardeamento de partículas de alta energia, especialmente os uxos de prótons. Os danos causados pela irradiação de prótons podem ser facilmente simulados usando as técnicas implantação iônica, uma vez que os estudos de con abilidade dos dispositivos em condições reais (no espaço) são despendiosos. A proposta deste trabalho é usar capacitores MOS para estudar a in uência do bombardeamento de prótons na degradação do tempo de vida de portadores minoritários, na mudança de corrente de fuga através do SiO2 e na mudança da carga efetiva na interface SiO2/Si. Assim como o tempo de vida está relacionado aos defeitos criados na estrutura cristalina devido às colisões das partículas com os átomos de Si, a corrente de fuga caracteriza a estabilidade do dielétrico e a carga efetiva mostra o quanto a tensão de limiar dos transistores MOS (VT) é afetada. Uma combinação de formação de zona desnuda na região de depleção e gettering por implanta ção iônica na face inferior das lâminas garantiu o melhoramento do tempo de vida nos capacitores MOS. Os aceleradores de íons do Laboratório de Implantação Iônica da UFRGS foram usados para produzir bombardeamentos de prótons com energias de 100keV , 200keV , 600keV e 2MeV , e doses no intervalo de 1x10 9 cm-2 a 3x10 12 cm-2 O tempo de vida de geração foi obtido através do método C-t (Zerbst modificado), a corrente de fuga através do método I-V e a carga criada no óxido através do método C-V de alta freqüência. A literatura apresenta dados de uxos de prótons no espaço possibilitando a conexão entre os efeitos simulados por implantação iônica e o espectro solar real. Como eventos solares apresentam variabilidade, alguns casos de atividade solar proeminente foram estudados. Foi de nida a função (x) que relaciona a concentração defeitos eletricamente ativos com a profundidade e foi feito um cálculo para estimar as conseqüências sobre o tempo de vida dos portadores minorit ários. Os resultados mostram que um dia de atividade solar expressiva é su ciente para degradar o tempo de vida intensamente, tendo como conseqüência a destruição de uma célula solar sem blindagem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O crescimento experimentado pela indústria do software nas últimas décadas, trouxe consigo o aumento das exigências do mercado. É exigido das organizações de software, que os sistemas sejam construídos de acordo com prazo e custos determinados, obedecendo-se certos padrões de qualidade. Para atender tais exigências e assim obter o diferencial competitivo, tornou-se necessário investir no processo de desenvolvimento de software, dada a relação cada vez mais evidente entre a qualidade do produto de software e a eficiência e eficácia do processo de desenvolvimento adotado. Uma estratégia na busca pela maturidade em termos de processos é a definição e adoção de um processo único a ser seguido em todos os projetos de uma organização, denominado processo padrão. Levando-se em consideração a singularidade de cada novo projeto de software, é natural presumir que o processo padrão tenha de ser adaptado para as necessidades específicas de cada situação, de forma a ser aceito, ter seu uso maximizado e garantir a qualidade do software a ser produzido. Este trabalho apresenta, assim, o APSEE-Tail, um modelo para apoiar o engenheiro de processos na tarefa de adaptar o processo padrão de uma organização de software para as particularidades de cada um de seus projetos, possibilitando maior efetividade e eficiência no uso do mesmo. Sua abordagem de adaptação é livre, orientada à atividades e baseada no raciocínio, através da combinação das técnicas de interpretação de regras e CBR (Case Based Reasoning), sobre o conhecimento necessário. Tal conhecimento, neste trabalho, é agrupado em três categorias: diretrizes de adaptação do processo padrão, tipos de característica usados para definir os projetos de software e informações sobre adaptações realizadas anteriormente. Os diferentes componentes envolvidos na definição do APSEE-Tail foram especificados algebricamente, o que constituiu uma base semântica de alto nível de abstração e possibilitou a construção de um protótipo, implementado no ADS (Ambiente de Desenvolvimento de Software) Prosoft-Java e fracamente acoplado ao APSEE, um ambiente de engenharia de software centrado no processo também prototipado no Prosoft-Java, tornando-se assim parte do meta-processo adotado pelo mesmo. O texto apresenta ainda alguma fundamentação teórica sobre a área de Adaptação de Processos de Software, considerações sobre as abordagens pesquisadas, enfatizando as que mais influenciaram o APSEE-Tail, e um exemplo de aplicação do protótipo construído. Por fim, são apresentadas as contribuições e limitações da proposta, na visão do autor, bem como os trabalhos futuros vislumbrados.