77 resultados para Calibração automática


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Até hoje, não existem implementações de SGBDs Temporais disponíveis no mercado de software. A tradução de linguagens de consulta temporais para o padrão SQL é uma alternativa para implementação de sistemas temporais com base em SGBDs comerciais, os quais não possuem linguagem e estrutura de dados temporais. OASIS (Open and Active Specification of Information Systems) é uma linguagem que serve como repositório de alto nível para especificação formal orientada a objetos e geração automática de software, em diversas linguagens, através da ferramenta CASE OO-Method. As aplicações geradas desta forma utilizam, como meio de persistˆencia de objetos, SGBDs comerciais baseados na abordagem relacional. A linguagem OASIS foi estendida com aspectos temporais. A extensão de OASIS com aspectos temporais requer a especificação de um modelo de dados e de uma linguagem de consulta temporais que possam ser utilizados em SGBDs convencionais. Há duas abordagens para resolver o problema. A primeira baseia-se em extensões da linguagem e/ou do modelo de dados de modo que o modelo não-temporal é preservado. A segunda, abordagem de generalização temporal, é mais radical e não preserva o modelo não-temporal. A linguagem ATSQL2 fornece recursos adequados aos conceitos encontrados na abordagem de generalização temporal. Neste trabalho utiliza-se os conceitos de generalização temporal preservando o modelo não-temporal. A presente dissertação tem por finalidade propor um modelo de dados para suporte à extensão temporal da linguagem OASIS, bem como estender a linguagem ATSQL2 para facilitar as consultas a eventos temporais. O sistema de tradução da linguagem de consulta temporal para SQL é também adaptado ao modelo de dados proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação desenvolve-se um equipamento de compressão confinada com medição de tensão lateral e avalia-se o comportamento, sobre a trajetória de tensões Ko, de um solo e de misturas de solo-fibra e solo-cimento, considerando a influência da adição de fibras de diferentes comprimentos e de cimento em variadas quantidades ao solo estudado bem como o efeito da tensão de cura e índice de vazios de cura na trajetória de tensões Ko, na tensão lateral, nas deformações verticais e nos valores de Ko. O solo utilizado no estudo é uma areia fina de granulometria uniforme extraída de uma jazida localizada no município de Osório – RS. O trabalho de pesquisa realizado com esses solos tem seu enfoque dividido em duas partes principais: (1) projeto, construção, validação e calibração do equipamento; (2) ensaios de compressão confinada com medição de tensão lateral em amostras de solocimento- fibra com dois comprimentos de fibras (6mm e 12 mm), três teores de cimento (1%, 3% e 7%) e em três diferentes condições de cura (cura sob tensão vertical de 0 kPa, cura sob tensão vertical de 0 kPa com índice de vazios modificado pela aplicação anterior à cura de uma tensão vertical de 500 kPa e cura sob tensão vertical de 500 kPa). Os níveis de tensões aplicados neste trabalho chegam a 3000 kPa. Os resultados mostram que o equipamento de compressão confinada com medição de tensões laterais funciona satisfatoriamente, apresentando dados coerentes e confiáveis A inclusão de fibras, bem como o aumento do comprimento das mesmas, diminui os valores de tensão lateral e de Ko em relação ao material sem reforço. A presença de cimento reduz a tensão lateral e gera uma tensão lateral residual, a qual aumenta com o teor de cimento. Da mesma forma, um acréscimo na rigidez ocorre com o aumento da quantidade de cimento. O efeito da cimentação diminui os valores de Ko e os tornam não mais constantes no carregamento. A alteração das condições de cura não causa mudanças significativas no que diz respeito às tensões, mas a rigidez inicial é aumentada com a mudança do índice de vazios e da tensão de cura dos materiais cimentados, sendo o acréscimo maior para a segunda.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho faz avaliação de ferramentas que utilizam técnica de Descoberta de Conhecimento em Texto (agrupamento ou “clustering”). As duas ferramentas são: Eurekha e Umap. O Eurekha é baseado na hipótese de agrupamento, que afirma que documentos similares e relevantes ao mesmo assunto tendem a permanecer em um mesmo grupo. O Umap, por sua vez, é baseado na árvore do conhecimento. A mesma coleção de documentos submetida às ferramentas foi lida por um especialista humano, que agrupou textos similares, a fim de que seus resultados fossem comparados aos das ferramentas. Com isso, pretende-se responder a seguinte questão: a recuperação automática é equivalente à recuperação humana? A coleção de teste é composta por matérias do jornal Folha de São Paulo, cujo tema central é a Amazônia. Com os resultados, pretende-se verificar a validade das ferramentas, os conhecimentos obtidos sobre a região e o tratamento que o jornal dá em relação à mesma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A linguagem XSLT transforma documentos XML não apenas em novos documentos XML, mas também em documentos HTML, PDF e outros formatos, tornando-se bastante útil. Entretanto, como um ambiente de programação, XSLT apresenta algumas deficiências. Não apresenta um ambiente gráfico de programação e exige conhecimento prévio sobre manipulação de estrutura de dados em árvores, o que compromete a produtividade do programador e limita o uso da linguagem a especialistas. Assim, várias propostas têm sido apresentadas na tentativa de suprir estas deficiências, utilizando recursos variados como geração automática de script XSLT e reuso de transformações. Este trabalho apresenta a ferramenta X2H que visa auxiliar a apresentação de documentos XML em HTML, aumentando a produtividade de programadores que utilizam a linguagem XSLT. Para facilitar a sua utilização, a X2H possui uma interface gráfica com abordagem baseada em exemplos, na qual o usuário compõe um documento exemplo HTML a partir de um documento fonte XML. Estes documentos são visualizados como árvores hierárquicas, nas quais é vinculado um conjunto de operações dependente do contexto, que permitem a composição do documento exemplo. Este documento serve de entrada para um gerador de regras, que gera um script na linguagem XSLT que, se executado, apresenta o documento HTML resultado desejado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho elaboramos cinco atividades experimentais que envolvem o uso do microcomputador como instrumento de medida no laboratório didático de Física. As atividades são do tipo aberto, de modo que os alunos tenham a oportunidade de explorar, testar e discutir soluções para todo o processo de medida, desde o uso de sensores nos sistemas de detecção, à conversão analógica/digital, passando pelos softwares. Somente depois de medidas manuais, o aluno passa à aquisição automática. Há guias impressos para alunos, com questões, desafios e sugestões de tarefas a serem executadas, e um texto de apoio para professores, contendo embasamento teórico e técnico indispensáveis para a compreensão do processo de aquisição automática. Os tópicos tratados são: sensores, medidas de tempo, e ondas mecânicas transversais (em cordas) e longitudinais (sonoras). O embasamento teórico para o desenvolvimento da proposta está apoiado na teoria sócio-interacionista de Vigotsky, na qual o desenvolvimento cognitivo não pode ser entendido sem referência ao contexto social, seus signos e instrumentos. Todas atividades foram testadas em condições de sala de aula em turmas de ensino médio e tecnológico da Unidade de Ensino do CEFET/RS, em 2003, e no curso de extensão Física para o Ensino Médio II, do Instituto de Física da UFRGS, em 2004. O produto educacional deste trabalho consiste em um texto de apoio para professores do ensino médio sobre o uso do microcomputador como um instrumento de medida, guias para alunos das cinco atividades experimentais envolvendo aquisição automática de dados e um hipertexto, disponível na web, baseado em animações do tipo Java Applet (Physlet).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O bom dimensionamento de equipes contribui para o aumento do nível dos serviços prestados pelas empresas, com o menor custo possível. Uma alternativa para abordar a questão foi dimensionar as equipes de eletricistas, de uma empresa do setor elétrico, (utilizando técnicas de previsão de demanda, de simulação e de alocação) para atender de forma otimizada, a demanda variável das atividades prestadas - fornecimento de energia. Um equilíbrio entre a demanda por serviços e a capacidade de execução da empresa evitaria longas filas de espera dos clientes e servidores (eletricistas) ociosos. Cinco etapas forma cumpridas: fase exploratória, coleta de dados, previsão de demanda e simulação do processo e alocação do recurso. Na primeira houve um entendimento de como chegava o pedido do serviço na empresa até a finalização da ordem de serviço. Na coleta de dados foram levantados aproximadamente 80 tipos diferentes de atividades desenvolvidas pelos eletricistas e classificadas de acordo com a prioridade de urgência, prazos de atendimento dos serviços e afinidade de execução das tarefas. Nesta etapa ainda foram coletados os volumes de serviços gerados e tempos médios de deslocamento e execução das atividades. Na terceira etapa foi utilizado um software de previsão de demanda chamado Forecast Pro, possibilitando a escolha automática do modelo de previsão mais apropriado para a série histórica em estudo. Na quarta etapa, foi utilizado um software de simulação de processos chamado Arena. Desenvolveu-se um modelo do processo real com os respectivos dados de entrada dos serviços, tempos de deslocamento e execução e número de equipes. Na última etapa, utilizando a ferramenta Solver do Excel otimizou-se o número de equipes. Um dos resultados da ação foi obter vários cenários com a variação do número de equipes e seus respectivos tempos médios de atendimento, sem causar nenhum dano para a empresa, podendo assim ser analisado qual o melhor cenário para ser implementado na companhia, minimizando o problema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas para a geração de eletricidade a partir de fontes renováveis de energia, com um mínimo impacto ambiental, apresentam uma contribuição energética cada vez mais significativa, sendo importante conhecer em detalhe o comportamento dos mesmos. A radiação solar e o vento podem se mostrar complementares, sendo interessante empregar uma combinação eólica e fotovoltaica em um sistema único. Os sistemas assim constituídos recebem o nome de sistemas híbridos eólico-fotovoltaicos e em algumas aplicações podem mostrar vantagens em relação aos sistemas singelos. Esta Tese tem por objetivo contribuir com o conhecimento sobre o comportamento de sistemas híbridos eólico-fotovoltaicos de pequeno porte. Para obter dados experimentais foi montado um protótipo no Laboratório de Energia Solar, constituído de um painel de 420 Wp e de um aerogerador de 400 W de potência nominal, sendo que para o acionamento do aerogerador foi instalado um túnel de vento. Para a observação do comportamento do sistema híbrido foi também montado um sistema de monitoramento, sendo analisadas na Tese as incertezas associadas às medições realizadas. O sistema de monitoramento forma parte de um sistema mais amplo, que permite também o controle da velocidade do vento no túnel de vento e a ativação automática de um conjunto de cargas resistivas para simular o perfil de consumo. A Tese discute os modelos matemáticos de todos os componentes do sistema, assim como as principais configurações que podem ser dadas aos sistemas híbridos. Foram realizadas várias experiências com o sistema híbrido que permitiram a coleta de informações sobre o comportamento dos componentes independentes e como um todo Essas informações, por sua vez, serviram de base para a validação de modelos matemáticos dos diversos componentes do sistema, que foram integrados em um programa computacional de simulação elaborado como parte desta Tese. Além dos resultados do funcionamento do sistema híbrido experimental, a Tese mostra os resultados do programa de simulação e faz uma estimativa da aplicação de sistemas híbridos semelhantes em localidades de Rio Grande do Sul, a partir da informação do Atlas Eólico do Estado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é avaliada a aplicação da técnica de ICP OES (Espectrometria de Emissão com Plasma Indutivamente Acoplado) para a determinação de elementos traço em amostras ambientais. Foram investigados os comportamentos de As, Ba, Cd, Co, Cu, Cr, Mn, Ni, Pb, V e Zn, utilizando-se espectrômetro com vista de observação axial/radial do plasma e sistema de detecção baseado em dispositivos de carga acoplada (CCD). No presente estudo, foi avaliado o desempenho dos nebulizadores pneumáticos do tipo concêntrico (Meinhard), “cross flow” e GemCone® acoplados às câmaras de nebulização de duplo passo (Scott) e ciclônica, bem como do nebulizador ultra-sônico para a introdução de amostras no plasma. Investigou-se a robustez do plasma, potência de radiofreqüência (RF), vazão dos gases de nebulização e auxiliar, bem como a altura de observação, para ambas as vistas de observação do plasma. Sob condições otimizadas os limites de detecção (LD), em ng mL-1, para os elementos As, Ba, Cd, Co, Cr, Cu, Mn, Ni, Pb, V e Zn, em solução aquosa de HNO3 5% (v/v), utilizando-se a configuração axial do plasma, foram: 1,1 - 16; 0,002 - 0,32; 0,03 - 1,2; 0,02 - 0,72; 0,03 - 0,82; 0,04 - 3,0; 0,003 - 0,76; 0,08 - 3,8; 0,22 - 8,9; 0,04 - 2,6; e 0,02 - 1,2 respectivamente. Utilizando-se a configuração radial, os LDs (ng mL-1) dos mesmos elementos foram: 10 - 87; 0,01 - 0,91; 0,07 - 3,8; 0,16 - 4,3; 0,13 - 8,1; 0,16 - 4,3; 0,01 - 0,81; 0,43 - 7,6; 1,4 - 37; 0,28 - 6,0 e 0,77 - 9,5 respectivamente. Com relação à nebulização pneumática, os LDs são relativamente mais baixos quando é utilizado o nebulizador concêntrico acoplado à câmara de nebulização ciclônica. LDs ainda melhores são obtidos mediante o uso de nebulização ultra-sônica mas, neste caso, foi observado que o plasma é menos robusto. As metodologias foram desenvolvidas mediante o uso de materiais de referência certificados sendo analisados os seguintes materiais: sedimento marinho (PACS-2/NRCC), folhas de maçã (apple leaves – 1515/NIST) e água (natural water – 1640/NIST), obtendo-se concentrações concordantes com as certificadas, com exceção do Ni em folha de maçã, que não foi detectado utilizando-se a nebulização pneumática e também não pôde ser determinado com exatidão mediante o uso de nebulizador ultra-sônico. Interferências não espectrais observadas na análise de sedimento marinho foram contornadas através da diluição da amostra, ou através da lavagem da câmara de nebulização com solução de HNO3 5% (v/v), por 60 s entre cada ciclo de leitura. Estas interferências não puderam ser contornadas com o uso de padrão interno (PI). A interferência espectral do As sobre o Cd não foi observada fazendo-se a medição do sinal em área de pico, demarcado com somente 3 pontos/pico. Após serem estabelecidas as metodologias de análise, foram analisadas as seguintes amostras não certificadas: água de rio, água subterrânea (poço artesiano), água tratada e de chuva, folhas de eucalipto e bambu, acículas de pinus e infusão de chá preto, sendo possível quantificar baixas concentrações dos elementos investigados, utilizando-se a calibração externa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O aumento da escala e funcionalidade dos sistemas de computação e sua crescente complexidade envolvem um aumento significante de custos e exigem recursos humanos altamente qualificados para o desenvolvimento de software. Integrando-se o uso de métodos formais ao desenvolvimento de sistemas complexos, permite-se realizar análises e verificações destes sistemas, garantindo assim sua correção. Existem diversos formalismos que permitem descrever sistemas, cada qual com diferentes níveis de abstração. Quando consideramos sistemas complexos, surge a necessidade de um modelo que forneça construções abstratas que facilitem o entendimento e a especificação destes sistemas. Um modelo baseado em objetos fornece um nível de abstração que tem sido muito aplicado na prática, onde os dados e os processos que os manipulam são descritos juntos em um objeto. Gramática de Grafos Baseada em Objetos (GGBO) é um modelo baseado em objetos, que além de ser uma linguagem visual, apresenta a vantagem de as especificações adquirirem um estilo baseado em objetos, que é bastante familiar à maioria dos desenvolvedores. Porém, as GGBOs não possuem ainda ferramentas para verificação automática de propriedades desejadas nos sistemas modelados. Uma alternativa para resolver isso é definir uma tradução (que preserve a semântica) desta linguagem para outra, para a qual existam verificadores automáticos. Um formalismo bastante conhecido e estabelecido para descrição de sistemas concorrentes, para o qual existem verificadores automáticos, é o cálculo-π. Porém, sob o aspecto de especificação de sistemas complexos, GGBOs parecem ser mais adequadas como linguagem de especificação que o cálculo-π, pois são visuais, mais intuitivas e possuem um estilo baseado em objetos. Neste trabalho foi definido um formalismo (baseado nas GGBOs), denominado Gramática de Hipergrafos Baseada em Objetos e uma tradução deste formalismo para o cálculo-π, aliando assim as vantagens desses dois métodos. Além disso, para validar a tradução definida, foram feitas provas de que a semântica das gramáticas de hipergrafos baseadas em objetos é preservada na tradução.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho avalia o potencial de simuladores de tráfego na estimativa das emissões veiculares. Os simuladores de tráfego em conjunto com modelos de emissões são utilizados para execução de inventários de emissões. Os inventários de emissões são importantes para a avaliação da eficácia das políticas de transporte que visem redução das emissões veiculares. Erros nesta avaliação podem levar à adoção de políticas ineficientes. Por esta razão, é fundamental a compreensão da lógica destes modelos para a correta análise dos resultados gerados. Através de testes de sensibilidade avaliou-se o impacto da variação de três aspectos intrínsecos aos modelos de simulação na quantificação das emissões veiculares: (i) os parâmetros de entrada utilizados para calibração; (ii) a lógica dos modelos de progressão longitudinal; e (iii) o modelo de emissões incorporado ao simulador. Em um estudo de caso, avaliou-se o impacto de uma melhoria de fluxo de tráfego na geração das emissões com o uso de simuladores de tráfego frente às abordagens tradicionais. O trabalho demonstra que a definição dos parâmetros relativos à aceleração, bem como a modelagem adequada da progressão longitudinal dos veículos, possuem papel preponderante na correta quantificação das emissões. Em segundo plano, o grau de sofisticação do modelo de emissões incorporado também exerce influência na magnitude dos resultados. Por fim, o estudo de caso demonstrou a vantagem do uso de micro-simuladores na quantificação das emissões de projetos de melhorias de fluxo de tráfego frente aos métodos tradicionais, ainda que pese a maior dificuldade na calibração de modelos microscópicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os produtos de sensoriamento remoto gerados pelos novos sensores orbitais, aliados ao desenvolvimento de sistemas computacionais e de técnicas de processamento de imagens possibilitam a manipulação numérica das imagens, visando o realce de informações de interesse para a interpretação visual ou automática. O uso dessas técnicas traz boas perspectivas no mapeamento geológico básico, pois possibilita uma visão sinóptica de amplas áreas e a integração de dados litológicos e estruturais de várias fontes. Este trabalho selecionou as imagens do sensor ASTER (Advanced Spaceborne Thermal Emission and Reflection Radiometer) devido as características de suas resoluções espectral e espacial, como as mais promissoras para identificação dos diferentes litotipos da área do Platô da Ramada, em especial as unidades vulcânicas e hipabissais relacionadas e sedimentares subjacentes. O Platô da Ramada, região de Vila Nova do Sul (RS) constitui uma feição geomorfológica de destaque na área, facilmente identificável nas imagens orbitais, sendo formado por uma seqüência vulcânica caracterizada por depósitos efusivos e piroclásticos, de composição dominantemente ácida. Representa uma fração significativa do magmatismo alcalino sódico neoproterozóico no Escudo Sul-rio-grandense e marca um dos ciclos vulcânicos do período pós-colisional do Ciclo Brasiliano Este estudo testou e avaliou diversos processamentos das imagens multiespectrais para diferenciação litológica, a identificação de alvos e a definição de morfoestruturas da área do Platô da Ramada. A integração de dados geológicos existentes com os produtos obtidos neste estudo possibilitou novas informações anexadas ao mapa geológico utilizado como verdade terrestre. O processamento utilizando a técnica de Transformação por Componentes Principais Seletivas proporcionou os melhores resultados realçando diferenças espectrais existentes entre as rochas vulcânicas e hipabissais e as rochas sedimentares. A partir dessa técnica, selecionou-se as imagens CP2 dos pares das bandas 4-5 (R), 3-4 (G) e 8-9 (B) na geração de uma composição colorida. Esta imagem permitiu a diferenciação espectral entre as rochas vulcânicas do Platô da Ramada e as rochas sedimentares do Grupo Maricá, bem como a individualização, no Grupo Maricá, de duas subunidades, levando-se em conta a densidade de intrusões de diques riolíticos ao norte da área. Identificou-se, ainda, um corpo diorítico com forma elíptica na borda SW do Platô da Ramada, não registrado anteriormente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The evolution of integrated circuits technologies demands the development of new CAD tools. The traditional development of digital circuits at physical level is based in library of cells. These libraries of cells offer certain predictability of the electrical behavior of the design due to the previous characterization of the cells. Besides, different versions of each cell are required in such a way that delay and power consumption characteristics are taken into account, increasing the number of cells in a library. The automatic full custom layout generation is an alternative each time more important to cell based generation approaches. This strategy implements transistors and connections according patterns defined by algorithms. So, it is possible to implement any logic function avoiding the limitations of the library of cells. Tools of analysis and estimate must offer the predictability in automatic full custom layouts. These tools must be able to work with layout estimates and to generate information related to delay, power consumption and area occupation. This work includes the research of new methods of physical synthesis and the implementation of an automatic layout generation in which the cells are generated at the moment of the layout synthesis. The research investigates different strategies of elements disposition (transistors, contacts and connections) in a layout and their effects in the area occupation and circuit delay. The presented layout strategy applies delay optimization by the integration with a gate sizing technique. This is performed in such a way the folding method allows individual discrete sizing to transistors. The main characteristics of the proposed strategy are: power supply lines between rows, over the layout routing (channel routing is not used), circuit routing performed before layout generation and layout generation targeting delay reduction by the application of the sizing technique. The possibility to implement any logic function, without restrictions imposed by a library of cells, allows the circuit synthesis with optimization in the number of the transistors. This reduction in the number of transistors decreases the delay and power consumption, mainly the static power consumption in submicrometer circuits. Comparisons between the proposed strategy and other well-known methods are presented in such a way the proposed method is validated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente, um dos grandes desafios para qualquer desenvolvedor de software é projetar um sistema que reutilize ao máximo elementos de código e de projeto existentes, visando diminuir o tempo e o esforço exigidos na produção do software. Entre as inúmeras formas de possibilitar reuso no contexto do desenvolvimento segundo o paradigma da orientação a objetos, destaca-se a abordagem de frameworks. A grande importância da documentação de software utilizada no processo de desenvolvimento aliada às características de frameworks serviram como motivação para este trabalho. A documentação dentro do processo de desenvolvimento de software não faz parte de uma fase definida, mas ocorre durante toda sua existência, em paralelo com outras fases do ciclo de vida. A abordagem de frameworks dentro deste contexto enfoca o tratamento de templates e definições das características dos artefatos de software (incluindo não somente código mas também produtos de análise, projeto, frameworks, componentes, diagramas, entre outros), facilitando e acelerando o processo de documentação. Um framework, devido a suas características peculiares que serão examinadas e explicitadas no trabalho, contém uma série de informações que podem, além de apoiar a documentação, ser úteis para produção de outros artefatos (por exemplo, planejamentos de teste, scripts de bancos de dados, padrões de codificação, entre outros) do processo de desenvolvimento. Assim, em um processo de desenvolvimento evolutivo, que utiliza a geração de artefatos como recurso, a manutenção pode ser integralmente realizada somente na especificação e não diluída nos artefatos gerados. O objetivo deste trabalho é investigar, propor e desenvolver uma ferramenta de documentação e geração de artefatos de software, denominado FrameworkDoc. O termo documentação de software aqui utilizado se refere a documentação de desenvolvimento de software, incluindo artefatos, arquiteturas, ferramentas entre outros. Serão abordados dois principais aspectos: primeiramente, a geração automática de documentação dentro do processo de desenvolvimento de software e depois a geração de outros artefatos deste processo, a partir das definições de alto nível disponíveis através do framework. Exemplos de aplicações do FrameworkDoc em projetos reais são apresentados. No entanto, os documentos e artefatos de software considerados foram definidos de forma suficientemente genérica para serem aproveitados em outros contextos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta duas implementações de algoritmos para gerência dinâmica de memória em software, as quais foram desenvolvidas utilizando como alvo uma plataforma embarcada Java. Uma vez que a plataforma utilizada pertence a uma metodologia para geração semi-automática de hardware e software para sistemas embarcados, os dois algoritmos implementados foram projetados para serem integrados ao contexto desta mesma metodologia. Como forma de estabelecer comparações detalhadas entre as duas implementações desenvolvidas, foram realizadas diversas estimativas em desempenho, uso de memória, potência e energia para cada implementação, utilizando para isto duas versões existentes da plataforma adotada. Através da análise dos resultados obtidos, observou-se que um dos algoritmos desenvolvidos obteve um desempenho melhor para realização da gerência dinâmica da memória. Em contrapartida, o outro algoritmo possui características de projeto que possibilitam sua utilização com aplicações de tempo-real. De um modo geral, os custos adicionais resultantes da utilização do algoritmo de tempo-real, em relação ao outro algoritmo também implementado, são de aproximadamente 2% para a potência média dissipada, 16% para o número de ciclos executados, 18% para a energia consumida e 10% sobre a quantidade de total memória utilizada. Isto mostra que o custo extra necessário para utilização do algoritmo de tempo real é razoavelmente baixo se comparado aos benefícios proporcionados pela sua utilização. Como impactos finais produzidos por este trabalho, obteve-se um acréscimo de 35% sobre o número total de instruções suportadas pela arquitetura utilizada. Adicionalmente, 12% das instruções que já existiam no conjunto desta arquitetura foram modificadas para se adaptarem aos novos mecanismos implementados. Com isto, o conjunto atual da arquitetura passa a corresponder a 44% do total de instruções existentes na arquitetura da máquina virtual Java. Por último, além das estimativas desenvolvidas, foram também realizadas algumas sugestões para melhoria global dos algoritmos implementados. Em síntese, alguns pontos cobertos por estas sugestões incluem: a migração de elementos do processamento do escopo dinâmico para o estático, o desenvolvimento de mecanismos escaláveis para compactação de memória em tempo-real, a integração de escalonadores ao processo de gerência de memória e a extensão do processo de geração semi-automática de software e hardware para sistemas embarcados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desenvolveu-se uma metodologia que dispensa a dissolução completa da amostra para determinar Hg em solos, sedimentos fluvial e marinho. O Hg é quantitativamente extraído do sedimento marinho usando-se HNO3 30% (v/v), ultra-som (120 s, 70 W) e granulometria ≤ 120 µm. Condições similares são eficientes para sedimento fluvial e solo, exceto o tempo de sonicação (180 s) e a adição de KCl 0,15% (m/v). As suspensões sonicadas são centrifugadas e o Hg é determinado no sobrenadante por FI-CV AAS. A validação da metodologia foi feita com CRMs: PACS-2, MESS-3 (NRCC); Buffalo River (NIST 8704), Montana Soil (NIST 2710) e RS-3 (não certificada). Os parâmetros de mérito do método são: massa característica de 25 pg; LD (3s) de 0,2 µg l–1; LQ (10s) de 0,012 µg g–1 (800 µl de solução obtida de 1 g de amostra em 20 ml de suspensão). Aplicou-se a metodologia à análise de amostras reais (solo, sedimentos fluvial e marinho), as quais também foram preparadas com digestão ácida (85 °C durante 3 h) em mistura oxidante (K2S2O8 1 a 2% (m/v) e HNO3 30% (v/v)). Concentrações concordantes foram obtidas. Utilizou-se calibração externa e, quando necessário, ajuste de matriz com KCl ou K2S2O8. Para investigar a extração de Hg orgânico utilizando ultra-som, adicionou-se MeHg aos CRMs. Aproximadamente 5% do MeHg adicionado transformam-se em Hg2+ pelo método proposto, enquanto que chega a 100% quando a amostra é digerida. Assim, propõe-se uma especiação química semiquantitativa entre Hg inorgânico e orgânico, pois o Hg orgânico pode ser obtido pela diferença entre Hg total (determinado pela digestão) e Hg inorgânico (determinado pelo método proposto).