976 resultados para Ajuste de parâmetros de transformação


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A rápida evolução do hardware demanda uma evolução contínua dos compiladores. Um processo de ajuste deve ser realizado pelos projetistas de compiladores para garantir que o código gerado pelo compilador mantenha uma determinada qualidade, seja em termos de tempo de processamento ou outra característica pré-definida. Este trabalho visou automatizar o processo de ajuste de compiladores por meio de técnicas de aprendizado de máquina. Como resultado os planos de compilação obtidos usando aprendizado de máquina com as características propostas produziram código para programas cujos valores para os tempos de execução se aproximaram daqueles seguindo o plano padrão utilizado pela LLVM.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The study of mathematical modeling assists in evaluation of the capacity of production and measurement of generation time of biogas in landfills, enabling the implantation of projects of energy generation from methane. Thus, the work aims, by simulating scenarios of potential methane generation in the landfill in Rio Claro, the use of field data from methane flow and waste grounded parameters as references for selecting values of k e L0 used to estimate methane generation model in LandGEM. As a result it was found that compared the characteristics adopted in the four scenarios recommended by the USEPA literature with those found in the landfill of Rio Claro (high amount of organic matter in the waste landed and daily practice of leachate recirculation), the scenario that apparently better represent the rate of methane generation is the scenario 01, with k = 0.7 and L0 = 96. Now, the adjustment of parameters in relation to the data field of methane flow, the value of L0 which best fits the methane generation from the landfill in Rio Claro is 150, while for k the line behavior that best represents the reality are values between 0.7 and 0.3. Regarding the parameters of the waste grounded, between the suggested values of k, 0,3 is most consistent with the intermediate level of biological degradation of the residue grounded, while L0 due to the biodegradability of the waste, a new value between 120 and 150 may be more appropriate for the study

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Pós-graduação em Química - IQ

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Estuda a viabilidade da implantação da assinatura digital no processo legislativo da Câmara dos Deputados, com vistas à regulamentação dos §§ 1º e 3º, do art. 102 do Regimento Interno da Câmara dos Deputados (RICD). Apresenta as vantagens do uso da firma eletrônica no processo legislativo, sob o enfoque da atuação parlamentar, principalmente no que se refere à apresentação de proposições, como também à forma pela qual a assinatura digital pode otimizar a tramitação de matérias e ampliar a atuação do Parlamentar de forma on-line, além de propiciar economicidade, agilidade, transparência e segurança. O objetivo principal do projeto é identificar sob que condições e parâmetros essa tecnologia pode ser estruturada. Por isso, a pesquisa procurou articular as áreas do processo legislativo e da tecnologia. No campo do processo legislativo, identificou-se, com base nos §§1º e 3º do art. 102 do RICD, os procedimentos que poderiam ser beneficiados pelo uso da assinatura digital. Em seguida foram avaliados os recursos tecnológicos necessários à adoção da firma eletrônica, bem como os recursos disponíveis atualmente na Câmara dos Deputados. As vantagens e desvantagens para a Câmara dos Deputados como Autoridade Certificadora foram ponderadas. Foram tipificados os procedimentos da cadeia processual a serem normatizados. A presença do documento eletrônico nas diversas áreas da Câmara dos Deputados já é considerável e tende a expandir-se ainda mais, tornando conveniente o ajuste dos parâmetros jurídicos e técnicos concernentes à implantação da assinatura digital. Dessa forma, o Poder Legislativo Federal apresenta-se como vanguarda do processo de gestão de informação legislativa, ao mesmo tempo em que proporciona economia, celeridade e eficiência aos procedimentos legislativos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Partículas nanoestruturadas têm sido amplamente utilizadas como carga de reforço em matrizes elastoméricas, sendo substitutos eficazes das cargas convencionais, já consagradas, como o negro de fumo, mica, sílica. Em especial, as argilas têm mostrado grande potencial ao que se refere a melhor dispersão na matriz polimérica, em função de sua elevada razão de aspecto. Dentro do vasto universo de argilominerais, as argilas aniônicas, também conhecidas hidróxido duplo lamelar (HDL), apresentam como vantagem a possibilidade de ser projetada estruturalmente para as mais diversas finalidades, ao se modificar os ânions ou os cátions, ou até mesmo combiná-los na estrutura lamelar. E dentre os métodos existentes para se preparar compósitos a base de elastômero/argila, a co-coagulação do látex, é uma forma bastante eficaz e economicamente viável, uma vez que a borracha obtida após processo de coagulação já contém a carga incorporada. Este trabalho se dedicou a avaliar o processo de co-coagulação do látex de NBR e HDL, visando a obtenção de nanocompósitos. Para tanto HDL de composição Mg/Al-CO3 foi modificado com ânions DS, DBS e ST e foram preparadas suspensões aquosas, utilizando como ferramentas de dispersão ultraturrax e ultrassom de ponteira. As variáveis de processo avaliadas foram tipo e teor de HDL, tempo de mistura látex/suspensão aquosa de HDL, quantidade de coagulante e velocidade de agitação. Por fim, os coágulos obtidos foram formulados para avaliar a influência dos HDL na cinética de vulcanização e também para determinação das propriedades mecânicas convencionais. Os resultados obtidos comprovaram que a metodologia de dispersão de hidrotalcita ao látex nitrílico de modo prévio ao processo de coagulação é uma alternativa viável para a obtenção de nanocompósitos. O uso do ultrassom de ponteira como ferramenta na dispersão aquosa de HDL contribuiu para maior estabilidade da suspensão e o ajuste nos parâmetros do sistema de coagulação, levaram a obtenção de grumos uniformes do ponto de vista macroscópico e microscópico. As micrografias dos coágulos não vulcanizados obtidas por MEV-FEG confirmaram as informações apuradas a partir dos difratogramas de raios-X que apontou a formação de um sistema parcialmente esfoliado, em função da ausência dos picos característicos da hidrotalcita, além de indicarem a coexistência de partículas em dimensões micrométrica a nanométricas em uma mesma estrutura. A composição química do HDL, com a presença de átomos de magnésio e alumínio combinados com grupos hidroxila favoreceu a redução tanto o tempo de indução como de pré-cura. As propriedades mecânicas que se mostraram mais sensíveis ao grau de dispersão da carga foram a dureza, a deformação permanente à compressão (DPC) e o módulo de tração a 300% de deformação (E300), em especial para os compósitos contendo 10% m/m de HDL natural e modificado com estearato. A resistência à chama dos nanocompósitos de NBR-HDL vulcanizados apresentou um ligeiro aumento quando comparados à NBR pura, visto que esta é uma característica própria da hidrotalcita, decorrente da sua composição química

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Inicialmente integrada en el piloto de gvSIG Mobile, la librería libLocation tiene como objetivo dotar a los proyectos gvSIG Desktop y gvSIG Mobile un acceso transparente a fuentes de localización. La librería se fundamenta en las especificaciones JSR-179 -API de localización para J2ME- y JSR-293 -API de localización para J2ME v2.0-, proporcionando una interfaz uniforme a diferentes fuentes de localización, mediante funciones de alto nivel. Asimismo, se extiende la funcionalidad de estas APIs para permitir la gestión de datos específicos del tipo de fuente de localización y el ajuste de parámetros de bajo nivel, además de incorporar métodos de localización adicionales, como la aplicación de correcciones vía protocolo NTRIP. La librería libLocation está actualmente en proceso de desarrollo y será publicada y liberada junto con la versión definitiva de gvSIG Mobile. Junto con libLocation se están desarrollando extensiones que permiten el acceso a esta librería desde gvSIG Desktop y gvSIG Mobile

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Numerosas pesquisas estão introduzindo o conceito de grupo em padrões abertos para programação distribuída. Nestas, o suporte a grupo de objetos por meio de middlewares, apresentam diferentes abordagens de interligação com a aplicação. Segundo princípios defendidos na tese de Felber, essas abordagens vão ao encontro do objetivo de facilitar o desenvolvimento e proporcionar confiabilidade e desempenho. Neste contexto, localizou-se três enfoques básicos para a interligação com a aplicação, denominados integração, serviço, e interceptação, que utilizam a captura de mensagens para obtenção de informações ou como meio para adicionar novas funcionalidades às aplicações. A utilização dessas informações pode auxiliar no ajuste de parâmetros funcionais de serviços relacionados, na escolha de mecanismos, influindo em aspectos como, desempenho e segurança. Ao longo do estudo dessas abordagens, sentiu-se a necessidade de estudar detalhes e testar aspectos de implementação, suas premissas de uso e as conseqüências advindas da incorporação de seus mecanismos junto à aplicação. Este trabalho visa apresentar uma análise do comportamento das referidas abordagens por meio da implementação de protótipos, possibilitando assim, investigar problemas relacionados ao emprego da técnica e suas conseqüências quando integradas à aplicação. Os objetivos específicos reúnem a busca de informações qualitativas, tais como: modularidade, transparência, facilidade de uso e portabilidade; e informações quantitativas, fundamentalmente traduzidas pelo grau de interferência no desempenho da aplicação. O desenvolvimento dos protótipos teve como início a busca por um ambiente que ofereceria suporte as condições necessárias para a implementação das diferentes abordagens. Percebeu-se que definir os mecanismos diretamente sobre uma linguagem de programação, como C ou C++, não era viável. As versões padrões dessas linguagens não oferecem mecanismos capazes de suportar algumas características de implementação como, por exemplo, a captura de mensagens na abordagem de interceptação. A possibilidade é introduzida apenas por extensões dessas linguagens. Assim, a investigação de um ambiente de implementação voltou-se para mecanismos disponíveis em sistemas operacionais. A opção pela utilização do Linux visou atender alguns requisitos importantes para o desenvolvimento dos protótipos tais como: facilidade de instalação, boa documentação e código aberto. Este último é um ponto essencial, pois a construção de parte dos protótipos explora a programação em nível do sistema operacional. A linguagem de programação C foi escolhida como base para a implementação, já que as diferentes abordagens exploram tanto o nível do kernel como o nível do usuário, e é compatível com o Linux. A etapa de desenvolvimento dos protótipos possibilitou a coleta de informações sobre aspectos qualitativos. As demais informações que fazem parte do perfil levantado por este trabalho sobre as abordagens, foram obtidas através da utilização dos protótipos em experimentos com duas aplicações distribuídas denominadas de “Ping-Pong” e “Escolha dederes”, que têm como característica geral à troca de mensagens, utilizando comunicação através de sockets. A realização de medidas em múltiplas execuções, avaliadas após o tratamento estatístico necessário, permitiu definir um perfil das diferentes abordagens.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

deos de histeroscopias são usados para avaliar a aparência do útero, e são de importância fundamental para os ginecologistas. Estes vídeos contém uma grande quantidade de informação, porém somente um número reduzido de quadros são úteis para propósitos de diagnóstico (por exemplo, a análise da distribuição espacial de glândulas). Sendo assim, este trabalho propõe um método inovador para a análise dedeos de histeroscopias, com dois objetivos principais: (a) reduzir o número de quadros necessários para a representação do conteúdo do vídeo, e (b) prover uma medida quantitativa da distribuição das glândulas em tais vídeos. A abordagem proposta para a sumarização do vídeo é baseada na extensão de um princípio estatístico conhecido (decomposição em valor singular), e, segundo resultados preliminares, apresenta vantagens sobre os trabalhos publicados na literatura. Observou-se que a análise quantitativa da distribuição das glândulas também apresenta uma maior discriminação do que relatado na literatura. A abordagem proposta é adaptativa no sentido de minimizar a necessidade do ajuste de parâmetros. Além disso, o método é robusto quanto as condições de iluminação e a presença de artefatos (por exemplo, reflexos), os quais são comuns nestes vídeos. Por fim, os experimentos indicam que os resultados obtidos são compatíveis com os obtidos pelos ginecologistas.