142 resultados para Experimentos alquímicos
Resumo:
O objetivo deste trabalho é obter uma nova solução analítica para a equação de advecção-difusão. Para tanto, considera-se um problema bidimensional difusivo-advectivo estacionário com coeficiente de difusão turbulenta vertical variável que modela a dispersão de poluentes na atmosfera. São utilizados três coeficientes difusivos válidos na camada limite convectiva e que dependem da altura, da distância da fonte e do perfil de velocidade. A abordagem utilizada para a resolução do problema é a técnica da Transformada Integral Generalizada, na qual a equação transformada do problema difusivo-advectivo é resolvida pela técnica da Transformada de Laplace com inversão analítica. Nenhuma aproximação é feita durante a derivação da solução, sendo assim, esta é exata exceto pelo erro de truncamento. O modelo ´e avaliado em condições moderadamente instáveis usando o experimento de Copenhagen. Apresentam-se os resultados numéricos e estatísticos, comparando os resultados obtidos com dados experimentais e com os resultados da literatura. O modelo proposto mostrou-se satisfatório em relação aos dados dos experimentos difusivos considerados.
Resumo:
A modelagem matemática é uma ferramenta que apresenta diversas vantagens no estudo de processos industriais como, por exemplo, entender e desenvolver tecnologias, avaliar o impacto de variáveis nas propriedades do produto, estudos de redução de custos de produção e de impacto ambiental. O objetivo deste trabalho é desenvolver e validar um modelo matemático para um reator de bancada de polimerização em lama de eteno, enfatizando o desenvolvimento do modelo cinético. O modelo do reator contemplou: 1) modelo de troca térmica; 2) modelo termodinâmico; 3) modelo de transferência de massa gás-líquido e 4)modelo cinético. Para uma melhor predição do modelo foi realizada a estimação de alguns dos seus parâmetros conforme uma metodologia que compreendeu a análise de sensibilidade paramétrica e das variáveis de entrada do modelo e os efeitos de um planejamento de experimentos para a geração dos dados experimentais. A metodologia utilizada mostrou-se eficiente na avaliação do modelo quanto as suas características de predição, ajudando na identificação de possíveis falhas e evidenciando as vantagens de uma adequada metodologia experimental. Uma etapa determinante para o processo de estimação dos parâmetros é a escolha dos dados de saída a utilizar para a estimativa de determinado parâmetro. A modelagem do reator experimental mostrou-se satisfatória em todos os aspectos do processo (troca térmica, cinética, termodinâmica e transferência de massa), pois o modelo prediz com precisão as características encontradas nos experimentos. Assim, este pode ser utilizado para avaliar o mecanismo reacional envolvido de forma a aproximar-se das reais características do processo.
Resumo:
Alta disponibilidade é uma das propriedades mais desejáveis em sistemas computacionais, principalmente em aplicações comerciais que, tipicamente, envolvem acesso a banco de dados e usam transações. Essas aplicações compreendem sistemas bancários e de comércio eletrônico, onde a indisponibilidade de um serviço pode representar substanciais perdas financeiras. Alta disponibilidade pode ser alcançada através de replicação. Se uma das réplicas não está operacional, outra possibilita que determinado serviço seja oferecido. No entanto, réplicas requerem protocolos que assegurem consistência de estado. Comunicação de grupo é uma abstração que tem sido aplicada com eficiência a sistemas distribuídos para implementar protocolos de replicação. Sua aplicação a sistemas práticos com transações e com banco de dados não é comum. Tipicamente, sistemas transacionais usam soluções ad hoc e sincronizam réplicas com protocolos centralizados, que são bloqueantes e, por isso, não asseguram alta disponibilidade. A tecnologia baseada em componentes Enterprise JavaBeans (EJB) é um exemplo de sistema prático que integra distribuição, transações e bancos de dados. Em uma aplicação EJB, o desenvolvedor codifica o serviço funcional que é dependente da aplicação, e os serviços não–funcionais são inseridos automaticamente. A especificação EJB descreve serviços não–funcionais de segurança, de transações e de persistência para bancos de dados, mas não descreve serviços que garantam alta disponibilidade. Neste trabalho, alta disponibilidade é oferecida como uma nova propriedade através da adição de serviços não–funcionais na tecnologia EJB usando abstrações de comunicação de grupo. Os serviços para alta disponibilidade são oferecidos através da arquitetura HA (highly-available architecture) que possui múltiplas camadas. Esses serviços incluem replicação, chaveamento de servidor, gerenciamento de membros do grupo e detecção de membros falhos do grupo. A arquitetura HA baseia-se nos serviços já descritos pela especificação EJB e preserva os serviços EJB existentes. O protocolo de replicação corresponde a uma subcamada, invisível para o usuário final. O serviço EJB é executado por membros em um grupo de réplicas, permitindo a existência de múltiplos bancos de dados idênticos. Conflitos de acesso aos múltiplos bancos de dados são tratados estabelecendo–se uma ordem total para aplicação das atualizações das transações. Esse grupo é modelado como um único componente e gerenciado por um sistema de comunicação de grupo. A combinação de conceitos de bancos de dados com comunicação de grupo demonstra uma interessante solução para aplicações com requisitos de alta disponibilidade, como as aplicações EJB. Os serviços adicionais da arquitetura HA foram implementados em protótipo. A validação através de um protótipo possibilita que experimentos sejam realizados dentro de um ambiente controlado, usando diferentes cargas de trabalho sintéticas. O protótipo combina dois sistemas de código aberto. Essa característica permitiu acesso à implementação e não somente à interface dos componentes dos sistemas em questão. Um dos sistemas implementa a especificação EJB e outro implementa o sistema de comunicação de grupos. Os resultados dos testes realizados com o protótipo mostraram a eficiência da solução proposta. A degradação de desempenho pelo uso de réplicas e da comunicação de grupo é mantida em valores adequados.
Resumo:
This thesis presents the study and development of fault-tolerant techniques for programmable architectures, the well-known Field Programmable Gate Arrays (FPGAs), customizable by SRAM. FPGAs are becoming more valuable for space applications because of the high density, high performance, reduced development cost and re-programmability. In particular, SRAM-based FPGAs are very valuable for remote missions because of the possibility of being reprogrammed by the user as many times as necessary in a very short period. SRAM-based FPGA and micro-controllers represent a wide range of components in space applications, and as a result will be the focus of this work, more specifically the Virtex® family from Xilinx and the architecture of the 8051 micro-controller from Intel. The Triple Modular Redundancy (TMR) with voters is a common high-level technique to protect ASICs against single event upset (SEU) and it can also be applied to FPGAs. The TMR technique was first tested in the Virtex® FPGA architecture by using a small design based on counters. Faults were injected in all sensitive parts of the FPGA and a detailed analysis of the effect of a fault in a TMR design synthesized in the Virtex® platform was performed. Results from fault injection and from a radiation ground test facility showed the efficiency of the TMR for the related case study circuit. Although TMR has showed a high reliability, this technique presents some limitations, such as area overhead, three times more input and output pins and, consequently, a significant increase in power dissipation. Aiming to reduce TMR costs and improve reliability, an innovative high-level technique for designing fault-tolerant systems in SRAM-based FPGAs was developed, without modification in the FPGA architecture. This technique combines time and hardware redundancy to reduce overhead and to ensure reliability. It is based on duplication with comparison and concurrent error detection. The new technique proposed in this work was specifically developed for FPGAs to cope with transient faults in the user combinational and sequential logic, while also reducing pin count, area and power dissipation. The methodology was validated by fault injection experiments in an emulation board. The thesis presents comparison results in fault coverage, area and performance between the discussed techniques.
Resumo:
O presente trabalho foi desenvolvido para determinar os parâmetros de operação adequados de um biorreator, reator de aço inox com capacidade para 200 L, para tratamento de resíduos sólidos urbanos (RSU’s) por processo de digestão anaeróbia. Acelerando a degradação da matéria biodegradável presente no RSU, por meio do controle de parâmetros químic os e físicos, forneceu-se ao sistema condições para o desenvolvimento dos microrganismos necessários para a produção de gás (biogás) em um curto período de tempo. Foram realizados vários experimentos para determinação dos parâmetros mais adequados. Foram utilizadas três diferentes quantidades de resíduos de fácil biodegradabilidade (10, 20 e 30 kg) como frutas, verduras, legumes e cascas cortados em pedaços de 5 x 5 cm e acondicionados dentro do biorreator. Lodo anaeróbio granular foi utilizado como inóculo no sistema, e o restante do volume do biorreator foi preenchido com água destilada. O sistema foi tamponado com 3 g L-1 de bicarbonato de sódio (NaHCO3) e a temperatura do sistema foi mantida constante a 38ºC. O chorume gerado foi coletado no vaso coletor de chorume e recirculado para o topo do biorreator, o reciclo foi realizado diariamente a uma taxa de 2 L min-1. Para controle do sistema foram monitorados o pH , a temperatura, a demanda química de oxigênio (DQO), demanda bioquímica de oxigênio com incubação de 5 dias (DBO5), ácidos orgânicos voláteis (AOV’s) e oxigênio dissolvido (OD). No experimento realizado com 30 kg de resíduo orgânico, foram obtidos os resultados mais satisfatórios. Na partida do sistema o pH apresentou valor inicial de 6,99, aumentando para 7,37 no 2º dia de operação, mantendo o valor médio de 7,46 durante os 20 dias de operação. A DQO diminuiu de 5533 mg L-1 para 633 mg L-1 ao final da operação, resultando em uma demanda química de oxigênio removida (DQOR) igual a 4900 mg L-1. Os AOV’s apresentaram um aumento inicial de 86 mg L-1 para 129 mg L-1, e posterior diminuição até atingir a concentração final de 9 mg L-1. A diminuição ocorrida na DQO e nos AOV’s revelou o consumo da matéria orgânica presente no biorreator que resultou na produção total de 1352 L de gás.
Resumo:
Neste trabalho, fez-se uma avaliação da reatividade do carvão gaúcho da mina de Faxinal com 17% de cinzas, de dois carvões importados, bem como das misturas destes carvões em diferentes proporções mássicas. Além disso, quantificou-se outros parâmetros importantes para o processo de injeção do carvão pulverizado (PCI) na fabricação do gusa via alto-forno, como o teor de cinzas, teor de matéria volátil e composição química das cinzas. A reatividade foi avaliada em termos da reação de gaseificação com CO2, em termobalança, sob condições isotérmicas e pressão atmosférica. Os experimentos foram realizados na temperatura de 1050ºC com CO2 puro, utilizando amostras com granulometria menor que 75 mm. Avaliou-se o efeito da geometria do cadinho e vazão de gás sobre a taxa de reação para garantir uma situação de controle cinético na reação de gaseificação. Os resultados experimentais revelaram que o carvão de Faxinal possui uma reatividade muito maior frente ao CO2 do que os carvões importados. O tempo para que se complete a reação, parâmetro importantíssimo no processo do alto-forno que utiliza PCI, é muitíssimo menor para o carvão de Faxinal do que para os carvões importados. As misturas de carvões revelaram um comportamento aditivo quanto à reatividade e aos demais parâmetros estudados. Observou-se que quanto maior o teor de carvão gaúcho presente na mistura, maior sua reatividade e menor é o tempo gasto para atingir a taxa máxima de reação. Em função dos resultados de reatividade, teor de cinzas e composição química das cinzas obtidos, permitiu-se indicar uma mistura com até 50% de carvão de Faxinal para ser testada na injeção de carvão pulverizado.
Resumo:
Esta pesquisa visa a modelagem de clusters de computadores, utilizando um modelo analítico simples que é representado por um grafo valorado denominado grafo da arquitetura. Para ilustrar tal metodologia, exemplificou-se a modelagem do cluster Myrinet/SCI do Instituto de Informática da UFRGS, que é do tipo heterogêneo e multiprocessado. A pesquisa visa também o estudo de métodos e tecnologias de software para o particionamento de grafos de aplicações e seu respectivo mapeamento sobre grafos de arquiteturas. Encontrar boas partições de grafos pode contribuir com a redução da comunicação entre processadores em uma máquina paralela. Para tal, utilizou-se o grafo da aplicação HIDRA, um dos trabalhos do GMCPAD, que modela o transporte de substâncias no Lago Guaíba. Um fator importante é o crescente avanço da oferta de recursos de alto desempenho como os clusters de computadores. Os clusters podem ser homogêneos, quando possuem um arquitetura com nós de mesma característica como: velocidade de processamento, quantidade de memória RAM e possuem a mesma rede de interconexão interligando-os. Eles também podem ser heterogêneos, quando alguns dos componentes dos nós diferem em capacidade ou tecnologia. A tendência é de clusters homogêneos se tornarem em clusters heterogêneos, como conseqüência das expansões e atualizações. Efetuar um particionamento que distribua a carga em clusters heterogêneos de acordo com o poder computacional de cada nó não é uma tarefa fácil, pois nenhum processador deve ficar ocioso e, tampouco, outros devem ficar sobrecarregados Vários métodos de particionamento e mapeamento de grafos foram estudados e três ferramentas (Chaco, Jostle e o Scotch) foram testadas com a aplicação e com a arquitetura modeladas. Foram realizados, ainda, vários experimentos modificando parâmetros de entrada das ferramentas e os resultados foram analisados. Foram considerados melhores resultados aqueles que apresentaram o menor número de corte de arestas, uma vez que esse parâmetro pode representar a comunicação entre os processadores de uma máquina paralela, e executaram o particionamento/mapeamento no menor tempo. O software Chaco e o software Jostle foram eficientes no balanceamento de carga por gerarem partições com praticamente o mesmo tamanho, sendo os resultados adequados para arquiteturas homogêneas. O software Scotch foi o único que permitiu o mapeamento do grafo da aplicação sobre o grafo da arquitetura com fidelidade, destacando-se também por executar particionamento com melhor qualidade e pela execução dos experimentos em um tempo significativamente menor que as outras ferramentas pesquisadas.
Resumo:
O método de análise de solo Mehlich-1 em uso no RS e SC não é adequado para a avaliação da disponibilidade de fósforo em solos adubados recentemente com fosfatos naturais, além de, na comparação com o método da resina de troca iônica, freqüentemente apresentar coeficientes de determinação entre fósforo extraído do solo e parâmetros de plantas menores. Questiona-se também a adequaçãodos teores críticos de fósforo e potássio do solo e as doses de fertilizantes recomendadas atualmente, com base em calibrações feitas entre as décadas de 1960 a 1980, sob sistema convencional e amostragem da camada 0-20 cm de profundidade, para o sistema de plantio direto, com amostragem na camada 0-10 cm.Para equacionar alguns dos aspectos mencionados foram feitos três estudos. No primeiro, correlacionou-se o fósforo extraído, pelos métodos Mehlich-1 e resina de troca iônica, de 100 amostras de solos com diferentes classes de textura e teores de fósforo, com o objetivo de obter um índice de equivalência entre o fósforo determinado por ambos os métodos. No segundo estudo, foram enterradas lâminas de resina para avaliar a capacidade da resina em estimar a disponibilidade de fósforo para as plantas de milho e arroz em diferentes estádios de desenvolvimento. No terceiro estudo, utilizaram-se resultados de experimentos com doses de fósforo e potássio, cultivados com soja, trigo e milho, para re-calibrar os teores críticos de fósforo e potássio do solo pelo método Mehlich-1, e calibrar os resultados obtidos com o método Mehlich-3 e resina Os resultados obtidos no estudo 1 não permitiram estabelecer um índice de equivalência analítico entre os métodos Mehlich-1 e resina, pois a extração depende também da interação entre teores de fósforo e argila do solo. O método da resina enterrada foi eficiente para determinar a disponibilidade de fósforo para o arroz em solos inundados, mas pode não ser adequado para a cultura do milho. Os teores críticos de fósforo e potássio utilizados atualmente para recomendação de adubação estão subestimados, tanto para as amostras na camada 0-20, como na 0-10 cm de profundidade. As doses de fósforo e potássio, recomendadas para as culturas soja e milho, também estão subestimadas. Os coeficientes de determinação, obtidos entre o fósforo e o potássio determinados pelos métodos Mehlich-1 e resina e o rendimento das culturas soja, milho e trigo, foram maiores do que os obtidos com o Mehlich-3 para mesma relação.
Resumo:
Apresentamos a fotometria de 6 campos estelares profundos distribuídos na Grande Nuvem de Magalhães obtidos com a Wide Field and Planetary Camera 2/Hubble Space Telescope em duas bandas fotométricas: F814W (~I) e F555W (~V). Foram selecionadas ao todo 15997 estrelas pela nossa amostra, que somadas às estrelas da amostra de Castro et aI. 2001 [9] contabilizaram 22239 estrelas, dentro de limites de magnitude típicos que estão no intervalo 18.5<-V <-26. Investigamos o comportamento do erro fotométrico através da tarefa PHOT/IRAF, bem como via medidas independentes de magnitude de um mesmo objeto obtidas com diferentes exposições. Implementamos um método de correção para a completeza fotométrica como função da posição no diagrama cor-magnitude, isto é, com função tanto da magnitude como da cor e analisamos a sensibilidade das funções de luminosidade obtidas para diferentes métodos de correção. Foram obtidos os diagramas cor-magnitude, com os quais ajustamos isócronas de Pádova com idades T ;S 16 Gano e metalicidades 0.001 < Z < 0.004 ou -1.3 < [Fe/H] < -0.7. A população mais velha (r~12 Gano) pode ser encontrada através do ponto de turn-off em V~22. Estrelas de idade intermediária (r~1 - 8 Gano) podem ser localizadas pela presença de um clump. Os campos próximos aos aglomerados jovens NGC1805 e NGC1818 são os campos mais populosos, apresentando estrelas com r~1 Gano. Construímos funções de luminosidade para 18.5<-V <-25, utilizando os dados das duas amostras; não foram encontradas diferenças significativas entre os campos Desenvolvemos um método para geração de diagramas cor-magnitude (CMDs) artificiais a partir de um modelo de histórico de formação estelar. Este método incorpora os efeitos de erros fotométricos, binarismo não resolvido, avermelhamento e permite o uso de formas variadas de função de massa inicial e do próprio histórico. Implementamos o Método dos Modelos Parciais para modelamento de CMDs, incluindo experimentos controlados para a comprovação da validade deste método na busca de vínculos ao histórico de formação estelar da Grande Nuvem de Magalhães em dife!entes regiões. Recuperamos SFHs confiáveis para cada um dos 6 campos da LMC. Observamos variações na formação estelar de um campo para outro. Em todos os campos encontramos uma lacuna na formação estelar com 7 rv 700 Mano. Os dois campos próximos à barra (NGC1805 e NGC1818) apresentam alguns pequenos surtos, tendo formado em sua maioria, estrelas velhas ou relativamente jovens. Já os campos próximos a NGC1831 e NGC1868 apresentam formação estelar que se aproxima de um histórico de formação estelar uniforme, com alguns pequenos surtos. Os campos NGC2209 e Hodge 11 apresentam três períodos de formação estelar muitos semelhantes.
Resumo:
O presente trabalho foi realizado com o objetivo de avaliar e selecionar genótipos de alfafa crioula e de cornichão cultivar São Gabriel para aptidão ao pastejo. Neste trabalho, foi proposto o termo aptidão ao pastejo em substituição à resistência ao pastejo. O procedimento padrão utilizado no processo de seleção e de caracterização dos genótipos constou de experimentos nos quais as plantas eram submetidas a uma pressão de pastejo elevada e contínua (3-5 cm de altura do resíduo). Houve diferença (P<0,05) na sobrevivência das diferentes populações de alfafa crioula, evidenciando variabilidade para a aptidão ao pastejo, o que não se evidenciou de forma consistente para o cornichão, que, no entanto, apresentou uma maior porcentagem de sobrevivência em comparação com a alfafa. A avaliação das características morfofisiológicas em alfafa não evidenciou diferenças (P>0,05) na contração das coroas, área da coroa e da raiz, área foliar residual e específica, número de hastes por planta, tipo de haste predominante (basilar ou axilar) e reservas orgânicas. Foram evidenciadas diferenças (P<0,05) no comprimento do entrenó e no índice de gemas específicas, proposto neste trabalho como descritor funcional da aptidão ao pastejo. Ensaios em casa-de-vegetação identificaram um marcador morfológico (altura do primeiro nó) nas plântulas de alfafa e de cornichão, capaz de separar precocemente os genótipos contrastantes quanto à aptidão ao pastejo. Foi comparada a efetividade das estirpes de rizóbio recomendadas para o cornichão com a de novas estirpes isoladas, demonstrando a possibilidade de obtenção de estirpes mais eficientes.
Resumo:
A dinâmica da água em sistema de plantio direto (PD) é alterada em relação ao preparo convencional (PC) devido a modificações na estrutura do solo e a presença de palha na superfície. Para avaliar estas diferenças foram conduzidos experimentos de campo, em 2001/02 e 2002/03, em Eldorado do Sul, RS. O objetivo geral foi quantificar alterações físico-hídricas no perfil e na superfície do solo em PD e PC, com ênfase na dinâmica da água e respostas das plantas de milho. Os sistemas de manejo do solo foram implantados na área em 1995. Foram avaliadas propriedades físicas, a movimentação e a armazenagem de água no solo. Mediu-se a infiltração e a capacidade de campo e monitorou-se a dinâmica da água durante o ciclo da cultura, enfocando a secagem do solo e a extração de água em períodos sem precipitação. Nestes períodos também foi determinada a evaporação da água na superfície e avaliadas respostas das plantas. Os efeitos do plantio direto se evidenciaram nas camadas de solo próximas à superfície. A mesoporosidade foi a propriedade física mais afetada, apresentando uma distribuição exponencial de mesoporos no plantio direto, enquanto no preparo convencional a mesma se aproximou de uma curva normal. Em geral, a condutividade hidráulica, a retenção e a disponibilidade de água foram mais elevadas em plantio direto, principalmente, próximo à superfície. O solo em PD também apresentou maior umidade volumétrica com menor energia de retenção, resultando em redução no avanço da frente de secagem do solo e extração de água. A evaporação também foi maior em PD, demonstrando que a maior umidade no solo em plantio direto se deve ao aumento na capacidade de armazenagem de água. O aprofundamento radicular foi sempre maior no preparo convencional. O plantio direto altera propriedades físicas ligadas à dinâmica da água, proporcionando maior disponibilidade hídrica no solo ao longo do tempo.
Resumo:
O acamamento é um dos principais problemas que prejudica o rendimento e a qualidade de grãos de cevada e aveia no sul do Brasil e as características das plantas relacionadas com o acamamento ainda são pouco conhecidas. Com este trabalho objetivou-se identificar as possíveis causas intrínsecas das plantas associadas à suscetibilidade ao acamamento, em genótipos de aveia branca (Avena sativa) e de cevada (Hordeum vulgare), avaliando características biométricas de colmo e de raiz. Dois experimentos foram realizados nos anos de 2002 e 2003 na EEA/UFRGS. quando foram cultivados quatro genótipos de aveia (L93605, UFRGS 19, URS 21 e UPF 18) e dois de cevada (BRS 195 e MN 698) com doses crescentes de N em cobertura (30, 60, 90, 120, 150 kg ha-1), além da testemunha sem N. Os genótipos menos suscetíveis ao acamamento (BRS 195, UFRGS 19 e L93605) apresentaram colmos mais compactos e com maior resistência mecânica em decorrência do menor porte e melhor distribuição da matéria seca. O sistema radical foi incrementado com a maior disponibilidade de nitrogênio melhorando a ancoragem das plantas. Os genótipos de maior suscetibilidade (MN 698, URS 21 e UPF 18) apresentaram colmos com menor resistência mecânica em decorrência do maior momento de torque pelo maior porte das plantas e pior partição da matéria seca. Estes genótipos exibiriam menor peso das raízes e, conseqüentemente, tiveram pior ancoragem predispondo as plantas ao acamamento de raiz. O acamamento não pôde ser atribuído especificamente a uma ou outra das características estudadas, já que cada genótipo exibiu estratégias diferenciais cujos efeitos aditivos contribuíram com maior ou menor grau de suscetibilidade ao acamamento.
Resumo:
Dois experimentos e um levantamento por amostragem foram analisados no contexto de dados espaciais. Os experimentos foram delineados em blocos completos casualizados sendo que no experimento um (EXP 1) foram avaliados oito cultivares de trevo branco, sendo estudadas as variáveis Matéria Seca Total (MST) e Matéria Seca de Gramíneas (MSGRAM) e no experimento dois (EXP 2) 20 cultivares de espécies forrageiras, onde foi estudada a variável Percentagem de Implantação (%IMPL). As variáveis foram analisadas no contexto de modelos mistos, sendo modelada a variabilidade espacial através de semivariogramas exponencias, esféricos e gaussianos. Verificou-se uma diminuição em média de 19% e 14% do Coeficiente de Variação (CV) das medias dos cultivares, e uma diminuição em média de 24,6% e 33,3% nos erros padrões dos contrastes ortogonais propostos em MST e MSGRAM. No levantamento por amostragem, estudou-se a associação espacial em Aristida laevis (Nees) Kunth , Paspalum notatum Fl e Demodium incanum DC, amostrados em uma transecção fixa de quadros contiguos, a quatro tamanhos de unidades amostrais (0,1x0,1m; 0,1x0,3m; 0,1x0,5m; e 0,1x1,0m). Nas espécies Aristida laevis (Nees) Kunth e Paspalum notatum Fl, existiu um bom ajuste dos semivariogramas a tamanhos menores das unidades amostrais, diminuíndo quando a unidade amostral foi maior. Desmodium incanum DC apresentou comportamento contrario, ajustando melhor os semivariogramas a tamanhos maiores das unidades amostrais.
Resumo:
Em ambientes dinâmicos e complexos, a política ótima de coordenação não pode ser derivada analiticamente, mas, deve ser aprendida através da interação direta com o ambiente. Geralmente, utiliza-se aprendizado por reforço para prover coordenação em tais ambientes. Atualmente, neuro-evolução é um dos métodos de aprendizado por reforço mais proeminentes. Em vista disto, neste trabalho, é proposto um modelo de coordenação baseado em neuro-evolução. Mais detalhadamente, desenvolveu-se uma extensão do método neuro-evolutivo conhecido como Enforced Subpopulations (ESP). Na extensão desenvolvida, a rede neural que define o comportamento de cada agente é totalmente conectada. Adicionalmente, é permitido que o algoritmo encontre, em tempo de treinamento, a quantidade de neurônios que deve estar presente na camada oculta da rede neural de cada agente. Esta alteração, além de oferecer flexibilidade na definição da topologia da rede de cada agente e diminuir o tempo necessário para treinamento, permite também a constituição de grupos de agentes heterogêneos. Um ambiente de simulação foi desenvolvido e uma série de experimentos realizados com o objetivo de avaliar o modelo proposto e identificar quais os melhores valores para os diversos parâmetros do modelo. O modelo proposto foi aplicado no domínio das tarefas de perseguição-evasão.
Resumo:
Nesse trabalho apresentamos algoritmos adaptativos do M´etodo do Res´ıduo M´ınimo Generalizado (GMRES) [Saad e Schultz, 1986], um m´etodo iterativo para resolver sistemas de equa¸c˜oes lineares com matrizes n˜ao sim´etricas e esparsas, o qual baseia-se nos m´etodos de proje¸c˜ao ortogonal sobre um subespa¸co de Krylov. O GMRES apresenta uma vers˜ao reinicializada, denotada por GMRES(m), tamb´em proposta por [Saad e Schultz, 1986], com o intuito de permitir a utiliza¸c˜ao do m´etodo para resolver grandes sistemas de n equa¸c˜oes, sendo n a dimens˜ao da matriz dos coeficientes do sistema, j´a que a vers˜ao n˜ao-reinicializada (“Full-GMRES”) apresenta um gasto de mem´oria proporcional a n2 e de n´umero de opera¸c˜oes de ponto-flutuante proporcional a n3, no pior caso. No entanto, escolher um valor apropriado para m ´e dif´ıcil, sendo m a dimens˜ao da base do subespa¸co de Krylov, visto que dependendo do valor do m podemos obter a estagna¸c˜ao ou uma r´apida convergˆencia. Dessa forma, nesse trabalho, acrescentamos ao GMRES(m) e algumas de suas variantes um crit´erio que tem por objetivo escolher, adequadamente, a dimens˜ao, m da base do subespa¸co de Krylov para o problema o qual deseja-se resolver, visando assim uma mais r´apida, e poss´ıvel, convergˆencia. Aproximadamente duas centenas de experimentos foram realizados utilizando as matrizes da Cole¸c˜ao Harwell-Boeing [MCSD/ITL/NIST, 2003], que foram utilizados para mostrar o comportamento dos algoritmos adaptativos. Foram obtidos resultados muito bons; isso poder´a ser constatado atrav´es da an´alise das tabelas e tamb´em da observa ¸c˜ao dos gr´aficos expostos ao longo desse trabalho.