142 resultados para Cargas não-lineares
Resumo:
Neste trabalho foi desenvolvida uma câmara de alta pressão com janela de safira para processamento de filmes finos com pulsos de laser de alta potência, num regime de resfriamento ultra-rápido e geometria confinada. As amostras estudadas consistiram de filmes finos de carbono amorfo depositados sobre substratos de cobre. Os processamentos foram realizados com um laser pulsado Nd:YAG com energia de até 500 mJ por pulso, com duração de 8 ns, focalizada numa região de cerca de 1,5mm2, gerando uma região de elevada temperatura na superfície da amostra durante um intervalo de tempo bastante curto, da ordem do tempo de duração do pulso do laser. Para evitar a evaporação do filme de carbono, aplicava-se através da câmara, uma pressão de 0,5 a 1,0 GPa, confinando a amostra e eliminando o efeito da ablação. Este sistema tornou possível produzir taxas de resfriamento extremamente elevadas, com supressão da formação de uma pluma durante a incidência do laser, sendo o calor dissipado rapidamente pelo contato com os substratos de cobre e safira, ambos com elevada condutividade térmica. As amostras processadas foram analisadas por micro-espectroscopia Raman e os resultados revelaram a formação de estruturas com cadeias lineares de carbono, “carbynes”, caracterizadas pela presença de um pico Raman intenso na região de 2150 cm-1. Outro conjunto de picos Raman foi observado em 996 cm-1, 1116 cm-1 e 1498 cm-1 quando o filme fino de carbono amorfo foi processado dentro da câmara, com uma seqüência de mais de três pulsos consecutivos de laser. Várias tentativas foram feitas para investigar a natureza da fase que origina estes picos. Apesar da similaridade com o espectro Raman correspondente ao poliacetileno (CnHn), não foi possível constatar evidências experimentais sobre a presença de hidrogênio nos filmes de carbono processados. Estes picos Raman não foram observados quando o filme de carbono era depositado sobre outros substratos metálicos, a não ser em cobre. O conjunto de resultados experimentais obtidos indica que estes picos estariam relacionados a pequenos aglomerados lineares de átomos de carbono, diluídos numa matriz de átomos de cobre, formados durante os pulsos subseqüentes de laser e retidos durante o resfriamento ultra-rápido da amostra. A comparação dos resultados experimentais com a simulação do espectro Raman para diferentes configurações, permite propor que estes aglomerados seriam pequenas cadeias lineares, com poucos átomos, estabilizadas frente à formação de grafenos pela presença de átomos de cobre em abundância. Foram também realizados processamentos de materiais carbonáceos por pulsos de laser em meios líquidos, através de câmaras especialmente construídas para este fim. Os resultados, em diversos materiais e configurações, mostraram apenas a formação de estruturas grafíticas, sem evidência de outras fases.
Resumo:
A resposta impulso é utilizada como ferramenta padrão no estudo direto de sistemas concentrados, discretos e distribuídos de ordem arbitrária. Esta abordagem leva ao desenvolvimento de uma plataforma unificada para a obtenção de respostas dinâmicas. Em particular, as respostas forçadas dos sistemas são decompostas na soma de uma resposta permanente e de uma resposta livre induzida pelos valores iniciais da resposta permanente. A teoria desenvolve-se de maneira geral e direta para sistemas de n-ésima ordem, introduzindo-se a base dinâmica gerada pela resposta impulso na forma padrão e normalizada, sem utilizar-se a formulação de estado, através da qual reduz-se um sistema de ordem superior para um sistema de primeira ordem. Considerou-se sistemas de primeira ordem a fim de acompanhar-se os muitos resultados apresentados na literatura através da formulação de espaço de estado. Os métodos para o cálculo da resposta impulso foram classificados em espectrais, não espectrais e numéricos. A ênfase é dada aos métodos não espectrais, pois a resposta impulso admite uma fórmula fechada que requer o uso de três equações características do tipo algébrica, diferencial e em diferenças Realizou-se simulações numéricas onde foram apresentados modelos vibratórios clássicos e não clássicos. Os sistemas considerados foram sistemas do tipo concentrado, discreto e distribuído. Os resultados da decomposição da resposta dinâmica de sistemas concentrados diante de cargas harmônicas e não harmônicas foram apresentados em detalhe. A decomposição para o caso discreto foi desenvolvida utilizando-se os esquemas de integração numérica de Adams-Basforth, Strömer e Numerov. Para sistemas distribuídos, foi considerado o modelo de Euler-Bernoulli com força axial, sujeito a entradas oscilatórias com amplitude triangular, pulso e harmônica. As soluções permanentes foram calculadas com o uso da função de Green espacial. A resposta impulso foi aproximada com o uso do método espectral.
Resumo:
O uso da mecânica de fluidos computacional no estudo de processos envolvendo o escoamento de fluidos poliméricos está cada vez mais presente nas indústrias de transformação de polímeros. Um código computacional voltado a esta função, para que possa ser aplicado com sucesso, deve levar a predições mais próximas possível da realidade (modelagem), de uma forma relativamente rápida e eficiente (simulação). Em relação à etapa de modelagem, o ponto chave é a seleção de uma equação constitutiva que represente bem as características reológicas do fluido, dentre as diversas opções existentes. Para a etapa de simulação, ou seja, a resolução numérica das equações do modelo, existem diversas metodologias encontradas na literatura, cada qual com suas vantagens e desvantagens. Neste tópico se enquadra o trabalho em questão, que propõe uma nova metodologia para a resolução das equações governantes do escoamento de fluidos viscoelásticos. Esta se baseia no método dos volumes finitos, usando o arranjo co-localizado para as variáveis do problema, e na utilização de aproximações de alta ordem para os fluxos médios lineares e não-lineares e para outros termos não lineares que surgem da discretização das equações constitutivas. Nesta metodologia, trabalha-se com os valores médios das variáveis nos volumes durante todo o processo de resolução, sendo que os valores pontuais são obtidos ao final do procedimento via deconvolução. A solução do sistema de equações não lineares, resultante da discretização das equações, é feita de forma simultânea, usando o método de Newton São mostrados então, resultados da aplicação da metodologia proposta em problemas envolvendo escoamentos de fluidos newtonianos e fluidos viscoelásticos. Para descrever o comportamento reológico destes últimos, são usadas duas equações constitutivas, que são o modelo de Oldroyd-B e o modelo de Phan-Thien-Tanner Simplificado. Por estes resultados pode-se ver que a metodologia é muito promissora, apresentando algumas vantagens frente às metodologias convencionais em volumes finitos. A implementação atual da metodologia desenvolvida está restrita a malhas uniformes e, consequentemente, soluções para problemas com geometrias complexas, que necessitam de refinamento localizado da malha, foram obtidas somente para baixos números de Weissenberg, devido a limitação do custo computacional. Esta restrição pode ser contornada, tornando o seu uso competitivo.
Resumo:
O objetivo deste trabalho é o cálculo modal da resposta impulso distribu ída de uma viga descrita pela equação de Timoshenko e das vibrações forçadas, devidas a influência de cargas externas. Os modos vibratórios foram obtidos com o uso da base dinâmica, gerada por uma resposta livre e suas derivadas. Esta resposta é caracterizada por condições iniciais impulsivas. Simulações foram realizadas para os modos, a resposta impulso distribuída e vibrações forçadas em vigas apoiadas em uma extremidade e na outra livre, fixa, deslizante ou apoiada, sujeitas a cargas oscilatórias espacialmente concentradas ou distribuídas através de pulsos.
Resumo:
Este trabalho apresenta o LIT, uma ferramenta de auxílio ao projeto de circuitos integrados analógicos que utiliza a técnica da associação trapezoidal de transistores (TAT) sobre uma matriz digital pré-difundida. A principal característica é a conversão de cada transistor simples de um circuito analógico em uma associação TAT equivalente, seguido da síntese automática do leiaute da associação séria-paralela de transistores. A ferramenta é baseada na matriz SOT (sea-of-transistors), cuja arquitetura é voltada para o projeto de circuitos digitais. A matriz é formada somente por transistores unitários de canal curto de dimensões fixas. Através da técnica TAT, entretanto, é possível criar associações série-paralelas cujo comportamento DC aproxima-se dos transistores de dimensões diferentes dos unitários. O LIT é capaz de gerar automaticamente o leiaute da matriz SOT e dos TATs, além de células analógicas básicas, como par diferencial e espelho de corrente, respeitando as regras de casamento de transistores. O cálculo dos TATs equivalentes também é realizado pela ferramenta. Ela permite a interação com o usuário no momento da escolha da melhor associação. Uma lista de possíveis associações é fornecida, cabendo ao projetista escolher a melhor. Além disso, foi incluído na ferramenta um ambiente gráfico para posicionamento das células sobre a matriz e um roteador global automático. Com isso, é possível realizar todo o fluxo de projeto de um circuito analógico com TATs dentro do mesmo ambiente, sem a necessidade de migração para outras ferramentas. Foi realizado também um estudo sobre o cálculo do TAT equivalente, sendo que dois métodos foram implementados: aproximação por resistores lineares (válida para transistores unitários de canal longo) e aproximação pelo modelo analítico da corrente de dreno através do modelo BSIM3. Três diferentes critérios para a escolha da melhor associação foram abordados e discutidos: menor diferença de corrente entre o TAT e o transistor simples, menor número de transistores unitários e menor condutância de saída. Como circuito de teste, foi realizado o projeto com TATs de um amplificador operacional de dois estágios (amplificador Miller) e a sua comparação com o mesmo projeto utilizando transistores full-custom. Os resultados demonstram que se pode obter bons resultados usando esta técnica, principalmente em termos de desempenho em freqüência. A contribuição da ferramenta LIT ao projeto de circuitos analógicos reside na redução do tempo de projeto, sendo que as tarefas mais suscetíveis a erro são automatizadas, como a geração do leiaute da matriz e das células e o roteamento global. O ambiente de projeto, totalmente gráfico, permite que mesmo projetistas analógicos menos experientes realizem projetos com rapidez e qualidade. Além disso, a ferramenta também pode ser usada para fins educacionais, já que as facilidades proporcionadas ajudam na compreensão da metodologia de projeto.
Resumo:
Este trabalho tem como objetivo desenvolver e empregar técnicas e estruturas de dados agrupadas visando paralelizar os métodos do subespaço de Krylov, fazendo-se uso de diversas ferramentas e abordagens. A partir dos resultados é feita uma análise comparativa de desemvpenho destas ferramentas e abordagens. As paralelizações aqui desenvolvidas foram projetadas para serem executadas em um arquitetura formada por um agregado de máquinas indepentes e multiprocessadas (Cluster), ou seja , são considerados o paralelismo e intra-nodos. Para auxiliar a programação paralela em clusters foram, e estão sendo, desenvolvidas diferentes ferramentas (bibliotecas) que visam a exploração dos dois níveis de paralelismo existentes neste tipo de arquitetura. Neste trabalho emprega-se diferentes bibliotecas de troca de mensagens e de criação de threads para a exploração do paralelismo inter-nodos e intra-nodos. As bibliotecas adotadas são o DECK e o MPICH e a Pthread. Um dos itens a serem analisados nestes trabalho é acomparação do desempenho obtido com essas bibliotecas.O outro item é a análise da influência no desemepnho quando quando tulizadas múltiplas threads no paralelismo em clusters multiprocessados. Os métodos paralelizados nesse trabalho são o Gradiente Conjugação (GC) e o Resíduo Mínmo Generalizado (GMRES), quepodem ser adotados, respectivamente, para solução de sistemas de equações lineares sintéticos positivos e definidos e não simétricas. Tais sistemas surgem da discretização, por exemplo, dos modelos da hidrodinâmica e do transporte de massa que estão sendo desenvolvidos no GMCPAD. A utilização desses métodos é justificada pelo fato de serem métodos iterativos, o que os torna adequados à solução de sistemas de equações esparsas e de grande porte. Na solução desses sistemas através desses métodos iterativos paralelizados faz-se necessário o particionamento do domínio do problema, o qual deve ser feito visando um bom balanceamento de carga e minimização das fronteiras entre os sub-domínios. A estrutura de dados desenvolvida para os métodos paralelizados nesse trabalho permite que eles sejam adotados para solução de sistemas de equações gerados a partir de qualquer tipo de particionamento, pois o formato de armazenamento de dados adotado supre qualquer tipo de dependência de dados. Além disso, nesse trabalho são adotadas duas estratégias de ordenação para as comunicações, estratégias essas que podem ser importantes quando se considera a portabilidade das paralelizações para máquinas interligadas por redes de interconexão com buffer de tamanho insuficiente para evitar a ocorrência de dealock. Os resultados obtidos nessa dissertação contribuem nos trabalhos do GMCPAD, pois as paralelizações são adotadas em aplicações que estão sendo desenvolvidas no grupo.
Resumo:
A paralelização de aplicaçõpes envolvendo a solução de problemas definidos sob o escopo da Dinâmica dos Fluidos Computacional normalmente é obtida via paralelismo de dados, onde o domínio da aplicação é dividido entre os diversos processadores, bem como a manutenção do balancecamento durante a execução é um problema complexo e diversas heurísticas têm sido desenvolvidas. Aplicações onde a simulação é dividida em diversas fases sobre partes diferentes do domínio acrescentam uma dificuldade maior ao particionamento, ao se buscar a distirbuição equlibrada das cargas em todas as fases. este trabalho descreve a implementação de mecanismos de particionamento e balanceamento de carga em problemas multi-fase sobre clusters de PCs. Inicialmente é apresentada a aplicação desenvolvida, um modelo de circulação e transporte de susbtâncias sobre corpos hídricos 2D e 3 D, que pode ser utilizado para modelar qualquer corpo hídrico a partir da descrição de sua geometria, batimetria e condições de contorno. Todo o desenvolvimento e testes do modelo foi feito utilizando como caso de estudo o domínio do Lago Guaíba, em Porto Alegre. Após, são descritas as principais heurísticas de particionamento de domínio de aplicações multi-fase em clusters, bem como mecanismos para balanceamento de carga para este tipo de aplicação. Ao final, é apresentada a solução proposta e desenvolvida, bem como os resultados obtidos com a mesma.
Resumo:
Este estudo teve como objetivo avaliar o efeito do grupo hidrocarboneto do doador de elétrons externo (DE), do tipo alcoxisilano, no desempenho do catalisador MgCl2.TiCl4.DI-AlEt3/DE na polimerização de propeno. Os DE testados apresentam estrutura genérica do tipo R2Si(OMe)2 e os mesmos foram avaliados com um catalisador comercial do tipo MgCl2.TiCl4.DI na polimerização de propeno em escala de laboratório. Foram empregados quatro doadores de elétrons externos, sendo um usualmente utilizado em processos industriais, o Ciclohexilmetildimetoxisilano (CHMDS). O Diciclopentildimetoxisilano (DCPDS) foi escolhido pela sua alta atividade catalítica e controle da estereoespecificidade, o 3,3,3-trifluorpropilmetildimetoxisilano (FPMDS) pela elevada sensibilidade ao hidrogênio. O quarto DE utilizado foi o Di-n-propildimetoxisilano (DPDS), sendo o mesmo escolhido pela sua elevada atividade catalítica. Os grupos hidrocarbonetos diciclopentil conferiram ao DCPDS o envenenamento seletivo dos sítios catalíticos bem como boa afinidade com o catalisador em estudo. O DCPDS propiciou elevada atividade catalítica, sendo esta em torno de 43 kg PP/g cat.2 h, bem como boa estereoespecificidade, tornando possível a produção de polipropileno com teor de solúveis em xileno da ordem de 1,7 %. O grupo hidrocarboneto 3,3,3-trifluorpropil, presente no FPMDS demonstrou favorecer a ação do hidrogênio, possibilitando a produção de polipropileno com taxa de fluidez superior em duas vezes a dos polímeros obtidos com o uso do CHMDS sob as mesmas condições de polimerização. O DPDS apresentou atividade catalítica similar a do CHMDS, ou seja de 32 kg PP/g cat.2 h, com a desvantagem de apresentar baixo controle da estereoregularidade do catalisador, indicando que os grupos hidrocarbonetos lineares n-propil presentes no DPDS não conferem boa performance a este DE Desta forma, os testes realizados ratificam as informações constantes na literatura para o DCPDS e o FPMDS, ou seja, apresentam determinadas peculiaridades e, quando estas forem requeridas, estes DE devem ser empregados em substituição ao CHMDS. Cabe salientar que o mesmo não ocorreu para o DPDS, porém, neste caso, verificou-se recentemente junto ao fornecedor deste produto que o mesmo foi produzido apenas em escala experimental devido ao seu mau desempenho. No pré-contato entre o catalisador e o cocatalisador, verificou-se que é preferível o emprego de baixas temperaturas (5°C) e pequenos tempos de pré-contato (5 min) entre ambos. Testes realizados indicaram que ao passar de 5 para 10 °C ocorre uma queda da atividade e da estereoespecificidade do catalisador. Para temperaturas de pré-contato da ordem de 10 a 35°C praticamente não houve variação da atividade catalítica, porém, observa-se uma diminuição da estereoregularidade do polipropileno. Intervalos de tempo na faixa de 15 a 120 min ocasionam uma pequena queda na atividade catalítica e os valores de taxa de fluidez deslocam-se para valores superiores. A adição de pequenas quantidades de hidrogênio possibilitou um aumento significativo da atividade catalítica. Neste caso, quando esta foi elevada de 0,004 para 0,014 % em massa (C3H6/H2) houve um acréscimo de 250 % na atividade do sistema catalítico empregado (MgCl2.TiCl4.DIBP- TEA/FPMDS).
Resumo:
O presente trabalho estima uma nova relação entre emprego e inflação para o Brasil, tendo como pano de fundo hipóteses propostas pelo arcabouço neo-keynesiano. Quatro hipóteses são testadas e sustentadas ao longo de todo o trabalho: i) os agentes não possuem racionalidade perfeita; ii) a imperfeição no processo de formação das expectativas dos agentes pode ser um fator determinante no componente inercial da inflação brasileira; iii) a inflação possui um componente inercial autônomo, que não depende de choques verificados em mercados isolados; e, iv) relações não-lineares entre inflação e desemprego são capazes de fornecer melhores explicações para o comportamento da economia nos últimos 12 anos. Enquanto as duas primeiras hipóteses são verificadas através de um modelo com mudanças markovianas, as duas últimas são testadas a partir da estimação de uma Curva de Phillips convexa, estimadas pelo Filtro de Kalman. Entretanto, mesmo fazendo uso destas estimativas, as funções de resposta da política monetária apresentam as mesmas propriedades de estimativas tradicionais para o Brasil.
Resumo:
O aumento da competitividade negocial gerou o desenvolvimento de novos métodos de gerenciamento de custos. As novas tecnologias de produção e a maior diversidade de produtos e clientes que requerem novos canais de distribuição estão direcionando as empresas a estarem mais envolvidas no aprimoramento dos seus sistema de custeio. O tradicional sistema de contabilidade gerencial está sendo reconhecido como deficiente para tomada de decisões. A alocação convencional dos custos de overhead podem gerar distorções nos custos finais. Por conseqüência, o ABC (Custeio Baseado em Atividades) surgiu como um método de custeio que melhor aloca os custos fixos indiretos, podendo contribuir para a melhoria operacional e a gestão estratégica. O ABC revela a causa dos custos, considerando a integração interfuncional dos processos e a relação causal dos direcionadores de custos com os custos das atividades e recursos. Este trabalho de pesquisa apresenta a aplicação do ABC em uma empresa transportadora rodoviária de cargas; propõe o custeio baseado em atividades como uma alternativa para identificação dos clientes mais rentáveis. O método de pesquisa adotado nesta dissertação foi a pesquisa-ação. Dentre os resultados obtidos, destaca-se a obtenção do custo unitário de coleta e de entrega de cargas, além da análise dos processos.
Resumo:
Esta dissertação apresenta a Modelagem Estocástica de Sistemas Hierárquicos de Estoques (SHEs) como um instrumento de uso gerencial, orientado para a maximização do nível de serviço oferecido aos consumidores finais e a minimização do nível global de estoques em uma cadeia de abastecimento. Tal modelagem envolve otimização de sistemas não-lineares com integrais indefinidas, normalmente tratados através de simulação, dada a impossibilidade de estabelecer uma solução analítica para o problema. Neste trabalho, diferentemente, a solução é obtida através da otimização do sistema, a partir de uma modelagem que estabelece os níveis de estoque-alvo, os pontos de reposição de estoques, os níveis de serviço oferecidos aos consumidores finais e o nível ótimo global de estoques. A sua operacionalização utiliza um aplicativo computacional, projetado e desenvolvido especificamente para este fim. Estruturas hierárquicas, quando otimizadas localmente, em cada um de seus níveis, podem apresentar resultados subótimos em nível global. Assim, não é suficiente identificar os ótimos locais para compor uma solução otimizadora para o sistema. Para resolver esse problema, a maior parte dos pesquisadores utiliza simulação. A qualidade das soluções assim obtidas geralmente é inferior à qualidade da solução obtida mediante otimização global do sistema A presente modelagem tem como objetivo gerar soluções mais qualificadas para o problema da otimização de SHEs. Nesta dissertação, as principais abordagens para otimização de SHEs são apresentadas e analisadas, com destaque para o trabalho de Rosenbaum (1981), cujos resultados, obtidos através de simulação, são comparados com os resultados deste trabalho.
Resumo:
Atualmente, a necessidade de reabilitação estrutural tem se tornado cada vez mais freqüente. Desde o advento do concreto, diversas metodologias de reabilitação estrutural vêm sendo desenvolvidas e aplicadas; e têm tornado-se cada vez mais sofisticadas. A aplicação de compósitos de fibra de carbono no reforço de estruturas de concreto armado, representa o que há de mais moderno neste importante segmento da engenharia estrutural. Apesar das inúmeras vantagens de sua aplicação, a incorporação de um material, até então estranho ao meio da engenharia estrutural convencional, tem merecido especial atenção por parte dos pesquisadores envolvidos neste segmento. Este estudo tem por objetivo, portanto, explorar as principais implicações estruturais da aplicação dos compósitos de fibra de carbono no reforço externo de vigas de concreto armado. Para tanto, tornou-se necessária a implementação de um amplo programa de investigação, fundamentalmente experimental, baseada na realização de ensaios de flexão em vigas de concreto armado, reforçadas à flexão e ao cisalhamento, com dois tipos de sistemas de reforço. De modo a permitir uma análise ampla das evidências experimentais alcançadas através da condução do programa experimental, realizou-se uma profunda revisão da literatura disponível acerca do assunto. O programa experimental foi dividido em dois grupos O primeiro, composto por 14 vigas, reforçadas à flexão e o segundo, composto por 30 vigas, reforçadas ao cisalhamento. Em ambos os grupos, empregaram-se dois tipos de sistema de reforço (laminados pré-fabricados e mantas flexíveis pré-impregnadas). O procedimento de ensaio, idealizado e implementado especialmente para a condução do programa experimental da presente tese, foi totalmente controlado por computador, conferindo, assim, maior confiabilidade aos ensaios. Em cada um dos grupos, analisaram-se, além dos modos e cargas de ruptura, deformações específicas, deslocamentos e distribuição de tensões. Finalmente, estes resultados são discutidos e avaliam-se modelos analíticos que permitam simular o comportamento destas estruturas.
Resumo:
A modelagem, a correlação e a análise de dados geofísicos e geoquímicos, aplicados para avaliar/definir a distribuição e o controle de teores de minério num espaço 3D, não são procedimentos adotados para o caso de depósitos de metais básicos e Au. Essa tese de doutorado tem o objetivo de avaliar e definir uma metodologia de modelagem, correlação e análise de dados geofísicos e geoquímicos para controle de teores de metais básicos e Au. Tal metodologia foi aplicada no Prospecto Volta Grande (Lavras do Sul, RS). A região de Lavras do Sul (RS) possui uma série de ocorrências minerais do tipo veios de quartzo com metais básicos e Au, as quais estão relacionadas com o processo de alojamento do Complexo Intrusivo Lavras do Sul. Esse complexo é uma intrusão predominantemente granítica, zonada e multifásica, cujas rochas têm filiação com as séries shoshonítica a alcalina. As ocorrências de veios estão relacionadas a zonas de alteração hidrotermal controladas por fraturas predominantemente WNW-ESE. O Prospecto Volta Grande é constituído por uma série de tais veios alojados tanto no granito intrusivo, quanto nas rochas vulcânicas e vulcanoclásticas da Formação Hilário. A metodologia desenvolvida consiste: 1) da construção de uma base de dados comum para o georreferenciamento 3D dos dados; 2) processamento estatístico e geoestatístico das variáveis de interesse (dados geofísicos e geoquímicos); 3) modelagem 3D das variáveis de interesse para definir a distribuição espacial; e 4) análise da correlação entre as variáveis para definir o controle 3D dos teores de minério por meio de métodos indiretos. Essa metodologia, na medida em que haja a possibilidade de várias fontes de informação e a possibilidade de aplicar algorítmos de lógica matemática, poderá incorporar a integração de dados num espaço 3D A aplicação de tal metodologia no Prospecto Volta Grande (Lavras do Sul, RS) permitiu verificar que os dados geofísicos e geoquímicos se adaptam mais adequadamente a uma distribuição do tipo lognormal. Além disso, a comparação múltipla das médias de resistividade aparente permitiu distinguir um controle litológico sobre os dados geofísicos. Desse modo, foram definidos os procedimentos de análise variográfica e, então, os parâmetros para a modelagem 3D dos corpos condutores em cada área de pesquisa. A adequação do suporte amostral dos dados geofísicos e geoquímicos permitiu a correlação entre essas variáveis. A análise dos diagramas de correlação revelou superposição de pulsos de mineralização com distintas cargas metálicas. A utilização de métodos indiretos para controle de teores em depósitos sulfetados do tipo veios de quartzo com Au + Cu é, portanto, uma possibilidade concreta, garantida a adequada resolução espacial dos levantamentos geofísicos.
Resumo:
Sistemas de previsão de cheias podem ser adequadamente utilizados quando o alcance é suficiente, em comparação com o tempo necessário para ações preventivas ou corretivas. Além disso, são fundamentalmente importantes a confiabilidade e a precisão das previsões. Previsões de níveis de inundação são sempre aproximações, e intervalos de confiança não são sempre aplicáveis, especialmente com graus de incerteza altos, o que produz intervalos de confiança muito grandes. Estes intervalos são problemáticos, em presença de níveis fluviais muito altos ou muito baixos. Neste estudo, previsões de níveis de cheia são efetuadas, tanto na forma numérica tradicional quanto na forma de categorias, para as quais utiliza-se um sistema especialista baseado em regras e inferências difusas. Metodologias e procedimentos computacionais para aprendizado, simulação e consulta são idealizados, e então desenvolvidos sob forma de um aplicativo (SELF – Sistema Especialista com uso de Lógica “Fuzzy”), com objetivo de pesquisa e operação. As comparações, com base nos aspectos de utilização para a previsão, de sistemas especialistas difusos e modelos empíricos lineares, revelam forte analogia, apesar das diferenças teóricas fundamentais existentes. As metodologias são aplicadas para previsão na bacia do rio Camaquã (15543 km2), para alcances entre 10 e 48 horas. Dificuldades práticas à aplicação são identificadas, resultando em soluções as quais constituem-se em avanços do conhecimento e da técnica. Previsões, tanto na forma numérica quanto categorizada são executadas com sucesso, com uso dos novos recursos. As avaliações e comparações das previsões são feitas utilizandose um novo grupo de estatísticas, derivadas das freqüências simultâneas de ocorrência de valores observados e preditos na mesma categoria, durante a simulação. Os efeitos da variação da densidade da rede são analisados, verificando-se que sistemas de previsão pluvio-hidrométrica em tempo atual são possíveis, mesmo com pequeno número de postos de aquisição de dados de chuva, para previsões sob forma de categorias difusas.
Resumo:
A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.