972 resultados para tamanho da semente
Resumo:
Este trabalho foi realizado dentro da área de reconhecimento automático de voz (RAV). Atualmente, a maioria dos sistemas de RAV é baseada nos modelos ocultos de Markov (HMMs) [GOM 99] [GOM 99b], quer utilizando-os exclusivamente, quer utilizando-os em conjunto com outras técnicas e constituindo sistemas híbridos. A abordagem estatística dos HMMs tem mostrado ser uma das mais poderosas ferramentas disponíveis para a modelagem acústica e temporal do sinal de voz. A melhora da taxa de reconhecimento exige algoritmos mais complexos [RAV 96]. O aumento do tamanho do vocabulário ou do número de locutores exige um processamento computacional adicional. Certas aplicações, como a verificação de locutor ou o reconhecimento de diálogo podem exigir processamento em tempo real [DOD 85] [MAM 96]. Outras aplicações tais como brinquedos ou máquinas portáveis ainda podem agregar o requisito de portabilidade, e de baixo consumo, além de um sistema fisicamente compacto. Tais necessidades exigem uma solução em hardware. O presente trabalho propõe a implementação de um sistema de RAV utilizando hardware baseado em FPGAs (Field Programmable Gate Arrays) e otimizando os algoritmos que se utilizam no RAV. Foi feito um estudo dos sistemas de RAV e das técnicas que a maioria dos sistemas utiliza em cada etapa que os conforma. Deu-se especial ênfase aos Modelos Ocultos de Markov, seus algoritmos de cálculo de probabilidades, de treinamento e de decodificação de estados, e sua aplicação nos sistemas de RAV. Foi realizado um estudo comparativo dos sistemas em hardware, produzidos por outros centros de pesquisa, identificando algumas das suas características mais relevantes. Foi implementado um modelo de software, descrito neste trabalho, utilizado para validar os algoritmos de RAV e auxiliar na especificação em hardware. Um conjunto de funções digitais implementadas em FPGA, necessárias para o desenvolvimento de sistemas de RAV é descrito. Foram realizadas algumas modificações nos algoritmos de RAV para facilitar a implementação digital dos mesmos. A conexão, entre as funções digitais projetadas, para a implementação de um sistema de reconhecimento de palavras isoladas é aqui apresentado. A implementação em FPGA da etapa de pré-processamento, que inclui a pré-ênfase, janelamento e extração de características, e a implementação da etapa de reconhecimento são apresentadas finalmente neste trabalho.
Resumo:
As cartas de controle estatístico têm sido utilizadas com sucesso no monitoramento do desempenho de processos industriais. Diversas modificações nas cartas tradicionais de Shewhart vêm sendo propostas na literatura. Tais modificações visam adaptar as cartas de controle ao monitoramento de processos com características especiais; entre elas, destacam-se as cartas de controle adaptativas. As cartas são ditas adaptativas quando pelo menos um de seus parâmetros (tamanho de amostra, intervalo de amostragem e coeficiente dos limites de controle) pode variar durante o monitoramento do processo. A determinação dos valores dos parâmetros das cartas de controle pode considerar aspectos estatísticos, econômicos ou uma combinação de ambos. Os modelos estatístico-econômicos consideram, além de indicadores de desempenho estatístico, os custos associados ao controle. A implementação de cartas adaptativas baseadas neste tipo de modelo, devido a sua complexidade, é melhor conduzida por meio de uma metodologia de planejamento. Neste trabalho, após uma revisão da literatura sobre cartas tradicionais e adaptativas, incluindo o projeto econômico das mesmas, propõe-se uma metodologia para o planejamento da implementação de cartas adaptativas de controle para monitorar processos onde cartas de controle tradicionais estão sendo utilizadas A metodologia é composta de cinco passos gerais, detalhados na dissertação, e foi elaborada a partir de um estudo de caso em uma indústria do setor automotivo, no qual se utilizou um modelo estatístico-econômico. No estudo de caso, o significado e a forma de determinação dos parâmetros do modelo econômico são detalhados. Os resultados do estudo de caso são comparados quanto aos custos operacionais para as cartas adaptativas e tradicionais de controle de processo. Os resultados obtidos indicaram ser preferível o uso de cartas adaptativas ao uso de cartas tradicionais para monitorar o processo estudado, principalmente no caso de pequenas variações na média da característica de qualidade monitorada. Embora de natureza genérica, a metodologia proposta pode ser facilmente adaptada para contemplar diferentes aplicações industriais.
Resumo:
Este trabalho tem como objetivo desenvolver e empregar técnicas e estruturas de dados agrupadas visando paralelizar os métodos do subespaço de Krylov, fazendo-se uso de diversas ferramentas e abordagens. A partir dos resultados é feita uma análise comparativa de desemvpenho destas ferramentas e abordagens. As paralelizações aqui desenvolvidas foram projetadas para serem executadas em um arquitetura formada por um agregado de máquinas indepentes e multiprocessadas (Cluster), ou seja , são considerados o paralelismo e intra-nodos. Para auxiliar a programação paralela em clusters foram, e estão sendo, desenvolvidas diferentes ferramentas (bibliotecas) que visam a exploração dos dois níveis de paralelismo existentes neste tipo de arquitetura. Neste trabalho emprega-se diferentes bibliotecas de troca de mensagens e de criação de threads para a exploração do paralelismo inter-nodos e intra-nodos. As bibliotecas adotadas são o DECK e o MPICH e a Pthread. Um dos itens a serem analisados nestes trabalho é acomparação do desempenho obtido com essas bibliotecas.O outro item é a análise da influência no desemepnho quando quando tulizadas múltiplas threads no paralelismo em clusters multiprocessados. Os métodos paralelizados nesse trabalho são o Gradiente Conjugação (GC) e o Resíduo Mínmo Generalizado (GMRES), quepodem ser adotados, respectivamente, para solução de sistemas de equações lineares sintéticos positivos e definidos e não simétricas. Tais sistemas surgem da discretização, por exemplo, dos modelos da hidrodinâmica e do transporte de massa que estão sendo desenvolvidos no GMCPAD. A utilização desses métodos é justificada pelo fato de serem métodos iterativos, o que os torna adequados à solução de sistemas de equações esparsas e de grande porte. Na solução desses sistemas através desses métodos iterativos paralelizados faz-se necessário o particionamento do domínio do problema, o qual deve ser feito visando um bom balanceamento de carga e minimização das fronteiras entre os sub-domínios. A estrutura de dados desenvolvida para os métodos paralelizados nesse trabalho permite que eles sejam adotados para solução de sistemas de equações gerados a partir de qualquer tipo de particionamento, pois o formato de armazenamento de dados adotado supre qualquer tipo de dependência de dados. Além disso, nesse trabalho são adotadas duas estratégias de ordenação para as comunicações, estratégias essas que podem ser importantes quando se considera a portabilidade das paralelizações para máquinas interligadas por redes de interconexão com buffer de tamanho insuficiente para evitar a ocorrência de dealock. Os resultados obtidos nessa dissertação contribuem nos trabalhos do GMCPAD, pois as paralelizações são adotadas em aplicações que estão sendo desenvolvidas no grupo.
Resumo:
A busca de uma maior competitividade tem levado a indústria a utilizar temperaturas de cementação cada vez mais elevadas. Este aumento na temperatura permite uma significativa diminuição dos tempos de tratamentos, porém pode levar a um aumento generalizado ou anormal do tamanho de grão austenítico bastante deletério as propriedades mecânicas do material. A utilização de elementos formadores de precipitados é uma alternativa para minimizar este problema. Neste trabalho foi estudado um aço SAE 5115 com adição de 0,038% em peso nióbio para ancoramento de grão. Para este estudo foi simulado um tratamento térmico de cementação em temperaturas mais elevadas, como 1000 e 1050°C, por duas horas, partindo-se de duas condições, bruto de laminação e esferoidizado. A técnica de microscopia eletrônica de transmissão (MET) foi empregada para caracterizar os precipitados, bem como avaliar sua contribuição no ancoramento do grão. A caracterização dos precipitados quanto sua composição, morfologia, tamanho e distribuição, foi realizada analisando-se amostras preparadas por extração de réplicas em filme de carbono e por lâminas finas pelo método de polimento plano no “Tripod Polisher”. Sendo que este último, convencionalmente não utilizado em aço, possibilita a obtenção de amostras com extensa área fina para observação no MET, além de facilitar a análise por minimizar o efeito de desvio de feixe em amostras magnéticas. Os resultados das análises comprovam a precipitação de partículas complexas de Nb e que a forma de distribuição, bem como o percentual de tamanho dos precipitados é de suma importância para o ancoramento do grão. Verificou-se uma tendência maior para o aparecimento de grão anormal nas amostras que sofreram o processo de esferoidização.
Resumo:
As redes de computadores experimentam um grande crescimento não apenas em tamanho, mas também no número de serviços oferecidos e no número de protocolos de alto nível e aplicações que são executados sobre elas. Boa parte desses software (ex.: ICQ e Napster), em geral, não está diretamente ligada a aplicações críticas, mas o seu uso não controlado pode degradar o desempenho da rede. Para que se possa medir o impacto dos mesmos sobre a infra-estrutura, mecanismos de gerência ligados à contabilização e caracterização de tráfego são desejáveis. Por outro lado, alguns protocolos, serviços e aplicações (ex. servidores DNS e Web) suportam aplicações e precisam ser monitorados e gerenciados com maior atenção. Para essa classe de software de rede, a simples contabilização e caracterização de tráfego não é suficiente; tarefas de gerência como teste de serviços, detecção e manipulação de falhas, medição de desempenho e detecção de intrusão são importantes para garantir alta disponibilidade e eficiência da rede e aplicações. As ferramentas existentes para essa finalidade são, entre aspectos, (a) não integradas (necessidade de uma ferramenta para monitorar cada aplicação), (b) centralizadas (não oferecem suporte à distribuição de tarefas de gerenciamento) e (c) pouco flexíveis (dificuldade em gerenciar novos protocolos, serviços e aplicações). Nesse contexto, a tese propõe uma arquitetura, centrada na monitoração passiva em temporal do tráfego de rede, para gerenciamento distribuído de protocolos de alto nível, serviços e aplicações em rede. Baseada da MIB (Management Information Base) Script do IETF (Internet Engineering Task Force), a arquitetura Trace oferece mecanismos para a delegação de tarefas de gerenciamento a gerentes intermediários, que interagem com agentes de monitoração e agentes de ação para executá-las. A tese propõe também PTSL (Protocol Trace Specification Language), uma linguagem gráfica/textual criada para permitir que gerentes de rede especificam as interações de protocolos (traços) que lhes interessam monitorar. As especificações são usadas pelso gerentes intermediários para programar os agentes de monitoração. Uma vez programadas, esses agentes passam a monitorar a ocorrência dos traços.As informações obtidas são analisadas pelos agentes intermediários, que podem requisitar de ação a execução de procedimentos (ex: scripts Perl), possibilitando a automação de diversas tarefas de gerenciamento. A arquitetura proposta é validada por um protótipo: a plataforma de gerenciamento Trace.
Resumo:
A extrusão reativa do polietileno de alta densidade (PEAD) em presença de peróxidos orgânicos pode promover sua reticulação, provocando mudanças em suas propriedades. Isto deve-se à capacidade do peróxido orgânico de abstrair hidrogênios secundários e terciários da cadeia, podendo assim formar os radicais livres necessários à ocorrência da reticulação. Neste trabalho, amostras de pó de PEAD produzido com catalisador Ziegler-Natta, para utilização em processamento por injeção, sopro ou extrusão de filmes, foram extrusadas com o peróxido de dicumila e o 2,5-dimetil-2,5-di(t-butilperoxi)-hexano em teores de 0,001 a 0,08 pcp. Os produtos obtidos foram caracterizados quanto a suas taxas de fluidez (MFR), densidades, propriedades reológicas, físicas e mecânicas. Para a avaliação reológica foram analisadas as curvas de viscosidade em função da taxa de cisalhamento e determinadas as taxas de cisalhamento críticas, ambas no reômetro capilar. O comportamento viscoelástico foi avaliado pelos módulos de armazenamento e de perda e pela viscosidade complexa. A massa molar e sua distribuição foram determinadas por cromatografia de exclusão por tamanho (SEC). O percentual de reticulação foi verificado pela determinação do teor de material de solúveis em xileno. As propriedades mecânicas analisadas foram resistência à tração, à flexão, ao tensofissuramento e módulo de elasticidade. As propriedades analisadas foram relacionadas às estruturas dos produtos resultantes da extrusão reativa. Verificou-se que a extrusão reativa do PEAD com peróxidos orgânicos originou resinas com distribuição de massas molares mais larga, caráter mais pseudoplástico e com comportamento do fundido mais elástico do que as resinas não modificadas por peróxido. A reologia, dentre as técnicas analíticas utilizadas, apresentou maior sensibilidade às mudanças estruturais decorrentes da extrusão reativa. A extrusão reativa com peróxidos originou resinas com propriedades mecânicas diferenciadas, havendo incremento na resistência ao impacto Charpy e ao tensofissuramento e diminuição no módulo de elasticidade comparativamente às resinas não modificadas. A resistência à tração não apresentou variações significativas entre as resinas modificadas e as não modificadas. O peróxido que se mostrou mais eficiente na extrusão reativa foi o 2,5-dimetil-2,5-di(t-butilperoxi)-hexano.
Resumo:
A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.
Resumo:
O objetivo deste trabalho é a simulação numérica de escoamentos incompressíveis bidimensionais em dutos com expansão brusca, considerando o raio de expansão de 3 : 1. As equações governantes implementadas são as de Navier, que junto com relações constitutivas para a tensão visam representar comportamentos não newtonianos. A integração temporal é feita usando o esquema explícito de Runge-Kutta com três estágios e de segunda ordem; as derivadas espaciais são aproximadas pelo método de diferenças finitas centrais. Escoamentos em expansões bruscas para fluidos newtonianos apresentam um número de Reynolds crítico, dependente do raio de expansão, na qual três soluções passam a ser encontradas: uma solução sim étrica instável e duas soluções assimétricas rebatidas estáveis. Aumentando o número de Reynolds, a solução passa a ser tridimensional e dependente do tempo. Dessa forma, o objetivo é encontrar as diferenças que ocorrem no comportamento do fluxo quando o fluido utilizado possui características não newtonianas. As relações constitutivas empregadas pertencem à classe de fluidos newtonianos generalizados: power-law, Bingham e Herschel-Bulkley. Esses modelos prevêem comportamentos pseudoplásticos e dilatantes, plásticos e viscoplásticos, respectivamente. Os resultados numéricos mostram diferenças entre as soluções newtonianas e não newtonianas para Reynolds variando de 30 a 300. Os valores de Reynolds críticos para o modelo power-law não apresentaram grandes diferenças em comparação com os da solução newtoniana. Algumas variações foram percebidas nos perfis de velocidade. Entretanto, os resultados obtidos com os modelos de Bingham e Herschel-Bulkley apresentaram diferenças significativas quando comparados com os newtonianos com o aumento do parâmetro adimensional Bingham; à medida que Bingham é aumentado, o tamanho dos vórtices diminui. Além disso, os perfis de velocidade apresentam diferenças relevantes, uma vez que o fluxo possui regiões onde o fluido se comporta como sólido.
Resumo:
O cultivo de citros no Brasil tem sido assolado por diversos problemas, como pragas e doenças; entre as últimas, uma das mais importantes e que tem chegado a limitar a cultura, está a pinta preta, causada por Guignardia citricarpa Kiely; que provoca diminuição do tamanho dos frutos, manchas na casca e queda precoce. É de vital importância conhecer a epidemiologia desta doença nas condições locais, para tentativa de controle mais eficiente, principalmente em pomares sob manejo orgânico, nos quais não são utilizados insumos químicos industriais. Com este trabalho, objetivou-se identificar e comparar a incidência e a severidade da doença dentro e entre pomares da bergamoteira ‘Montenegrina’ (Citrus deliciosa Tenore) e tangor ‘Murcott’ (C. reticulata Blanco x C. sinensis Osbeck), a relação entre a severidade e a queda precoce dos frutos; a variação na produção de esporos e a relação de todos estes, com fatores climáticos. Os dados foram coletados entre agosto de 2001 e setembro de 2002, no município de Montenegro, RS, através da contagem direta de todos os frutos das plantas amostradas e, em laboratório, contou-se o número de lesões e seus diâmetros por fruto. Os índices de incidência e severidade da doença foram confrontados com fatores meteorológicos, avaliando-se as implicações no aumento da doença e na queda de frutos. O início dos sintomas deu-se em fevereiro para Murcott e, em março para Montenegrina, agravando-se progressivamente, atingindo valores máximos próximo à colheita. A análise estatística dos dados obtidos mostrou que o número de lesões difere dentro e entre cultivares, mas seus tamanhos parecem ser independentes. A severidade foi relacionada à queda de frutos em Montenegrina, mas não ocorrendo o mesmo em Murcott. Os resultados não evidenciaram influências da umidade relativa do ar, mas temperaturas médias e precipitação pareceram ter relação com o aumento da incidência e da severidade para ambas as cultivares.
Resumo:
São apresentados os aspectos teóricos, práticos e bibliográficos envolvidos no desenvolvimento da tese de doutorado intitulada Modificação estrutural de bentonitas nacionais: caracterização e estudos de adsorção. O trabalho consistiu no desenvolvimento de um material adsorvente a partir de bentonitas, do tipo montmorilonitas, modificadas estruturalmente com o objetivo de aumentar sua capacidade de adsorção de poluentes, orgânicos e inorgânicos. O estudo visa incrementar o valor agregado deste recurso mineral e insere-se na área de tratamento de efluentes líquidos usando adsorventes não tradicionais, eficientes e de baixo custo em substituição ao carvão ativado ou às resinas de troca iônica. Foram estudadas as propriedades físicas e químicas; distribuição de tamanho de partículas, área superficial, potenciais eletrocinéticos, capacidade de troca catiônica, composição mineralógica, morfologia superficial e espaçamento basal, bem como as propriedades adsorptivas dos argilominerais não tratados e modificados, não modificadas e pilarizadas respectivamente. Também são discutidos os mecanismos de adsorção envolvidos e o desenvolvimento de um reator contínuo (adsorção em flocos) e de separação sólido/líquido. As modificações estruturais dos argilominerais foram realizadas via homoionização com cloreto de cálcio e posterior intercalação com compostos orgânicos com ação quelante de metais. A FENAN, bentonita obtida pela intercalação com Orto Fenantrolina (OF), foi a que apresentou melhor viabilidade técnica em termos de adsorção, adsorção/dessorção, floculação e de acumulação de poluentes na forma floculada e não floculada. Adicionalmente os estudos de reversibilidade da intercalação revelaram a alta estabilidade da OF na FENAN, em soluções fortemente ácidas, onde aproximadamente 90% da OF permanece ligada à superfície da argila. A quantidade de OF adsorvida na forma de unidades micelares foi de 112 mg por grama de bentonita a pH 8,5 ± 0,5. A caracterização das bentonitas, via difração de Raios X, análise térmica, microscopia eletrônica de varredura e por microscopia de força atômica, revelou que as FENAN possuem um comportamento estrutural muito estável ao longo da seqüência de adsorção/dessorção e que após a adsorção de poluentes inorgânicos, o quelato metálico formado apresenta alta estabilidade dentro da estrutura da organobentonita. A capacidade de acumulação alcançada nas FENAN foi de 110 mg de Cu/g de bentonita, valor superior à de diversos materiais adsorventes alternativos propostos em outros trabalhos similares. Os estudos de acumulação das FENAN floculadas – FENANFLOC, indicaram que a presença de floculante, na quantidade utilizada, não afeta significativamente a capacidade de remoção das bentonitas modificadas. Este comportamento apresentado, permitiu o desenvolvimento do Reator Expandido de Flocos Adsorventes (REFA), cujas características e parâmetros operacionais são discutidos em detalhe. Finalmente, os resultados são discutidos em termos dos fenômenos interfaciais envolvidos e dos potenciais práticos deste novo adsorvente e da nova técnica de adsorção em flocos no REFA.
Resumo:
Novas centrais térmicas utilizam carvão ROM (Run of mine) na sua alimentação. Sem o processamento do minério as flutuações de qualidade do carvão serão transferidas da mina para o consumidor final. Freqüentemente, contratos entre produtor-consumidor estabelecem limites pré-estabelecidos de parâmetros geológicos e tecnológicos como enxofre, cinzas e poder calorífico. Lotes de minério com qualidade fora dos limites estabelecidos podem ser rejeitados ou penalizados. O custo elevado dessas penalizações recomenda a homogeneização do minério ROM. As principais estratégias de homogeneização são as baseadas em técnicas geoestatísticas, as pilhas de homogeneização e as usinas de beneficiamento ou metalúrgicas. A estratégia de homogeneização baseada em técnicas geoestatísticas apresenta os menores custos de implementação, no entanto o conhecimento do depósito deverá ser fundamental. Tradicionalmente, essa estratégia de homogeneização utiliza um modelo de blocos gerado por um estimador tradicional, geralmente krigagem ordinária. A estimativa dos blocos por krigagem não considera a incerteza associada ao modelo geológico, não sendo adequada para prever flutuações locais Diferente da krigagem, os métodos de simulação geoestatística têm como objetivo reproduzir a variabilidade in situ e a continuidade espacial dos dados originais. Uma vez que os teores e sua variabilidade são estimados, flutuações da qualidade do minério podem ser previstas para determinada rota de lavra e certo tamanho de lote entregue ao consumidor. Diferentes tamanhos de lote são testados a fim de obter-se o controle das flutuações da qualidade do minério. Este trabalho apresenta um procedimento para acessar a variabilidade dos teores e predizer a sua flutuabilidade para diferentes tamanhos de lote em um estudo de mineração subterrânea de carvão no sul do Brasil. Simulação geoestatística e planejamento de lavra apropriado proporcionam uma solução para o problema de homogeneização de minérios.
Resumo:
Este trabalho apresenta simulações físicas de correntes de densidade não conservativas em canal bidimensional e tridimensional. Primeiramente, foram desenvolvidas a seleção e caracterização de materiais granulares, bem como a classificação de tamanhos de grãos adequados capazes de simular tais correntes. Foram desenvolvidas também, metodologias de ensaios, abordando os detalhes como a preparação de materiais, equipamentos e instalações. Como resultados foram selecionados cinco materiais para as simulações, a areia (0,125mm a 0,063mm); os calcários B e C (0,125mm a 0,063mm) e os carvões 205 e carvão 207 (0,354mm a 0,063mm). Através de ensaios por fluxo contínuo de material, caracterizado por uma injeção de mistura durante um período de tempo, foram estudados as características geométricas, dinâmicas e os padrões de deposição destas correntes. Nestes ensaios foram variados o material granular e seu tamanho de grão utilizado na mistura e a concentração da mistura. Observou-se que: a velocidade da corrente aumenta à medida que a massa específica/concentração da mistura aumenta; que à medida que o tamanho do grão diminui, para um mesmo material com a mesma massa específica na mistura, a velocidade aumenta; a altura da cabeça da corrente aumenta à medida que a massa específica/concentração da mistura diminui; a distribuição dos volumes de depósitos apresentou uma tendência geral, com acúmulo de material, da ordem de 90%, nas regiões mais proximais do canal (0-75cm) e acúmulo de material, da ordem de 5%, canal nas regiões mais distais do canal (150-250cm). A distribuição dos grãos indica que o tamanho dos grãos vai diminuindo com a distância, estando as frações maiores (correspondentes a areia fina) presentes nas zonas mais proximais do canal (até 50cm) e com os grãos mais finos chegando até as regiões mais distais do canal (250cm). Foi avaliada, também, a influência da vazão inicial e do volume total de material sobre o desenvolvimento e depósitos das correntes de densidade não conservativas. As características medidas foram a evolução e as velocidades da corrente, além da espessura, granulometria e formas de fundo dos depósitos gerados. Como resultados foi verificado que a velocidade de avanço, espessuras, formas de fundo e distribuição granulométricas do material estão intimamente mais ligada à vazão de entrada do que ao volume total. Nota-se que, a vazão condiciona a tendência geral da evolução da corrente (padrão de variação da velocidade e da deposição) e as formas de fundo, enquanto que o volume de material injetado é responsável apenas pela magnitude dessas variações.
Resumo:
A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.
Resumo:
O presente trabalho tem como objetivo determinar a pressão de colapso de tubos API 5L X56 de parede fina com trincas longitudinais internas e externas submetidas a pressão interna. Foi utilizado o método R6 conforme a norma BS7910:1999 e a Análise por Elementos Finitos. Foram feitos ensaios de tração e de caracterização da tenacidade do material utilizado por integral J, assim como o modelamento por Elementos Finitos do tubo e a aplicação dos “Failure Assessment Diagram” FAD para determinar a pressão de colapso. Verificou-se que para trincas internas a pressão de colapso é levemente maior que em trincas externas. Isto é mais acentuado para trincas com uma profundidade maior que a metade da parede do tubo. As predições da pressão de colapso em função do tamanho da trinca do método R6 em comparação com alguns resultados experimentais mostraram uma precisão satisfatória, porem em alguns casos não conservadora.
Resumo:
A matéria orgânica do solo (MOS) constitui importante componente dos solos de regiões tropicais e subtropicais, tendo papel importante em suas propriedades químicas e físicas. Com objetivo de avaliar as características da MOS em Latossolos brasileiros sob vegetação nativa e sua relação com a profundidade e com as características mineralógicas e texturais dos solos, foram realizados dois estudos. No primeiro estudo foi investigou-se o efeito do tratamento com solução de HF 10% na resolução espectral de RMN 13C e na qualidade da MOS em amostras de horizontes A e B de quatro Latossolos brasileiros. Os sucessivos tratamentos com HF melhoraram a resolução espectral em ambos os horizontes. As perdas de C ao longo dos tratamentos foram da ordem de 39 a 48% no horizonte A e 71 a 85% no horizonte B, porém não foram seletivas para nenhum dos grupos funcionais determinados por RMN 13C. No segundo estudo, amostras do horizonte A de oito Latossolos, sendo seis do Rio Grande do Sul sob vegetação de campo nativo, um do Distrito Federal sob vegetação de cerrado e um do Amazonas sob vegetação de floresta tropical foram submetidas ao fracionamento físico da MOS As frações obtidas foram analisadas por análise elementar e espectroscopia de RMN 13C CP/MAS. Microagregados de argila contendo óxidos de ferro, resistiram à dispersão de ultrassom a 450J mL-1. A proporção dos grupos C-O-alquil aumentou com a diminuição do tamanho de partícula e a razão C alquil/ C-O-alquil diminuiu, evidenciando o mecanismo de proteção da MOS devido à interação com a superfície dos minerais. Este comportamento foi mais acentuado nos solos argilosos do Rio Grande do Sul. A variação dos grupos funcionais da MOS em função do tamanho de partícula foi diferenciada entre os solos estudados, indicando que a comparação direta da qualidade e dinâmica da MOS em diferentes ambientes é limitada.