11 resultados para Quadrático logarítmico

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho estudamos a regularidade de fun»c~oes que minimizam funci- onais com comportamento quadr¶atico. Provamos que estes m¶³nimos locais s~ao fun»c~oes diferenci¶aveis e suas derivadas s~ao fun»c~oes de HÄolder. Al¶em disso, optimizamos o expoente de HÄolder para funcionais que satisfazem cer- tas condi»c~oes de crescimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta o método dos elementos finitos em conjunto com métodos numéricos especificos para a solução de problemas de fratura. Esta é uma poderosa ferramenta para a análise de fraturas e soluções confiáveis são obtidas para problemas complexos de Engenharia tanto no campo linear como no não-linear. O elemento finito. implementado é do tipo isoparamétrico quadrâtico da família Serendipity. Com dois graus de liberdade por nó, permite discretizar em estado plano de tensão ou deformação estruturas com geometrias bastante variadas. Para a análise linear são implementadas quatro técnicas consagradas para a avaliação do fator de intensidade de tensão no modo I de fratura: extrapolação de doslocamentos (usando malha somente com elementos convencionais e malha mesclada com elementos especiais), taxa de liberação de energia de defermação, extensão virtual da trinca e o método da integral J, descartando-se neste caso a hipótese de descarregamento. A linguagem de programação adotada é o FORTRAN 77. A entrada de dados é feita por intermédio de arquivos previamente preparados. Os resultados obtidos são confrontados com resultados experimentais e computacionais fornecidos por outros programas. Analisam-se placas, estruturas de uso na indústria e simulam-se ensaios como o corpo de prova de flexão em três pontos e o corpo de prova de tensão. compacto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho analisamos alguns processos com longa dependência sazonais, denotados por SARFIMA(0,D, 0)s, onde s é a sazonalidade. Os estudos de estimação e previsão estão baseados em simulações de Monte Carlo para diferentes tamanhos amostrais e diferentes sazonalidades. Para estimar o parâmetro D de diferenciação sazonal utilizamos os estimadores propostos por Geweke e Porter-Hudak (1983), Reisen (1994) e Fox e Taqqu (1986). Para os dois primeiros procedimentos de estimação consideramos seis diferentes maneiras de compor o número de regressores necessários na análise de regressão, com o intuito de melhor comparar seus desempenhos. Apresentamos um estudo sobre previsão h-passos à frente utilizando os processos SARFIMA(0,D, 0)s no qual analisamos o erro de previsão, as variâncias teórica e amostral, o vício, o pervício e o erro quadrático médio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A busca de maior precisão nos dados hidrológicos é de fundamental importância no sentido de minimizar as incertezas inerentes aos mesmos e, conseqüentemente, aos estudos e projetos que os têm como base. A curva-chave, ferramenta importante na conversão de dados de cota em vazão, carece de estudos no sentido de aumentar a confiabilidade na sua calibragem e principalmente na sua extrapolação inferior e superior. O objetivo deste trabalho é avaliar os métodos tradicionais de extrapolação superior da curva-chave, a saber: Stevens, Logarítmico, Manning e Velocidade-Área, além de duas variações propostas para os dois últimos (Manning Log e VxA Log). Para tal foram utilizadas 100 estações fluviométricas, a partir de uma metodologia proposta e denominada de Pseudo- Extrapolação. Nesta metodologia, suprimem-se as medições na metade superior da faixa de cotas medidas e extrapola-se a curva-chave nesta faixa utilizando-se os métodos escolhidos. As vazões geradas nesta 'extrapolação' são comparadas com as da curva-chave calibrada para o total das medições. Os resultados mostraram que a metodologia de pseudo-extrapolação proposta é uma ferramenta válida para comparação entre métodos de extrapolação, até onde as características da seção transversal na faixa extrapolada sejam semelhantes às da faixa de pseudoextrapolação. Em relação aos métodos de extrapolação avaliados verificou-se que os métodos de Stevens e Manning Log mostraram resultados ligeiramente melhores que os demais e o método Logarítmico, apesar da inconstância nos erros calculados, mostrou-se como uma opção que deve ser admitida num estudo de extrapolação de curvas-chave. Além disso, as variações propostas, Manning Log e VxA Log, apresentaram resultados que merecem uma investigação mais profunda.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma aplicação distribuída freqüentemente tem que ser especificada e implementada para executar sobre uma rede de longa distância (wide-área network-WAN), tipicamente a Internet. Neste ambiente, tais aplicações são sujeitas a defeitos do tipo colapso(falha geral num dado nó), teporização (flutuações na latência de comunicação) e omissão (perdas de mensagens). Para evitar que este defeitos gerem comseqüências indesejáveis e irreparáveis na aplicação, explora-se técnicas para tolerá-los. A abstração de detectores de defeitos não confiáveis auxilia a especificação e trato de algoritmos distribuídos utilizados em sistemas tolerantes a falhas, pois permite uma modelagem baseada na noção de estado (suspeito ou não suspeito) dos componentes (objetos, processo ou processadores) da aplicação. Para garantir terminação, os algoritmos de detecção de defeitos costumam utilizar a noção de limites de tempo de espera (timeout). Adicionalmente, para minimizar seu erro (falasas suspeitas) e não comprometer seu desempenho (tempo para detecção de um defeito), alguns detectores de defeitos ajustam dinamicamente o timeout com base em previsões do atraso de comunicação. Esta tese explora o ajuste dinâmico do timeout realizado de acordo com métodos de previsão baseados na teoria de séries temporais. Tais métodos supõem uma amostragem periódica e fornececm estimativas relativamente confiáveis do comportamento futuro da variável aleatória. Neste trabalho é especificado uma interface para transformar uma amostragem aperiódica do atraso de ida e volta de uma mensagem (rtt) numa amostragem periódica, é analisado comportamento de séries reais do rtt e a precisão dee sete preditores distintos (três baseados em séries temporais e quatrro não), e é avaliado a influência destes preditores na qualidade de serviço de um detector de defeitos do estilopull. Uma arquitetura orientada a objetos que possibilita a escolha/troca de algoritmos de previsão e de margem de segurança é também proposta. Como resultado, esta tese mostra: (i) que embora a amostragem do rtt seja aperiódica, pode-se modelá-la como sendo uma série temporal (uma amostragem periódica) aplciando uma interface de transformação; (ii) que a série temporal rtt é não estacionária na maioria dos casos de teste, contradizendo a maioria das hipóteses comumente consideradas em detectores de defeitos; (iii) que dentre sete modelos de predição, o modelo ARIMA (autoregressive integrated moving-average model) é o que oferece a melhor precisão na predição de atrasos de comunicação, em termos do erro quadrático médio: (iv) que o impacto de preditores baseados em séries temporais na qualidade de serviço do detector de defeitos não significativo em relação a modelos bem mais simples, mas varia dependendo da margem de segurança adotada; e (v) que um serviço de detecção de defeitos pode possibilitar a fácil escolha de algoritmos de previsão e de margens de segurança, pois o preditor pode ser modelado como sendo um módulo dissociado do detector.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, é estudado o controle da transmissão do som numa placa retangular e fina. Para tanto, é encontrada a resposta dinâmica da placa, excitada por forças harmônicas pontuais e piezomomentos, obtida usando uma base não-clássica e uma análise modal. A radiação sonora emitida pela vibração da placa é encontrada. A potência sonora radiada pode ser calculada aplicando controle ativo diretamente na estrutura, na forma de uma entrada vibratória, uma vez conhecida a resposta na superfície da placa, obtendo-se uma signicativa redução analitica. Os piezocerâmicos, modelados como quatro momentos pontuais, são unidos a superfície da placa como atuadores. A potência sonora transmitida antes e depois do controle é comparada, usando diferentes número de atuadores. Uma estratégia clássica de controle linear quadrático (LQR) e empregada no contexto de um procedimento de otimização da posição dos atuadores do sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A representação de funções através da utilização de bases (KERNEL) de representação tem sido fundamental no processamento digital de sinais. A Transformada KARHUNEN-LOÈVE (KLT), também conhecida como Transformada HOTELLING, permite a representação de funções utilizando funções-base formadas pelos autovetores da matriz de correlação do sinal considerado. Nesse aspecto essa transformada fornece uma base ótima, isto é, aquela que proporciona o menor valor de Erro Quadrático Médio entre o sinal reconstruído e o original, para um determinado número de coeficientes. A dificuldade na utilização da KLT está no tempo adicional para calcular os autovetores (base) da matriz de correlação, o que muitas vezes inviabiliza a sua utilização nas aplicações em tempo real. Em muitas aplicações a KLT é utilizada em conjunto com outras transformadas melhorando os resultados destas aplicações. Sendo considerada a transformada ótima no sentido do Erro Quadrático Médio, este trabalho apresenta um estudo da Transformada KARHUNEN-LOÈVE nas aplicações de compressão de imagens bidimensionais estáticas e em tons de cinza, realizando também a comparação desta técnica com outras técnicas (DCT e WAVELET) buscando avaliar os pontos fortes e fracos da utilização da KLT para este tipo de aplicação. Duas técnicas importantes para solucionar o problema de cálculo dos autovalores e autovetores da matriz de correlação (Método de JACOBI e Método QL) são também apresentadas neste trabalho. Os resultados são comparados utilizando a Razão Sinal/Ruído de Pico (PSNR), a Razão de Compressão (CR) e os tempos de processamento (em segundos) para geração dos arquivos compactados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo principal deste trabalho foi a análise da variação de alguns parâmetros físico-químicos da qualidade das águas de pequenos rios urbanos com baixas a médias densidades de ocupação populacional nas áreas de drenagem de suas bacias hidrográficas. Para isso, foram selecionadas 4 bacias hidrográficas urbanas situadas na Região Metropolitana de Porto Alegre/RS: Arroios Mãe d‘Água e Moinho apresentando média densidade populacional bruta (cerca de 70 hab/ha), Arroio Capivara apresentando baixa densidade populacional (8 hab/ha próximo às nascentes da bacia e 33 hab/ha considerando a área até próximo à sua foz), e o Arroio Agronomia que apresenta um tributário relativamente bem preservado, com ocupação urbana residual (<2 hab/ha), considerado como referencia regional para a qualidade físico-química das águas. Os resultados mostraram que a população residente nestas áreas apresenta deficiências de atendimento do ponto de vista do saneamento básico (coleta e tratamento de esgotos sanitários, coleta de lixo e abastecimento de água) impondo aos moradores o uso de tecnologias de disposição local dos seus resíduos. Como resultado, os dados mostraram uma relação direta entre a densidade populacional e a presença de esgotos não tratados nos corpos d’água, e como conseqüência, observaram-se alterações importantes em quase todas as variáveis físico-químicas escolhidas para o monitoramento da qualidade das águas, quando comparadas com a condição referencial. Entre os modelos de regressão testados (linear, potência, logarítmico, exponencial e polinomial de segundo e terceiro graus) o modelo logarítmico apresentou melhor ajuste sobre os demais, indicando a possibilidade do seu uso para 21 das 26 variáveis.A forma logarítmica indica que, a partir de uma condição natural não urbanizada, mesmo pequenas densidades populacionais são capazes de alterar significativamente a qualidade das águas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Realizou-se um experimento convencional de digestibilidade e consumo com o objetivo de avaliar o efeito do nível de inclusão de nitrogênio não protéico em suplementos fornecidos a tourinhos Hereford de 17 meses e 220 kg de peso vivo, consumindo feno de tifton (Cynodon dactylon) fornecido ad libitum. Os tratamentos avaliados foram: T1 - Feno + suplemento sem uréia; T2 - Feno + suplemento com 0,28 g de uréia/UTM; T3 - Feno + suplemento com 0,55 g de uréia/UTM; T4 - Feno + suplemento com 0,83 g de uréia/UTM e T5 - Feno + suplemento com 1,11 g de uréia/UTM. O feno apresentou, na média, 3,86% de proteína bruta e 84,66% de fibra em detergente neutro (FDN). Não foram constatados efeitos da suplementação sobre a digestibilidade da matéria orgânica, da matéria orgânica do feno, da FDN, da celulose e da hemicelulose (P>0,05). O consumo de matéria orgânica total, de matéria orgânica do feno e de FDN responderam de forma quadrática a suplementação com NNP (P<0,05). A excreção fecal metabólica de matéria orgânica não foi afetada pela suplementação sugerindo um aumento simultâneo na taxa de passagem (variação no consumo) e na taxa de digestão (digestibilidade constante). O CMO digestível apresentou comportamento quadrático com o aumento dos níveis de uréia na dieta. A relação entre o consumo de proteína degradável no rúmen (PDR) e o CMOD apresentou-se maximizada quando o nível de proteína degradável no rúmen foi equivalente a 8,1% da MOD, valor este coerente com dados encontrados na literatura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foram avaliados os efeitos de níveis crescentes de suplementação com gordura de arroz, na forma de farelo integral e óleo, em dietas isoprotéicas (19,7% de proteína bruta) e isofibrosas (30,1% de fibra em detergente neutro), sobre o consumo, produção e metabolismo de vacas leiteiras de alta produção na fase inicial da lactação. O delineamento experimental utilizado foi o quadrado latino, com quatro níveis de gordura bruta (3,5; 5,0; 6,5 e 8,0%), quatro animais e quatro períodos, com uma repetição. O comportamento do consumo de matéria seca foi quadrático, com uma redução importante somente no maior nível de suplementação. Nos demais níveis os valores foram semelhantes (25,8; 26,2; 25,9 e 24,5kg/dia, respectivamente). O mesmo comportamento foi observado para o consumo de proteína bruta. O consumo de carboidratos não fibrosos e de fibra em detergente neutro foi reduzido linearmente pela suplementação. Não houve efeito da suplementação lipídica sobre a produção de leite (33,1; 33,3; 34,0 e 33,4kg/dia, respectivamente), sobre a produção corrigida para gordura, sobre o teor de gordura, lactose, sólidos totais e sua produção diária. O teor de proteína bruta do leite diminuiu com o aumento da gordura nas dietas, mas não houve efeito sobre a produção diária de proteína. A eficiência alimentar aumentou com o aumento da inclusão de gordura nas dietas, mas não houve efeito sobre a energia do leite nem sobre a eficiência energética. A concentração de nitrogênio uréico do leite não foi influenciada pelos tratamentos, embora a de nitrogênio uréico do sangue tenha diminuído à medida que aumentou a inclusão de gordura nas dietas. Os níveis séricos de glicose e triglicerídeos não diferiram em função dos tratamentos, mas houve aumento da concentração de colesterol total com o aumento da suplementação lipídica. O custo de produção do leite foi reduzido à medida que aumentou a participação da gordura nas dietas. Essa redução ocorreu devido ao menor consumo de volumoso como efeito da gordura, apesar da inclusão de gordura de arroz nas dietas ter gerado um aumento do custo dos concentrados.