434 resultados para Quadrático logarítmico
Resumo:
Tese apresentada ao Programa de Pós-Graduação em Administração da Universidade Municipal de São Caetano do Sul para obtenção do título de Doutora em Administração
Resumo:
Este trabalho apresenta o método dos elementos finitos em conjunto com métodos numéricos especificos para a solução de problemas de fratura. Esta é uma poderosa ferramenta para a análise de fraturas e soluções confiáveis são obtidas para problemas complexos de Engenharia tanto no campo linear como no não-linear. O elemento finito. implementado é do tipo isoparamétrico quadrâtico da família Serendipity. Com dois graus de liberdade por nó, permite discretizar em estado plano de tensão ou deformação estruturas com geometrias bastante variadas. Para a análise linear são implementadas quatro técnicas consagradas para a avaliação do fator de intensidade de tensão no modo I de fratura: extrapolação de doslocamentos (usando malha somente com elementos convencionais e malha mesclada com elementos especiais), taxa de liberação de energia de defermação, extensão virtual da trinca e o método da integral J, descartando-se neste caso a hipótese de descarregamento. A linguagem de programação adotada é o FORTRAN 77. A entrada de dados é feita por intermédio de arquivos previamente preparados. Os resultados obtidos são confrontados com resultados experimentais e computacionais fornecidos por outros programas. Analisam-se placas, estruturas de uso na indústria e simulam-se ensaios como o corpo de prova de flexão em três pontos e o corpo de prova de tensão. compacto.
Resumo:
Neste trabalho analisamos alguns processos com longa dependência sazonais, denotados por SARFIMA(0,D, 0)s, onde s é a sazonalidade. Os estudos de estimação e previsão estão baseados em simulações de Monte Carlo para diferentes tamanhos amostrais e diferentes sazonalidades. Para estimar o parâmetro D de diferenciação sazonal utilizamos os estimadores propostos por Geweke e Porter-Hudak (1983), Reisen (1994) e Fox e Taqqu (1986). Para os dois primeiros procedimentos de estimação consideramos seis diferentes maneiras de compor o número de regressores necessários na análise de regressão, com o intuito de melhor comparar seus desempenhos. Apresentamos um estudo sobre previsão h-passos à frente utilizando os processos SARFIMA(0,D, 0)s no qual analisamos o erro de previsão, as variâncias teórica e amostral, o vício, o pervício e o erro quadrático médio.
Resumo:
A busca de maior precisão nos dados hidrológicos é de fundamental importância no sentido de minimizar as incertezas inerentes aos mesmos e, conseqüentemente, aos estudos e projetos que os têm como base. A curva-chave, ferramenta importante na conversão de dados de cota em vazão, carece de estudos no sentido de aumentar a confiabilidade na sua calibragem e principalmente na sua extrapolação inferior e superior. O objetivo deste trabalho é avaliar os métodos tradicionais de extrapolação superior da curva-chave, a saber: Stevens, Logarítmico, Manning e Velocidade-Área, além de duas variações propostas para os dois últimos (Manning Log e VxA Log). Para tal foram utilizadas 100 estações fluviométricas, a partir de uma metodologia proposta e denominada de Pseudo- Extrapolação. Nesta metodologia, suprimem-se as medições na metade superior da faixa de cotas medidas e extrapola-se a curva-chave nesta faixa utilizando-se os métodos escolhidos. As vazões geradas nesta 'extrapolação' são comparadas com as da curva-chave calibrada para o total das medições. Os resultados mostraram que a metodologia de pseudo-extrapolação proposta é uma ferramenta válida para comparação entre métodos de extrapolação, até onde as características da seção transversal na faixa extrapolada sejam semelhantes às da faixa de pseudoextrapolação. Em relação aos métodos de extrapolação avaliados verificou-se que os métodos de Stevens e Manning Log mostraram resultados ligeiramente melhores que os demais e o método Logarítmico, apesar da inconstância nos erros calculados, mostrou-se como uma opção que deve ser admitida num estudo de extrapolação de curvas-chave. Além disso, as variações propostas, Manning Log e VxA Log, apresentaram resultados que merecem uma investigação mais profunda.
Resumo:
Uma aplicação distribuída freqüentemente tem que ser especificada e implementada para executar sobre uma rede de longa distância (wide-área network-WAN), tipicamente a Internet. Neste ambiente, tais aplicações são sujeitas a defeitos do tipo colapso(falha geral num dado nó), teporização (flutuações na latência de comunicação) e omissão (perdas de mensagens). Para evitar que este defeitos gerem comseqüências indesejáveis e irreparáveis na aplicação, explora-se técnicas para tolerá-los. A abstração de detectores de defeitos não confiáveis auxilia a especificação e trato de algoritmos distribuídos utilizados em sistemas tolerantes a falhas, pois permite uma modelagem baseada na noção de estado (suspeito ou não suspeito) dos componentes (objetos, processo ou processadores) da aplicação. Para garantir terminação, os algoritmos de detecção de defeitos costumam utilizar a noção de limites de tempo de espera (timeout). Adicionalmente, para minimizar seu erro (falasas suspeitas) e não comprometer seu desempenho (tempo para detecção de um defeito), alguns detectores de defeitos ajustam dinamicamente o timeout com base em previsões do atraso de comunicação. Esta tese explora o ajuste dinâmico do timeout realizado de acordo com métodos de previsão baseados na teoria de séries temporais. Tais métodos supõem uma amostragem periódica e fornececm estimativas relativamente confiáveis do comportamento futuro da variável aleatória. Neste trabalho é especificado uma interface para transformar uma amostragem aperiódica do atraso de ida e volta de uma mensagem (rtt) numa amostragem periódica, é analisado comportamento de séries reais do rtt e a precisão dee sete preditores distintos (três baseados em séries temporais e quatrro não), e é avaliado a influência destes preditores na qualidade de serviço de um detector de defeitos do estilopull. Uma arquitetura orientada a objetos que possibilita a escolha/troca de algoritmos de previsão e de margem de segurança é também proposta. Como resultado, esta tese mostra: (i) que embora a amostragem do rtt seja aperiódica, pode-se modelá-la como sendo uma série temporal (uma amostragem periódica) aplciando uma interface de transformação; (ii) que a série temporal rtt é não estacionária na maioria dos casos de teste, contradizendo a maioria das hipóteses comumente consideradas em detectores de defeitos; (iii) que dentre sete modelos de predição, o modelo ARIMA (autoregressive integrated moving-average model) é o que oferece a melhor precisão na predição de atrasos de comunicação, em termos do erro quadrático médio: (iv) que o impacto de preditores baseados em séries temporais na qualidade de serviço do detector de defeitos não significativo em relação a modelos bem mais simples, mas varia dependendo da margem de segurança adotada; e (v) que um serviço de detecção de defeitos pode possibilitar a fácil escolha de algoritmos de previsão e de margens de segurança, pois o preditor pode ser modelado como sendo um módulo dissociado do detector.
Resumo:
Neste trabalho, é estudado o controle da transmissão do som numa placa retangular e fina. Para tanto, é encontrada a resposta dinâmica da placa, excitada por forças harmônicas pontuais e piezomomentos, obtida usando uma base não-clássica e uma análise modal. A radiação sonora emitida pela vibração da placa é encontrada. A potência sonora radiada pode ser calculada aplicando controle ativo diretamente na estrutura, na forma de uma entrada vibratória, uma vez conhecida a resposta na superfície da placa, obtendo-se uma signicativa redução analitica. Os piezocerâmicos, modelados como quatro momentos pontuais, são unidos a superfície da placa como atuadores. A potência sonora transmitida antes e depois do controle é comparada, usando diferentes número de atuadores. Uma estratégia clássica de controle linear quadrático (LQR) e empregada no contexto de um procedimento de otimização da posição dos atuadores do sistema.
Resumo:
A representação de funções através da utilização de bases (KERNEL) de representação tem sido fundamental no processamento digital de sinais. A Transformada KARHUNEN-LOÈVE (KLT), também conhecida como Transformada HOTELLING, permite a representação de funções utilizando funções-base formadas pelos autovetores da matriz de correlação do sinal considerado. Nesse aspecto essa transformada fornece uma base ótima, isto é, aquela que proporciona o menor valor de Erro Quadrático Médio entre o sinal reconstruído e o original, para um determinado número de coeficientes. A dificuldade na utilização da KLT está no tempo adicional para calcular os autovetores (base) da matriz de correlação, o que muitas vezes inviabiliza a sua utilização nas aplicações em tempo real. Em muitas aplicações a KLT é utilizada em conjunto com outras transformadas melhorando os resultados destas aplicações. Sendo considerada a transformada ótima no sentido do Erro Quadrático Médio, este trabalho apresenta um estudo da Transformada KARHUNEN-LOÈVE nas aplicações de compressão de imagens bidimensionais estáticas e em tons de cinza, realizando também a comparação desta técnica com outras técnicas (DCT e WAVELET) buscando avaliar os pontos fortes e fracos da utilização da KLT para este tipo de aplicação. Duas técnicas importantes para solucionar o problema de cálculo dos autovalores e autovetores da matriz de correlação (Método de JACOBI e Método QL) são também apresentadas neste trabalho. Os resultados são comparados utilizando a Razão Sinal/Ruído de Pico (PSNR), a Razão de Compressão (CR) e os tempos de processamento (em segundos) para geração dos arquivos compactados.
Resumo:
O objetivo da dissertação foi obter um modelo de previsão para os preços dos imóveis, praticados no mercado imobiliário da cidade do Rio de Janeiro no ano 2000, utilizando a Metodologia do Preço Hedônico (HPM), que deve reponder a duas questões: a) Quais são as características relevantes; b) Qual é a forma de relacionamento entre os preços e as características. O modelo de previsão foi obtido, com base em procedimentos econométricos, e teve duas etapas distintas. Na primeira etapa, de formulação do modelo, foram realizadas regressões paras as formas funcionais mais utilizadas pelos estudos na área, a saber, a forma funcional linear, dupla logarítmica e semilogarítmica. Em seguida foi utilizado o procedimento de seleção de modelos “geral para específico”. A segunda etapa consistiu na previsão fora da amostra. Isto é, a partir das formas funcionais reduzidas e utilizando-se dos coeficientes das variáveis significativas, obteve-se os preços estimados e em seguida foram comparados com os preços efetivamente praticados pelo mercado. Calculou-se, então, os Erro Quadrático Médio (EQM) e o Erro Absoluto Médio (EAM) e com o auxílio dos testes de diagnósticos e igualdade de variância, escolheu-se a forma funcional que melhor se adequou aos dados Desta forma, para um nível de significância de 5%, a forma funcional que melhor se adequou aos critérios estabelecidos foi a dupla logarítmica e apresentou como resultado da estimação um R2=92,63% e dentre as características mais relevantes para estimação do preço do imóvel pode-se destacar, entre outras, o tamanho do imóvel como características físicas; a ocorrência de roubos como características de segurança, a quantidade disponível de bens e serviços destinados ao lazer como características de vizinhança e a disponibilidade ou não de serviços de hotelaria como características dummies.
Resumo:
Esta dissertação apresenta diferentes metodologias de construção de indicadores antecedentes compostos de atividade econômica comparando os resultados obtidos por cada de acordo com seu poder de antecipação dos movimentos cíclicos da indústria brasileira. Entre as metodologias testadas incluem-se: i) a tradicional, proposta pelo National Bureau of Economic Research (NBER) na década de 60, adaptada e melhorada ao longo dos anos por instituições como a OCDE, The Conference Board e outros; ii) a seleção de variáveis por meio de testes de causalidade de Granger, e iii) seleção e pesos determinados por meio de regressão múltipla. A qualidade dos indicadores antecedentes compostos criados foi avaliada fora da amostra, com base na sua capacidade em antecipar, de forma regular e estável, os pontos de reversão do ciclo de crescimento da indústria brasileira e levando em consideração a conformidade cíclica geral em relação à variável de referência.
Resumo:
O propósito deste estudo é analisar a capacidade dos modelos econométricos ARMA, ADL, VAR e VECM de prever inflação, a fim de verificar qual modelagem é capaz de realizar as melhores previsões num período de até 12 meses, além de estudar os efeitos da combinação de previsões. Dentre as categorias de modelos analisados, o ARMA (univariado) e o ADL (bivariado e multivariado), foram testados com várias combinações de defasagens. Foram realizadas previsões fora-da-amostra utilizando 3 períodos distintos da economia brasileira e os valores foram comparados ao IPCA realizado, a fim de verificar os desvios medidos através do EQM (erro quadrático médio). Combinações das previsões usando média aritmética, um método de média ponderada proposto por Bates e Granger (1969) e média ponderada através de regressão linear múltipla foram realizadas. As previsões também foram combinadas com a previsão do boletim FOCUS do Banco Central. O método de Bates e Granger minimiza a variância do erro da combinação e encontra uma previsão com variância do erro menor ou igual à menor variância dos erros das previsões individuais, se as previsões individuais forem não viesadas. A conclusão é que, com as técnicas de séries temporais utilizadas, alguns modelos individuais fornecem previsões com EQM relativamente baixos. Destacando-se, dentre eles, os modelos VAR e VECM. Porém, com a combinação de previsões os EQM obtidos são menores do que os das previsões individuais usadas para combinação. Na maioria dos casos, a combinação de previsões com o boletim FOCUS também melhorou significativamente os resultados e forneceu previsões com EQM menores do que os das previsões individuais, destacando-se, dentre os métodos de combinações utilizados, a combinação via regressão linear múltipla.
Resumo:
This research evaluated the quality of the management of Brazilian stock funds on the period from January 1997 to October 2006. The analysis was based on the Modern Portfolio Theory measures of performance. In addition, this research evaluated the relevance of the performance measures The sample with 21 funds was extracted from the 126 largest Brasilian stock options funds because they were the only with quotas on the whole period. The monthly mean rate of return and the following indexes were calculated: total return, mean monthly return, Jensen Index, Treynor Index, Sharpe Index, Sortino Index, Market Timing and the Mean Quadratic Error. The initial analysis showed that the funds in the sample had different objectives and limitations. To make valuable comparisons, the ANBID (National Association of Investment Banks) categories were used to classify the funds. The measured results were ranked. The positions of the funds on the rankings based on the mean monthly return and the indexes of Jensen, Treynor, Sortino and Sharpe were similar. All of the ten ACTIVE funds of this research were above the benchmark (IBOVESPA index) in the measures above. Based on the CAPM, the managers of these funds got superior performance because they might have compiled the available information in a superior way. The six funds belonging to the ANBID classification of INDEXED got the first six positions in the ranking based on the Mean Quadratic Error. None of the researched funds have shown market timing skills to move the beta of their portfolios in the right direction to take the benefit of the market movements, at the significance level of 5%.
Resumo:
o trabalho se refere à avaliação de opções através do modelo conhecido pelo nome de seus autores, Black-Scholes. É descrito o desenvolvimento da teoria de opções, desde os primórdios da existência de mercados organizados deste derivativo, no século XVII, até os mais importantes trabalhos dos primeiros anos da década de 1990. É destacado o papel fundamental da estimação correta dos parâmetros a serem inseridos no modelo de avaliação. Após esta revisão, um teste do modelo Black-Scholes é realizado no mercado de opções sobre ouro da BM&F, utilizando-se mecanismos tradicionais de estimação dos parâmetros e apurando-se a diferença existente entre o valor dado pelo modelo de avaliação e o observado no mercado. Novos mecanismos de apuração dos parâmetros fundamentais, volatilidade e taxa de juros, são propostos, baseados no comportamento das séries históricas a eles referentes. A análise deste comportamento mostra a adequação destas séries à uma classe de modelos econométricos conhecidos como ARCH - Autorregressive Conditiona! Heterocedasticity Mode! . Três novos testes do modelo Black-Scholes no mercado de opções são realizados: o primeiro usando a volatilidade estimada através de um modelo ARCH(1) e a taxa de juros estimada de forma tradicional, o segundo usando a taxa de juros estimada através de um modelo ARCH-M(1) e a volatilidade estimada de forma tradicional e, finalmente, o terceiro, usando a volatilidade estimada através de um modelo ARCH(1) e a taxa de juros estimada através de um modelo ARCH-M(1). As diferenças, nos três casos, entre os valores dados pelo modelo Black-Scholes e os observados no mercado, foram computadas. Os resultados indicaram que o uso da volatilidade estimada através do modelo ARCH(1) melhora a performance do modelo Black-Scholes, perfomance esta medida pelo erro quadrático médio entre os valores dados pelo modelo e os observados no mercado. O mesmo não ocorreu com a utilização da taxa de juros estimada pelo modelo ARCH-M(1), apesar da compatibilidade teórica apresentada entre a série temporal destas taxas e o modelo. O autor acredita que este resultado seja devido à problemas encontrados na estimação dos parâmetros deste modelo ARCH-M(1). Também a inserção conjunta dos dois parâmetros estimados através dos modelos da classe ARCH não foi frutífera, ainda em função dos problemas de estimação dos modelos referentes à taxa de juros. As conclusões básicas do trabalho indicam que as série temporais em estudo são modeláveis e que os modelos da classe ARCH se apresentam como promissores para este fim, ao menos no que tange à volatilidade.
Resumo:
Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.
Resumo:
O objetivo principal deste trabalho foi a análise da variação de alguns parâmetros físico-químicos da qualidade das águas de pequenos rios urbanos com baixas a médias densidades de ocupação populacional nas áreas de drenagem de suas bacias hidrográficas. Para isso, foram selecionadas 4 bacias hidrográficas urbanas situadas na Região Metropolitana de Porto Alegre/RS: Arroios Mãe d‘Água e Moinho apresentando média densidade populacional bruta (cerca de 70 hab/ha), Arroio Capivara apresentando baixa densidade populacional (8 hab/ha próximo às nascentes da bacia e 33 hab/ha considerando a área até próximo à sua foz), e o Arroio Agronomia que apresenta um tributário relativamente bem preservado, com ocupação urbana residual (<2 hab/ha), considerado como referencia regional para a qualidade físico-química das águas. Os resultados mostraram que a população residente nestas áreas apresenta deficiências de atendimento do ponto de vista do saneamento básico (coleta e tratamento de esgotos sanitários, coleta de lixo e abastecimento de água) impondo aos moradores o uso de tecnologias de disposição local dos seus resíduos. Como resultado, os dados mostraram uma relação direta entre a densidade populacional e a presença de esgotos não tratados nos corpos d’água, e como conseqüência, observaram-se alterações importantes em quase todas as variáveis físico-químicas escolhidas para o monitoramento da qualidade das águas, quando comparadas com a condição referencial. Entre os modelos de regressão testados (linear, potência, logarítmico, exponencial e polinomial de segundo e terceiro graus) o modelo logarítmico apresentou melhor ajuste sobre os demais, indicando a possibilidade do seu uso para 21 das 26 variáveis.A forma logarítmica indica que, a partir de uma condição natural não urbanizada, mesmo pequenas densidades populacionais são capazes de alterar significativamente a qualidade das águas.
Resumo:
Realizou-se um experimento convencional de digestibilidade e consumo com o objetivo de avaliar o efeito do nível de inclusão de nitrogênio não protéico em suplementos fornecidos a tourinhos Hereford de 17 meses e 220 kg de peso vivo, consumindo feno de tifton (Cynodon dactylon) fornecido ad libitum. Os tratamentos avaliados foram: T1 - Feno + suplemento sem uréia; T2 - Feno + suplemento com 0,28 g de uréia/UTM; T3 - Feno + suplemento com 0,55 g de uréia/UTM; T4 - Feno + suplemento com 0,83 g de uréia/UTM e T5 - Feno + suplemento com 1,11 g de uréia/UTM. O feno apresentou, na média, 3,86% de proteína bruta e 84,66% de fibra em detergente neutro (FDN). Não foram constatados efeitos da suplementação sobre a digestibilidade da matéria orgânica, da matéria orgânica do feno, da FDN, da celulose e da hemicelulose (P>0,05). O consumo de matéria orgânica total, de matéria orgânica do feno e de FDN responderam de forma quadrática a suplementação com NNP (P<0,05). A excreção fecal metabólica de matéria orgânica não foi afetada pela suplementação sugerindo um aumento simultâneo na taxa de passagem (variação no consumo) e na taxa de digestão (digestibilidade constante). O CMO digestível apresentou comportamento quadrático com o aumento dos níveis de uréia na dieta. A relação entre o consumo de proteína degradável no rúmen (PDR) e o CMOD apresentou-se maximizada quando o nível de proteína degradável no rúmen foi equivalente a 8,1% da MOD, valor este coerente com dados encontrados na literatura.