62 resultados para Estimativas de gradientes
Resumo:
Neste trabalho estudamos um sistema de equações diferenciais parabólicas que modelam um processo de difusão-reação em duas dimensões da mistura molecular e reação química irreverssível de um só passo entre duas espécies químicas A e B para formar um produto P. Apresentamos resultados analíticos e computacionais relacionados à existência e unicidade da solução, assim como estimativas do erro local e global utilizando elementos finitos. Para os resultados analíticos usamos a teoria de semigrupos e o principio do m´aximo, e a simulação numérica é feita usando diferenças finitas centrais e o esquema simplificado de Ruge-Kutta. As estimativas do erro local para o problema semi-discretizado são estabelecidas usando normas de Sobolev, e para estimar o erro global usamos shadowing finito a posteriori. Os resultados computacionais obtidos mostram que o comportamento da solução está dentro do esperado e concorda com resultados da referências. Assim mesmo as estimativas do erro local e global são obtidas para pequenos intervalos de tempo e assumindo suficiente regularidade sobre a velocidade do fluído no qual realiza-se o processo. Destacamos que a estimativa do erro global usando shadowing finito é obtida sob hipóteses a posteriori sobre o operador do problema e o forte controle da velocidade numa vizinhança suficientemente pequena.
Resumo:
O Estado do Rio Grande do Sul é grande produtor e exportador de grãos, sendo responsável por, aproximadamente, 20% da produção nacional de soja. No entanto, os rendimentos desta cultura apresentam alta variabilidade interanual, conseqüência da também alta variabilidade interanual da precipitação pluvial. O objetivo deste trabalho foi ajustar e validar um modelo agrometeorológico-espectral de estimativa do rendimento da soja para o Rio Grande do Sul, para ser utilizado em programas de previsão de safras. O modelo proposto é composto por um termo agrometeorológico, obtido pelo ajuste do modelo multiplicativo de Jensen (1968), modificado por Berlato (1987) ao qual foi introduzido um fator de correção, e um termo espectral, obtido pela média do NDVI máximo dos meses de dezembro e janeiro. Os dados de rendimento médio da soja (estatísticas oficiais do IBGE) e os dados de estações meteorológicas (obtenção da evapotranspiração relativa - ETr/ETo) foram referentes ao período de 1975 a 2000, enquanto que as imagens de NDVI/NOAA foram do período de 1982 a 2000. A aplicação do modelo de Jensen modificado permite a obtenção das estimativas do rendimento da cultura da soja, no Estado do Rio Grande do Sul, com precisão, rapidez, praticidade, objetividade e baixo custo, cerca de um mês antes do final da colheita, conferindo ao mesmo um caráter preditivo. A aplicação do modelo agrometeorológico-espectral, entretanto, promove melhoria na acurácia das estimativas dos rendimentos, permitindo a geração de mapas de rendimento de soja para a região de produção significativa desta cultura no Estado, considerando, além da evapotranspiração relativa, outros fatores que influenciam na determinação dos rendimentos. A utilização de imagens de satélite, recursos de informática e de geoprocessamento permite rapidez na análise de dados para a avaliação do desenvolvimento das culturas agrícolas.
Resumo:
The recent advances in CMOS technology have allowed for the fabrication of transistors with submicronic dimensions, making possible the integration of tens of millions devices in a single chip that can be used to build very complex electronic systems. Such increase in complexity of designs has originated a need for more efficient verification tools that could incorporate more appropriate physical and computational models. Timing verification targets at determining whether the timing constraints imposed to the design may be satisfied or not. It can be performed by using circuit simulation or by timing analysis. Although simulation tends to furnish the most accurate estimates, it presents the drawback of being stimuli dependent. Hence, in order to ensure that the critical situation is taken into account, one must exercise all possible input patterns. Obviously, this is not possible to accomplish due to the high complexity of current designs. To circumvent this problem, designers must rely on timing analysis. Timing analysis is an input-independent verification approach that models each combinational block of a circuit as a direct acyclic graph, which is used to estimate the critical delay. First timing analysis tools used only the circuit topology information to estimate circuit delay, thus being referred to as topological timing analyzers. However, such method may result in too pessimistic delay estimates, since the longest paths in the graph may not be able to propagate a transition, that is, may be false. Functional timing analysis, in turn, considers not only circuit topology, but also the temporal and functional relations between circuit elements. Functional timing analysis tools may differ by three aspects: the set of sensitization conditions necessary to declare a path as sensitizable (i.e., the so-called path sensitization criterion), the number of paths simultaneously handled and the method used to determine whether sensitization conditions are satisfiable or not. Currently, the two most efficient approaches test the sensitizability of entire sets of paths at a time: one is based on automatic test pattern generation (ATPG) techniques and the other translates the timing analysis problem into a satisfiability (SAT) problem. Although timing analysis has been exhaustively studied in the last fifteen years, some specific topics have not received the required attention yet. One such topic is the applicability of functional timing analysis to circuits containing complex gates. This is the basic concern of this thesis. In addition, and as a necessary step to settle the scenario, a detailed and systematic study on functional timing analysis is also presented.
Resumo:
O desenvolvimento tecnológico, aliado à grande competitividade do mercado em escala mundial, tem como conseqüências diretas a elevação dos padrões de consumo e o aumento da diversidade de opções de compra por parte dos consumidores. Desta forma as empresas têm se empenhado em desenvolver sistemas de gestão robustos, porém flexíveis, que lhes proporcionem produzir bens de melhor qualidade, com diferenciais em relação aos concorrentes. A confiabilidade de um produto apresenta, sob diferentes aspectos, impacto na satisfação do consumidor, resultando como fator fundamental na decisão de compra. Além disso, as empresas têm procurado desenvolver mecanismos que propiciem criar um canal de relacionamento mais amplo junto aos seus consumidores, utilizando-se dos programas de fidelidade que têm como uma das suas principais ferramentas a extensão da garantia de produtos. Para implementar um programa de extensão de garantia, a empresa deve estar produzindo com alto nível de confiabilidade e estar em acompanhamento contínuo do desempenho destes produtos no campo. Este acompanhamento pode ser feito a partir dos dados de falha dos produtos em garantia, que possibilitam estabelecer indicadores de performance e avaliar custos relacionados às não-conformidades observadas. Este trabalho propõe, a partir de um estudo de caso, realizar a modelagem para análise da confiabilidade de um produto refrigerador freezer, com o objetivo de identificar a distribuição das falhas e estimar a confiabilidade do produto para um período de 2 (dois) anos de uso, possibilitando assim à empresa estabelecer os custos adicionais com a extensão da garantia do produto que atualmente é de 1 (um) ano. O estudo foi delineado em duas alternativas de modelagem, sendo a primeira através da adequação, estimação e simulação do modelo de distribuição de falhas e a segunda por meio da análise bayesiana de confiabilidade envolvendo o uso de distribuições a priori e a posteriori. Os resultados observados demonstram que apesar das técnicas serem distintas, as modelagens convergiram para estimativas similares e qualitativamente coerentes com os pressupostos estabelecidos pela empresa pesquisada.
Resumo:
Durante o resgate do material arqueológico dos sítios da região de Piratuba, SC, e de Aratiba, Machadinho e Maximiliano de Almeida, RS, área de influência da Usina Hidroelétrica de Machadinho, foram observadas grandes quantidades de ossos e escamas de peixes incorporando os restos alimentares encontrados nestes locais. Utilizando uma coleção osteológica de referência pudemos identificar restos de Salminus maxillosus Valenciennes, 1850, Brycon orbignyanus (Valenciennes, 1849), Pogonopoma obscurum Quevedo & Reis, 2002, Hemiancistrus fuliginosus Cardoso & Malabarba, 1999, Prochilodus lineatus (Valenciennes, 1836), Schizodon sp., Leporinus sp., Hoplias sp., Hypostomus sp. e Crenicichla sp. Com base em medições realizadas em exemplares de coleções, foram obtidas regressões a partir das dimensões do osso pré-maxilar em Crenicichla spp. e do esporão peitoral em Hemiancistrus fuliginosus, Pogonopoma obscurum e Hypostomus spp. correlacionadas com o comprimento padrão e peso dos espécimes. A partir das estimativas de comprimento padrão e peso das peças ósseas encontradas foi possível formular hipóteses sobre a tecnologia de pesca utilizada pelos habitantes destes sítios.
Resumo:
Este estudo foi desenvolvido dentro do projeto de pesquisa “Micrometeorologia da Mata Atlântica alagoana (MICROMA)” do Departamento de Meteorologia da Universidade Federal de Alagoas, que busca avaliar modificações no sistema solo-planta-atmosfera provocadas pela substituição da Mata Atlântica pela cultura da cana-de-açúcar, na Zona da Mata alagoana. O objetivo principal do presente estudo foi o ajuste do modelo de Penman-Monteith para o cálculo da evapotranspiração da cultura da cana-de-açúcar, na zona canavieira de Alagoas, a partir de determinações micrometeorológicas pelo método do balanço de energia, em diferentes estádios de desenvolvimento da cultura e em diferentes condições de demanda evaporativa atmosférica. A evapotranspiração foi estimada pelo método de Penman-Monteith e comparada com valores calculados através do balanço de energia, pela razão de Bowen, considerando este como método padrão. Medições micrometeorológicas foram feitas nos anos agrícolas de 1997/98 e 1998/99, em um área de 12,5ha de cultivo contínuo de cana-deaçúcar, cultivar SP 70-1143, sob condições de lavoura comercial, na Fazenda Vila Nova, município de Pilar, Alagoas (9o36´S, 35o53´W, 107m de altitude). Durante o período experimental, foram tomadas amostras quinzenais para determinar altura do dossel, comprimento de colmo, índice de área foliar e acúmulo de matéria seca (este apenas em 1998/99). Os parâmetros aerodinâmicos da cultura zo (comprimento de rugosidade) e d (deslocamento do plano zero) foram determinados a partir de perfis de vento, em condições de atmosfera neutra, e relacionados com a altura do dossel. Foram ajustados modelos para estimar o índice de área foliar e a altura do dossel da cultura em função do comprimento do colmo. O fracionamento do saldo de radiação no chamado “período potencial”, sem deficiência hídrica e com a cultura cobrindo completamente o solo, foi de 78% para o fluxo de calor latente de evaporação, 21% para o fluxo de calor sensível na atmosfera e aproximadamente 0,1% para o luxo de calor no solo. A estimativas pelo método de Penman-Monteith se ajustaram ao valores calculados pelo método do balanço de energia, tanto para médias qüinqüidiais (r = 0,93) como para valores diários (r = 0,91). Assim, dados confiáveis de evapotranspiração da cultura de cana-de-açúcar podem ser obtidos pelo método de Penman-Monteith ajustado neste trabalho, para a zona canavieira de Alagoas, em períodos sem deficiência hídrica e com cobertura completa do solo. O uso deste método apresenta a vantagem prática de requerer apenas dados meteorológicos, medidos em apenas um nível, em estações meteorológicas convencionais.
Resumo:
O gerenciamento de recursos hídricos visa solucionar conflitos resultantes do uso intensivo da água, resultado do crescimento econômico e populacional, bem como assegurar que a água, recurso natural, finito e insubstituível à vida, se mantenha com oferta adequada e preserve as funções hidrológicas, biológicas e químicas dos ecossistemas. Um dos instrumentos de suporte para esta atividade é a “outorga de uso”, licença emitida pelo Estado, para que o usuário possa derivar determinados volumes de água para atender suas necessidades. Para a instrução de um processo de outorga, é necessário o cotejo de duas grandezas fundamentais: a disponibilidade hídrica (oferta) e a demanda. A demanda pode ser estimada a partir do cadastramento de usuários, dinâmico e contínuo no tempo. A disponibilidade hídrica varia no tempo e no espaço e é estimada a partir da avaliação do regime hidrológico da bacia. Esta é a informação básica de apoio à decisão e possui diversas interpretações, função de particularidades jurídicas, sociais, ambientais e econômicas de cada região. Sendo assim, o objetivo da presente tese se insere na fase inicial de instrução do processo de outorga (planejamento) e a contribuição se concentra na avaliação de aspectos técnicos e conceituais que embasam duas etapas relativas à (i) avaliação de disponibilidades hídricas para outorga, definidas por curvas de permanência de vazões e considerando os aspectos de variabilidade, sazonalidade, aleatoriedade e erros de estimativas; (ii) gerenciamento da outorga, considerando o equacionamento do problema de outorga para atendimento da demanda, bem como a avaliação da influência de diferentes aspectos no atendimento da demanda e na conservação ambiental, através do balanço hídrico do sistema. Para o desenvolvimento da pesquisa foram utilizados dados fluviométricos existentes das bacias dos rios Vacacaí, Vacacaí-Mirim, Pardo, Pardinho e Baixo Jacuí, pertencentes à bacia do rio Guaíba, no Rio Grande do Sul. Os estudos com simulação de outorga foram aplicados às seções de referência definidas em estudo anterior na bacia do Baixo Jacuí. Foram estudados dois critérios para obtenção da curva de permanência de vazões. O primeiro aceita a hipótese de que a curva representa o risco ou probabilidade no período da amostra. Neste critério, tradicionalmente utilizado em hidrologia, a freqüência de excedência é calculada pelo processamento conjunto de toda série histórica de vazões. O segundo critério aceita a hipótese de que cada ano é um evento hidrológico independente e prevê o cálculo de uma curva de permanência de vazões para cada ano. Neste critério, a disponibilidade hídrica é caracterizada pela média das curvas e respectivo intervalo de confiança, o qual representa a variabilidade interanual das vazões. Para consideração da sazonalidade, foi adotado o critério de cálculo das curvas de permanência obtidas para cada mês do ano. Para o cotejo entre a disponibilidade hídrica (vazão de referência) e a demanda, foi utilizado um modelo de balanço hídrico otimizado, considerando todo sistema e vazões de referência como disponibilidade, desenvolvido em planilha eletrônica. A aplicação do modelo, considerando a variabilidade e sazonalidade da disponibilidade hídrica e diferentes critérios de outorga, permitiu avaliar oito diferentes aspectos do problema de outorga e concluir pela adequabilidade da técnica para seu planejamento, bem como análise de cenários futuros e cenários de racionamento. A grande diferença entre os valores outorgados com as disponibilidades estimadas pelos critérios da série toda e do ano a ano, indica que ambos devem ser considerados no planejamento da outorga, embora não sejam concorrentes entre si e a escolha entre eles reflita o risco a ser selecionado pelos planejadores para a outorga. Posteriormente, foi realizada uma análise do desempenho do modelo de proporção de áreas e de uma versão modificada deste, para transferência de informações fluviométricas de uma seção com dados para outra sem, a partir de uma pequena amostragem no local. Os resultados mostraram que o modelo modificado é uma técnica potencialmente mais adequada, para a síntese de informações em locais com poucos dados, do que a simples proporção de áreas e de técnicas de regionalização. Isso porque consegue sintetizar a influência de particularidades relativas a fatores antropogênicos, geomorfológicos e pedológicos. Foram realizadas, também, simulações de verificação das conseqüências ambientais das outorgas planejadas com o modelo otimizado, que mostraram que o critério de outorga, baseado em vazões de referência, é pouco agressivo ao ambiente. Isso devido à fraca influência na alteração do padrão de pulsos hidrológicos dos rios, devendo-se, porém, tomar cuidado quando do seu uso em sistemas sujeitos a obras de regularização.
Resumo:
O presente trabalho estima uma nova relação entre emprego e inflação para o Brasil, tendo como pano de fundo hipóteses propostas pelo arcabouço neo-keynesiano. Quatro hipóteses são testadas e sustentadas ao longo de todo o trabalho: i) os agentes não possuem racionalidade perfeita; ii) a imperfeição no processo de formação das expectativas dos agentes pode ser um fator determinante no componente inercial da inflação brasileira; iii) a inflação possui um componente inercial autônomo, que não depende de choques verificados em mercados isolados; e, iv) relações não-lineares entre inflação e desemprego são capazes de fornecer melhores explicações para o comportamento da economia nos últimos 12 anos. Enquanto as duas primeiras hipóteses são verificadas através de um modelo com mudanças markovianas, as duas últimas são testadas a partir da estimação de uma Curva de Phillips convexa, estimadas pelo Filtro de Kalman. Entretanto, mesmo fazendo uso destas estimativas, as funções de resposta da política monetária apresentam as mesmas propriedades de estimativas tradicionais para o Brasil.
Resumo:
A sondagem com SPT ("Standard Penetration Test") é o método de investigação com mais freqüência empregado na caracterização geotécnica de solos. Devido a relevância desse tipo de ensaio, desenvolveu-se um procedimento para geração de mapas de SPT com base em métodos geoestatísticos. Esses mapas devem conter a estimativa do índice de penetração (SPT) em diferentes posições no terreno em estudo, partindo de ensaios pré-existentes, objetivando auxiliar de maneira mais efetiva o planejamento de obras de engenharia. O trabalho foi baseado em um banco de dados com 141 sondagens realizadas na cidade de Passo Fundo/RS, compreendendo uma área total de 4,16km2. O banco de dados compreende sondagens de uma única empresa (o que minimiza os erros decorrentes da própria sondagem SPT) e uma única unidade geotécnica. Essas informações foram utilizadas para a avaliação do comportamento espacial dos parâmetros modelados e, posteriormente, construção de mapas de SPT. As estimativas foram efetuadas por krigagem ordinária em blocos com dimensões de 100mx100m, em quatro níveis distintos definidos de acordo com a variação média do índice de penetração com a profundidade Os mapas resultantes da krigagem ordinária revelaram-se satisfatórios para o fim a que se destina esse trabalho. Para a avaliação desses mapas, é relevante que se quantifiquem as incertezas associadas a essas estimativas. A metodologia para tal é baseada em Simulação Geoestatística, onde foram efetuadas simulações seqüenciais Gaussianas (ssG), em blocos de mesma dimensão que a utilizada na krigagem. Os resultados positivos mostraram ser adequado o emprego da simulação seqüencial Gaussiana, para geração de mapas auxiliares de valores de SPT a serem empregados no planejamento de investigações geotécnicas complementares.
Resumo:
A quantificação da precipitação é dificultada pela extrema aleatoriedade do fenômeno na natureza. Os métodos convencionais para mensuração da precipitação atuam no sentido de espacializar a precipitação mensurada pontualmente em postos pluviométricos para toda a área de interesse e, desta forma, uma rede com elevado número de postos bem distribuídos em toda a área de interesse é necessária para um resultado satisfatório. No entanto, é notória a escassez de postos pluviométricos e a má distribuição espacial dos poucos existentes, não somente no Brasil, mas em vastas áreas do globo. Neste contexto, as estimativas da precipitação com técnicas de sensoriamento remoto e geoprocessamento pretendem potencializar a utilização dos postos pluviométricos existentes através de uma espacialização baseada em critérios físicos. Além disto, o sensoriamento remoto é a ferramenta mais capaz para gerar estimativas de precipitação nos oceanos e nas vastas áreas continentais desprovidas de qualquer tipo de informação pluviométrica. Neste trabalho investigou-se o emprego de técnicas de sensoriamento remoto e geoprocessamento para estimativas de precipitação no sul do Brasil. Três algoritmos computadorizados foram testados, sendo utilizadas as imagens dos canais 1, 3 e 4 (visível, vapor d’água e infravermelho) do satélite GOES 8 (Geostacionary Operational Environmental Satellite – 8) fornecidas pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais. A área de estudo compreendeu todo o estado do Rio Grande do Sul, onde se utilizaram os dados pluviométricos diários derivados de 142 postos no ano de 1998. Os algoritmos citados buscam identificar as nuvens precipitáveis para construir modelos estatísticos que correlacionem as precipitações diária e decendial observadas em solo com determinadas características físicas das nuvens acumuladas durante o mesmo período de tempo e na mesma posição geográfica de cada pluviômetro considerado. Os critérios de decisão que norteiam os algoritmos foram baseados na temperatura do topo das nuvens (através do infravermelho termal), reflectância no canal visível, características de vizinhança e no plano de temperatura x gradiente de temperatura Os resultados obtidos pelos modelos estatísticos são expressos na forma de mapas de precipitação por intervalo de tempo que podem ser comparados com mapas de precipitação obtidas por meios convencionais.
Resumo:
Um dos principais fatores que determinam o baixo desempenho das avaliações está relacionado à omissão de importantes atributos nos processos avaliatórios. A seleção de bens comparáveis ao imóvel avaliando e o reconhecimento das variáveis que devem participar do modelo avaliatório são fatores determinantes no resultado das avaliações. Falhas na interpretação destes aspectos, bem como o limitado conhecimento quanto à forma de interação dos atributos na formação do valor dos imóveis, tendem a gerar distorções nas estimativas de valor obtidas. Para minimizar os erros e reduzir a imprecisão dos trabalhos, é imprescindível saber quais atributos contribuem para a formação do valor dos imóveis. O presente trabalho objetiva aumentar a compreensão dos atributos que influenciam a decisão de compra dos apartamentos residenciais através da análise das preferências dos consumidores. O estudo visa verificar se parte da imprecisão dos trabalhos avaliatórios é causada pelo desconhecimento parcial destes atributos por parte dos avaliadores Para tanto, realizou-se uma pesquisa de caráter exploratório, cujos instrumentos de levantamento de dados são questionários, aplicados para verificar e comparar a importância atribuída a um extenso número de atributos por dois grupos distintos, formados por avaliadores de imóveis e compradores. Os resultados obtidos indicam que os atributos usualmente empregados na prática avaliatória não são, em sua grande maioria, aqueles que influenciam a decisão de compra no processo de aquisição dos imóveis. Além disso, apesar de existir coerência na interpretação dos avaliadores sobre a contribuição de uma série de atributos para a formação do valor de mercado dos imóveis, foram identificadas distorções na forma como estes profissionais percebem a importância de alguns atributos, havendo, por exemplo, uma supervalorização de aspectos relativos à localização e segurança Por outro lado, os avaliadores não distinguem a elevada influência de alguns atributos no processo de decisão de compra, tais como existência de elevador e gás central, áreas de serviço maiores e idoneidade da empresa que construiu o imóvel. Embora o trabalho não apresente resultados plenamente conclusivos neste sentido, pode-se dizer que há um forte indicativo de que o nível de imprecisão das avaliações imobiliárias possa ser reduzido através de uma maior compreensão das preferências dos consumidores.
Resumo:
Para a análise estática e dinâmica, linear e não-linear de placas, cascas e vigas, implementa-se neste trabalho o elemento hexaédrico com integração reduzida, livre de travamento volumétrico e travamento de cisalhamento e que não apresenta modos espúrios. Na formulação do elemento, utiliza-se apenas um ponto de integração. Desta forma, a matriz de rigidez é dada de forma explícita e o tempo computacional é significativamente reduzido, especialmente em análise não-linear. Os modos espúrios são suprimidos através de um procedimento de estabilização que não exige parâmetros especificados pelo usuário. Para evitar o travamento de cisalhamento, desenvolve-se o vetor de deformações num sistema co-rotacional e remove-se certos termos não constantes nas componentes de deformações de cisalhamento. O travamento volumétrico é resolvido fazendo-se com que a parte dilatacional (esférica) da matriz gradiente seja avaliada apenas no ponto central do elemento. Como a eliminação do travamento de cisalhamento depende de uma abordagem no sistema local, emprega-se um procedimento co-rotacional para obter o incremento de deformação no sistema local e atualizar os vetores de tensões e forças internas na análise não-linear Para a solução das equações de equilíbrio na análise estática, utilizam-se métodos diretos baseados na eliminação de Gauss ou métodos iterativos de Gradientes Conjugados Precondicionado elemento-por-elemento (EBE). Para a análise dinâmica, as equações de equilíbrio são integradas através do método explícito de Taylor-Galerkin ou do método implícito de Newmark. Através de exemplos numéricos demonstra-se a eficiência e o potencial do elemento tridimensional na análise de casca, placas e vigas submetidas a grandes deslocamentos e grande rotações. Os resultados são comparados com trabalhos que utilizam elementos clássicos de placa e casca.
Resumo:
Esta dissertação, tem como propósito, estimar a elasticidade intertemporal para a oferta de trabalho masculina no Brasil. Também, verifica-se a presença de fatos estilizados relacionados ao ciclo de vida do indivíduo. Este trabalho fundamenta-se na teoria que tem como referência Heckman (1974 e 1976), e a idéia principal é supor que o indivíduo procura aumentar sua oferta de trabalho em períodos onde o salário real é alto. A partir de um modelo com dados de painel, formulado por MaCurdy (1981), procedemos a estimação. Para a verificação dos fatos estilizados foram feitos gráficos. No caso da estimação, houve um tratamento explícito para as questões da forma funcional, heterogeneidade não observada e da endogeneidade da variável salário. Os gráficos confirmam, em parte, a presença dos fatos estilizados, as variáveis salário por hora e rendimentos do trabalho têm uma relação côncava com a variável idade do indivíduo, no mercado de trabalho brasileiro. Contudo, o modelo econométrico estimado não confirma a efetividade da hipótese de elasticidade intertemporal, uma vez que, as estimativas geradas foram baixas e negativas, embora significativas .
Resumo:
Uma aplicação distribuída freqüentemente tem que ser especificada e implementada para executar sobre uma rede de longa distância (wide-área network-WAN), tipicamente a Internet. Neste ambiente, tais aplicações são sujeitas a defeitos do tipo colapso(falha geral num dado nó), teporização (flutuações na latência de comunicação) e omissão (perdas de mensagens). Para evitar que este defeitos gerem comseqüências indesejáveis e irreparáveis na aplicação, explora-se técnicas para tolerá-los. A abstração de detectores de defeitos não confiáveis auxilia a especificação e trato de algoritmos distribuídos utilizados em sistemas tolerantes a falhas, pois permite uma modelagem baseada na noção de estado (suspeito ou não suspeito) dos componentes (objetos, processo ou processadores) da aplicação. Para garantir terminação, os algoritmos de detecção de defeitos costumam utilizar a noção de limites de tempo de espera (timeout). Adicionalmente, para minimizar seu erro (falasas suspeitas) e não comprometer seu desempenho (tempo para detecção de um defeito), alguns detectores de defeitos ajustam dinamicamente o timeout com base em previsões do atraso de comunicação. Esta tese explora o ajuste dinâmico do timeout realizado de acordo com métodos de previsão baseados na teoria de séries temporais. Tais métodos supõem uma amostragem periódica e fornececm estimativas relativamente confiáveis do comportamento futuro da variável aleatória. Neste trabalho é especificado uma interface para transformar uma amostragem aperiódica do atraso de ida e volta de uma mensagem (rtt) numa amostragem periódica, é analisado comportamento de séries reais do rtt e a precisão dee sete preditores distintos (três baseados em séries temporais e quatrro não), e é avaliado a influência destes preditores na qualidade de serviço de um detector de defeitos do estilopull. Uma arquitetura orientada a objetos que possibilita a escolha/troca de algoritmos de previsão e de margem de segurança é também proposta. Como resultado, esta tese mostra: (i) que embora a amostragem do rtt seja aperiódica, pode-se modelá-la como sendo uma série temporal (uma amostragem periódica) aplciando uma interface de transformação; (ii) que a série temporal rtt é não estacionária na maioria dos casos de teste, contradizendo a maioria das hipóteses comumente consideradas em detectores de defeitos; (iii) que dentre sete modelos de predição, o modelo ARIMA (autoregressive integrated moving-average model) é o que oferece a melhor precisão na predição de atrasos de comunicação, em termos do erro quadrático médio: (iv) que o impacto de preditores baseados em séries temporais na qualidade de serviço do detector de defeitos não significativo em relação a modelos bem mais simples, mas varia dependendo da margem de segurança adotada; e (v) que um serviço de detecção de defeitos pode possibilitar a fácil escolha de algoritmos de previsão e de margens de segurança, pois o preditor pode ser modelado como sendo um módulo dissociado do detector.
Resumo:
Empresas de manufatura alocam uma grande quantidade de recursos no projeto de produtos confiáveis. Quando adequadamente projetados, tais produtos apresentam um número mínimo de falhas operacionais durante seu período de garantia e, de forma geral, durante sua vida útil. Falhas incorridas durante o período de garantia do produto implicam em custos indesejáveis. Assim, a incidência dessas falhas, bem como sua natureza, são normalmente registradas pelas empresas, na busca de informações que permitam aprimorar o projeto de produtos. Modelos de confiabilidade apropriados para estudos de engenharia são freqüentemente desenvolvidos a partir da análise de informações de desempenho em campo dos produtos de interesse. Esta dissertação propõe e exemplifica uma metodologia de análise de confiabilidade de produtos manufaturados, utilizando as informações disponíveis de volume produzido em um período de tempo e dados de tempos-até-falha obtidos da utilização da garantia do produto analisado. Como aplicação, foi realizada a modelagem da distribuição de confiabilidade de um modelo de aparelho condicionador de ar individual. Além da definição do modelo de distribuição da confiabilidade do produto e seus parâmetros, foram identificados os componentes críticos do sistema, os quais apresentam maior impacto sobre a confiabilidade do produto, quando ocorre melhoria de suas distribuições individuais de confiabilidade O trabalho apresenta, também, uma introdução sobre a teoria e princípio de funcionamento de unidades condicionadoras de ar, bem como uma revisão sobre os conceitos teóricos de confiabilidade, estimativas de parâmetros de modelos de distribuições, métodos de modelagens de distribuições e avaliação de confiabilidade utilizados na metodologia proposta.