1000 resultados para Desempenho de modelos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

O trabalho teve como objetivo avaliar modelos de calibração para dois tipos de guias de onda de TDR, referentes a dois equipamentos (Trase System e TDR 100), acopladas diretamente ao analisador de umidade ou a multiplexadores. Amostras de três tipos de solo foram acondicionadas em segmentos de tubos de PVC e saturadas. Dois tipos de guias de onda de três hastes, com capacitor e com resistor foram inseridas dentro de cada segmento de tubo com solo e conectadas a dois equipamentos de TDR, diretamente no testador de cabos ou via multiplexadores. Dados de umidade obtidos por gravimetria e da constante dielétrica foram tomados em cada coluna durante a secagem do solo da saturação até umidades próximas do limite inferior de disponibilidade de água por meio de leituras com as guias de onda conectadas ao testador de cabos e conectadas ao multiplexador. Um modelo polinomial cúbico foi ajustado aos dados da constante dielétrica do solo (épsilon) e da correspondente umidade (teta) e cinco modelos de determinação de q em função de e foram testados quanto ao desempenho. Os resultados mostraram que não houve diferença significativa na calibração das guias de onda com capacitor para uso com a TDR Trase System, considerando a conexão das guias ao analisador de umidade ou a multiplexadores. No caso da TDR 100, as guias de onda com resistor devem ser calibradas conforme o seu uso. O modelo cúbico foi o de melhor desempenho seguido pelo modelo de Roth que estimou, com boa exatidão, os valores da constante dielétrica e da umidade com a mais próximo de 0,5 para as guias de onda com capacitor que com as guias com resistor.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho teve o objetivo de avaliar o desempenho dos modelos de predição das perdas de solo USLE, RUSLE e WEPP para diferentes condições edafoclimáticas brasileiras. Para alcançar o objetivo proposto, perdas de solo estimadas pelos referidos modelos em nove localidades do Brasil foram comparadas às perdas medidas em parcelas experimentais, por meio do coeficiente de correlação, da raiz do erro quadrático médio (RMSE), do índice de concordância de Willmott, do índice de confiança, do coeficiente de Nash-Sutcliffe e da eficiência dos modelos. As parcelas experimentais adotadas nos estudos de perdas de solo utilizados no presente trabalho apresentavam dimensões (de 38 a 1.875 m²) e tempo de coleta de dados (de 1 a 7 anos) variados. Observou-se diferença significativa entre a média geral de perdas de solo estimada pelos modelos e a medida no campo. O WEPP apresentou estimativas mais precisas em 46% das condições simuladas, seguido pelo RUSLE com 42% e USLE com 12%, sendo que os indicadores estatísticos estudados mostraram que o modelo WEPP apresenta melhor desempenho quando comparado com os demais modelos. Apesar de a diferença entre os dados estimados e observados ocorrer para os três modelos, o WEPP, por apresentar melhor desempenho, coeficiente angular mais próximo da unidade na relação entre perdas de solo medidas no campo e estimadas pelo modelo e por ser embasado em processos físicos, demonstra ter maior potencial para fazer previsão da erosão para diferentes condições edafoclimáticas brasileiras.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho teve o objetivo de avaliar o desempenho dos modelos CLIGEN, LARS-WG e PGECLIMA_R na simulação de séries diárias de temperatura máxima do ar para localidades do Estado do Paraná. Foram utilizadas séries históricas de temperatura máxima do ar das localidades de Campo Mourão, Castro, Curitiba, Ivaí, Londrina, Maringá e Paranaguá. Foram geradas cinco séries de temperatura máxima do ar para cada modelo, nas localidades avaliadas, que foram confrontadas com as respectivas séries históricas. O processo de validação foi composto de análises estatísticas através de testes de significância (sobre as médias mensais (teste t), sobre a variância das médias mensais (teste F), sobre a forma das distribuições de frequência (teste K-S)), de gráficos de tendência anual, de tabelas com os índices "r" de Pearson, "d" de Willmott e “c” de Camargo-Sentelhas. Na simulação de temperatura máxima do ar, os modelos PGECLIMA_R e LARS-WG não diferiram em desempenho, obtendo poucas rejeições e bons resultados nos índices “c”, “d” e “r”. No entanto, o CLIGEN obteve resultado abaixo do esperado, superestimando as temperaturas máximas do ar em dias úmidos e, subestimando-as em dias secos, nas localidades avaliadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trata da avaliação do desempenho de modelos alternativos de precificação de ações no mercado de capitais brasileiro. Testamos modelos de risco uni e multifatorial e um modelo comportamental baseado em características.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objetivou-se desenvolver modelos para prever a concentração de proteína bruta (PB) e a digestibilidade in vitro da matéria seca (DIVMS) deste alimento por meio da espectroscopia NIR avaliando duas formas de preparação da amostra e dois equipamentos NIR. Conclui-se, que modelos desenvolvidos com espectros de vagem de algaroba pré-secas e moídas, tanto em equipamento Perten quanto em FOSS, foram considerados confiáveis e com desempenho superior àqueles desenvolvidos com amostras frescas.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

O objectivo deste trabalho passa pelo desenvolvimento de uma ferramenta de simulação dinâmica de recursos rádio em LTE no sentido descendente, com recurso à Framework OMNeT++. A ferramenta desenvolvida permite realizar o planeamento das estações base, simulação e análise de resultados. São descritos os principais aspectos da tecnologia de acesso rádio, designadamente a arquitectura da rede, a codificação, definição dos recursos rádio, os ritmos de transmissão suportados ao nível de canal e o mecanismo de controlo de admissão. Foi definido o cenário de utilização de recursos rádio que inclui a definição de modelos de tráfego e de serviços orientados a pacotes e circuitos. Foi ainda considerado um cenário de referência para a verificação e validação do modelo de simulação. A simulação efectua-se ao nível de sistema, suportada por um modelo dinâmico, estocástico e orientado por eventos discretos de modo a contemplar os diferentes mecanismos característicos da tecnologia OFDMA. Os resultados obtidos permitem a análise de desempenho dos serviços, estações base e sistema ao nível do throughput médio da rede, throughput médio por eNodeB e throughput médio por móvel para além de permitir analisar o contributo de outros parâmetros designadamente, largura de banda, raio de cobertura, perfil dos serviços, esquema de modulação, entre outros. Dos resultados obtidos foi possível verificar que, considerando um cenário com estações base com raio de cobertura de 100 m obteve-se um throughput ao nível do utilizador final igual a 4.69494 Mbps, ou seja, 7 vezes superior quando comparado a estações base com raios de cobertura de 200m.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

A instalação de sistemas de videovigilância, no interior ou exterior, em locais como aeroportos, centros comerciais, escritórios, edifícios estatais, bases militares ou casas privadas tem o intuito de auxiliar na tarefa de monitorização do local contra eventuais intrusos. Com estes sistemas é possível realizar a detecção e o seguimento das pessoas que se encontram no ambiente local, tornando a monitorização mais eficiente. Neste contexto, as imagens típicas (imagem natural e imagem infravermelha) são utilizadas para extrair informação dos objectos detectados e que irão ser seguidos. Contudo, as imagens convencionais são afectadas por condições ambientais adversas como o nível de luminosidade existente no local (luzes muito fortes ou escuridão total), a presença de chuva, de nevoeiro ou de fumo que dificultam a tarefa de monitorização das pessoas. Deste modo, tornou‐se necessário realizar estudos e apresentar soluções que aumentem a eficácia dos sistemas de videovigilância quando sujeitos a condições ambientais adversas, ou seja, em ambientes não controlados, sendo uma das soluções a utilização de imagens termográficas nos sistemas de videovigilância. Neste documento são apresentadas algumas das características das câmaras e imagens termográficas, assim como uma caracterização de cenários de vigilância. Em seguida, são apresentados resultados provenientes de um algoritmo que permite realizar a segmentação de pessoas utilizando imagens termográficas. O maior foco desta dissertação foi na análise dos modelos de descrição (Histograma de Cor, HOG, SIFT, SURF) para determinar o desempenho dos modelos em três casos: distinguir entre uma pessoa e um carro; distinguir entre duas pessoas distintas e determinar que é a mesma pessoa ao longo de uma sequência. De uma forma sucinta pretendeu‐se, com este estudo, contribuir para uma melhoria dos algoritmos de detecção e seguimento de objectos em sequências dedeo de imagens termográficas. No final, através de uma análise dos resultados provenientes dos modelos de descrição, serão retiradas conclusões que servirão de indicação sobre qual o modelo que melhor permite discriminar entre objectos nas imagens termográficas.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Dissertação apresentada como requisito parcial para obtenção do grau de Mestre em Estatística e Gestão de Informação

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Dissertação de mestrado em Engenharia Industrial

Relevância:

70.00% 70.00%

Publicador:

Resumo:

O objetivo deste trabalho foi avaliar o desempenho de modelos isotrópicos de estimativa do total de radiação incidente em superfícies inclinadas e propor estimativas com base nas correlações entre os índices de claridade horizontais e inclinados, em diferentes condições de cobertura de céu, em Botucatu, SP. Foram avaliadas superfícies com inclinação de 12,85º, 22,85º e 32,85º, pelos modelos isotrópicos propostos por Liu & Jordan, Revfeim, Jimenez & Castro, Koronakis, a teoria Circunsolar, e a correlação entre os índices de claridade horizontais e inclinados, para diferentes condições de cobertura de céu. O banco de dados de radiação global utilizado corresponde ao período de 1998 a 2007, com intervalos de 4/1998 a 8/2001 para a inclinação de 22,85º, de 9/2001 a 2/2003 para 12,85º e de 1/2004 a 12/2007 para 32,85º. O desempenho dos modelos foi avaliado pelos indicadores estatísticos erro absoluto médio, raiz quadrada do quadrado médio do erro e índice "d" de Wilmott. Os modelos de Liu & Jordan, Koronakis e de Revfeim apresentaram os melhores desempenhos em dias nublados, em todas as inclinações. As coberturas de céu parcialmente difuso e parcialmente aberto, nos maiores ângulos de inclinação, apresentaram as maiores dispersões entre valores estimados e medidos, independentemente do modelo. As equações estatísticas apresentaram bons resultados em aplicações com agrupamentos de dados mensais.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

A análise de um modelo de erosão é um crítico passo no desenvolvimento de uma ferramenta de predição da erosão aplicável e válida; isso é crucial para avaliar o desempenho dos modelos existentes para assegurar que as estimativas de um modelo condizem com a realidade. O objetivo do presente trabalho foi avaliar modelos para a predição do subfator cobertura e manejo (CiII) relativo à erosão entressulcos. Um experimento fatorial completo foi conduzido com cinco doses de resíduo de milho (0; 0,05; 0,15; 0,40 e 0,80 kg m-2), quatro declives e duas repetições, sob condições de prévio umedecimento para determinar as taxas de erosão entressulcos (Di) e enxurrada (R). Num primeiro experimento, foi avaliada a erodibilidade entressulcos (Ki) e o subfator cobertura e manejo (CiII), em parcelas experimentais de 0,5 x 0,75 m, em solo recentemente preparado. Num segundo experimento, foram avaliados Di, R, Ki e CiII, também em parcelas de 0,5 x 0,75 m, em solo recém- preparado. Os valores de Di, R, Ki e CiII, obtidos no segundo experimento, foram utilizados na avaliação dos modelos testados. Os modelos CiII = e-2,50 CS/100 e CiII = e -2,238 CS/100 apresentaram boas estimativas para o subfator CiII.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Os mecanismos que levam ao desempenho superior e, por consequência, os fatores que os explicam, são focos de várias áreas de pesquisa em Administração de Empresas. A decomposição da variabilidade do desempenho vem sendo utilizada para esse fim, inicialmente procurando entender a contribuição de fatores intrínsecos às organizações (efeito empresa) e de fatores relacionados ao setor econômico (efeito setor); mais recentemente outros fatores ganharam interesse, como é o caso das contribuições da corporação e do país para o desempenho. Esta tese introduziu um novo fator aos estudos de decomposição da variabilidade do desempenho: o efeito cadeia de suprimentos, quantificando a influência da afiliação a uma determinada cadeia para o desempenho da empresa. Outra contribuição desta tese é o amplo mapeamento da estrutura de variância de desempenho das empresas brasileiras, expandindo pesquisas anteriores em termos de tamanho de amostra, método de análise mais adequado (modelagem multinível) e dimensões de desempenho utilizadas. As análises empíricas consideraram indicadores de lucro e de crescimento, com a amostra mais ampla contendo 592.905 observações de 77.468 empresas brasileiras e 485 setores de negócios, em um período de 10 anos. Os dados foram obtidos das bases de dados das pesquisas econômicas estruturais do Instituto Brasileiro de Geografia e Estatística (IBGE). Modelos de 3 níveis – observações de desempenho, empresas e setores – mostraram que o efeito empresa individual responde pela maior parcela da variância do desempenho; esses modelos também apontaram para características peculiares da realidade brasileira, como as diferenças das estruturas de variância quando os diversos setores são analisados separadamente, principalmente em termos da intensidade do efeito setor – mais relevante, por exemplo, para as empresas de serviços do que para as empresas dos demais setores – e como as diferenças nas estruturas de variância para as diversas regiões do Brasil, sendo as empresas das regiões Norte, Nordeste e Centro-Oeste mais dependentes da contribuição do setor para seu desempenho do que as empresas da região Sul e Sudeste. Ao se introduzir um quarto nível – a cadeia de suprimentos – ao modelo, foi possível identificar que a magnitude do efeito cadeia alcança entre 15% a 25% da variabilidade explicada, medida pela raiz quadrada dos componentes de variância, representando cerca de 50% a 90% da magnitude do efeito setor. Além de evidenciar a importância da gestão das cadeias de suprimentos, os achados apontam para uma nova compreensão do efeito setor, já que indicam que os benefícios tradicionalmente atribuídos ao setor econômico são em parte decorrentes da afiliação da empresa a uma determinada cadeia, e não à similaridade das atividades que ela compartilha com outras empresas do mesmo setor.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Levando em conta a necessidade de implantar medidas que orientem a melhoria contínua da qualidade da assistência prestada pelas instituições de saúde e hospitais brasileiros, independentemente de perfil, porte, entidade mantenedora, complexidade e vinculação institucional, e admitindo que o processo de acreditação hospitalar é um modelo aproximado de consenso e racionalização para as instituições de saúde, especialmente na educação continuada dos profissionais, a fim de garantir a qualidade da assistência por meio de padrões previamente estabelecidos, este estudo procura responder a seguinte questão: Como a gestão da qualidade pode impactar no desempenho de organizações hospitalares? Para encontrar a resposta, parte-se de uma fundamentação teórica que analisou organização hospitalar e desempenho e modelos de avaliação de desempenho organizacional. Entre estes, os modelos de gestão da qualidade na saúde; avaliação em saúde; modelos de acreditação e certificação em saúde, processos de avaliação de desempenho em saúde e prêmios da qualidade. A metodologia consistiu da aplicação de questionários, desenhados com base em levantamento bibliográfico, a diretores e gerentes de instituições acreditadas e da realização de entrevistas com profissionais que trabalham diretamente com gestão da qualidade nesses hospitais. Buscou-se dessa forma avaliar o desempenho de organizações acreditadas utilizando a metodologia dos prêmios da qualidade baseados em fundamentos de excelência com padrões culturais e internalizados em organizações de classe mundial e reconhecidos internacionalmente. Concluiu-se que a acreditação favorece a mensuração de seus resultados, o aprimoramento da gestão de indicadores, como também a padronização e o incentivo para a melhoria continua. Porém, o fato de ser acreditado não garante bons resultados em todos os critérios de excelência do modelo PNQ. Outras variáveis podem interferir no alcance de bons resultados, como a própria gestão das grandes operadoras de saúde, a associação com instituições de excelência e o reconhecimento por outros selos.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo avaliar a capacidade preditiva de modelos econométricos de séries de tempo baseados em indicadores macroeconômicos na previsão da inflação brasileira (IPCA). Os modelos serão ajustados utilizando dados dentro da amostra e suas projeções ex-post serão acumuladas de um a doze meses à frente. As previsões serão comparadas a de modelos univariados como autoregressivo de primeira ordem - AR(1) - que nesse estudo será o benchmark escolhido. O período da amostra vai de janeiro de 2000 até agosto de 2015 para ajuste dos modelos e posterior avaliação. Ao todo foram avaliadas 1170 diferentes variáveis econômicas a cada período a ser projetado, procurando o melhor conjunto preditores para cada ponto no tempo. Utilizou-se o algoritmo Autometrics para a seleção de modelos. A comparação dos modelos foi feita através do Model Confidence Set desenvolvido por Hansen, Lunde e Nason (2010). Os resultados obtidos nesse ensaio apontam evidências de ganhos de desempenho dos modelos multivariados para períodos posteriores a 1 passo à frente.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

A análise de um modelo de erosão é um crítico passo no desenvolvimento de uma ferramenta de predição da erosão aplicável e válida; isso é crucial para avaliar o desempenho dos modelos existentes para assegurar que as estimativas de um modelo condizem com a realidade. O objetivo do presente trabalho foi avaliar modelos para a predição do subfator cobertura e manejo (CiII) relativo à erosão entressulcos. Um experimento fatorial completo foi conduzido com cinco doses de resíduo de milho (0; 0,05; 0,15; 0,40 e 0,80 kg m-2), quatro declives e duas repetições, sob condições de prévio umedecimento para determinar as taxas de erosão entressulcos (Di) e enxurrada (R). Num primeiro experimento, foi avaliada a erodibilidade entressulcos (Ki) e o subfator cobertura e manejo (CiII), em parcelas experimentais de 0,5 x 0,75 m, em solo recentemente preparado. Num segundo experimento, foram avaliados Di, R, Ki e CiII, também em parcelas de 0,5 x 0,75 m, em solo recém- preparado. Os valores de Di, R, Ki e CiII, obtidos no segundo experimento, foram utilizados na avaliação dos modelos testados. Os modelos CiII = e-2,50 CS/100 e CiII = e -2,238 CS/100 apresentaram boas estimativas para o subfator CiII.