997 resultados para Validação de Teste


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A competitividade está cada vez mais acirrada, em nível mundial, obrigando as empresas a fazerem verdadeiros malabarismos para definir suas políticas de precificação. Para atingir esse objetivo de forma eficaz, as empresas precisam ser ágeis e inovadoras, pois a concorrência está cada vez mais agressiva. Visando à redução da dificuldade do decisor na elaboração e na escolha de políticas comerciais, este estudo apresenta a concepção, o desenvolvimento e a validação de um Sistema de Apoio à Decisão Comercial, denominado de SADEC. A concepção foi antecedida pela avaliação das variáveis que influenciam a formação do preço e pela elaboração dos modelos matemáticos que dão sustentação ao SADEC. Durante essa fase de estudo, foram apresentadas algumas inter-relações entre as variáveis do preço que contribuem na avaliação da relação custo-volumelucro. Para a concepção, o desenvolvimento e a validação do SADEC foi utilizada a metodologia de análise consolidada pela pesquisa operacional. Com a concepção e o desenvolvimento do SADEC foi criado um sistema que auxilia o decisor a estabelecer e avaliar vários cenários, visando à criação de uma melhor política de preficicação. A validação do SADEC, foi realizada junto a três redes comerciais, com sede em Caxias do Sul, onde foi possível verificar a sua validade, e apresentou evidências concretas de que tal sistema é de grande utilidade para a definição de políticas comerciais. Acredita-se que este estudo contribua para a análise da relação custo-volume-lucro e, principalmente, para o estudo do processo decisório no impacto do uso de sistemas de apoio à decisão para a redução das dificuldades na definição de políticas comerciais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho explora a aplicação de técnicas de injeção de falhas, que simulam falhas transientes de hardware, para validar o mecanismo de detecção e de recuperação de erros, medir os tempos de indisponibilidade do banco de dados após a ocorrência de uma falha que tenha provocado um FUDVK. Adicionalmente, avalia e valida a ferramenta de injeção de falhas FIDe, utilizada nos experimentos, através de um conjunto significativo de testes de injeção de falhas no ambiente do SGBD. A plataforma experimental consiste de um computador Intel Pentium 550 MHz com 128 MB RAM, do sistema operacional Linux Conectiva kernel versão 2.2.13. O sistema alvo das injeções de falhas é o SGBD centralizado InterBase versão 4.0. As aplicações para a carga de trabalho foram escritas em VFULSWV SQL e executadas dentro de uma sessão chamada LVTO. Para a injeção de falhas foram utilizadas três técnicas distintas: 1) o comando NLOO do sistema operacional; 2) UHVHW geral no equipamento; 3) a ferramenta de injeção de falhas FIDe, desenvolvida no grupo de injeção de falhas do PPGC da UFRGS. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho e são necessários para a compreensão deste estudo. Em seguida é apresentada a ferramenta de injeção de falhas Xception e são também analisados alguns experimentos que utilizam ferramentas de injeção de falhas em bancos de dados. Concluída a revisão bibliográfica é apresentada a ferramenta de injeção de falhas – o FIDe, o modelo de falhas adotado, a forma de abordagem, a plataforma de hardware e software, a metodologia e as técnicas utilizadas, a forma de condução dos experimentos realizados e os resultados obtidos com cada uma das técnicas. No total foram realizados 3625 testes de injeções de falhas. Com a primeira técnica foram realizadas 350 execuções, com a segunda técnica foram realizadas 75 execuções e com a terceira técnica 3200 execuções, em 80 testes diferentes. O modelo de falhas proposto para este trabalho refere-se a falhas de crash baseadas em corrupção de memória e registradores, parada de CPU, aborto de transações ou reset geral. Os experimentos foram divididos em três técnicas distintas, visando a maior cobertura possível de erros, e apresentam resultados bastante diferenciados. Os experimentos com o comando NLOO praticamente não afetaram o ambiente do banco de dados. Pequeno número de injeção de falhas com o FIDe afetaram significativamente a dependabilidade do SGBD e os experimentos com a técnica de UHVHW geral foram os que mais comprometeram a dependabilidade do SGBD.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A preocupação com os ciclos econômicos induzidos por eleições não é meramente uma curiosidade científica. Já se pode dizer que há consenso na literatura que um comportamento ciclicamente endógeno da política econômica contribui para a volatilidade nos países latinoamericanos, de modo que isto tem efeitos significativamente prejudiciais sobre o desenvolvimento destes países. Em particular o ciclo na política fiscal, não estando associado à tentativa de compensar o ciclo econômico, mas sincronizado com o calendário eleitoral leva a uma alocação intertemporal ineficiente dos recursos. Pela importância do ciclo e pela investigação empírica da teoria no país, ao longo deste trabalho, buscou-se avançar na agenda de pesquisa sobre ciclo político no Brasil. Aqui se procurou cobrir a área referente aos efeitos de políticas oportunistas de caráter eleitoral sobre a execução orçamentária nos estados brasileiros. Investigou-se a existência de ciclos eleitorais nas variáveis orçamentárias, visando fornecer uma idéia minimamente clara do comportamento destas ao longo dos mandatos e identificar como algumas características políticoeleitorais dos estados poderiam afetar as receitas e despesas públicas. Para tanto se utilizou um modelo de painel dinâmico, que permitiu que se analisasse uma amostra na sua dimensão temporal capaz de abranger o período 1983-2000. Os resultados da estimação acabaram confirmando de maneira contundente as suposições teóricas, e mesmo do senso comum, que se tinha em relação ao ciclo político nas variáveis orçamentárias. Para a maioria absoluta das variáveis analisadas não se pode negar a existência de um efeito do período eleitoral sobre o seu comportamento, sendo que para aquelas associadas à despesa pública e ao resultado orçamentário, o comportamento no ano eleitoral em particular, confirmou o sugerido pela teoria e pelos resultados de outros trabalhos aplicados a países em desenvolvimento, desenvolvidos e mesmo para Brasil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa tem como objetivo validar externamente a Metodologia da Análise Focada na Decisão (AFD) desenvolvida por Santos, Becker e Fisher (1998) a partir do estudo de atividades desenvolvidas por um grupo de funcionários da Secretaria de Estado da Agricultura do Paraná – SEAB. A AFD define os requisitos de informações para o desenvolvimento de Sistema de Informação (SI), com foco de análise no processo decisório e executada em fases seqüenciais de análise e de modelagem de sistema. A aplicação da AFD foi realizada na SEAB, através do estudo feito junto à Divisão de Produção de Sementes e Mudas, o foco das observações. Utilizando-se a AFD definiu-se as informações essenciais, tendo como classes de decisão aquelas geradas pelos funcionários que atuam direta e indiretamente com a citada Divisão. A AFD mostrou-se um método adequado para a definição de requisitos de informações, pois os resultados de sua aplicação foram relevantes não apenas dentro dos objetivos propostos, mas propiciou, também, grande interesse em outras áreas da SEAB. Validou-se a metodologia pela confirmação de sua eficácia junto aos especialistas da área conforme relatado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O custo unitário básico (CUB), foi criado em função da Lei n° 4.591 (BRASIL, 1964), que encarregou a Associação Brasileira de Normas Técnicas (ABNT), através do Banco Nacional de Habitação (BNH), de definir critérios e normas para cálculo de custos unitários de construção pelos Sindicatos das Indústrias da Construção Civil (SINDUSCON) nos Estados da Federação, para uso dos incorporadores imobiliários nas tratativas iniciais quando da viabilização junto ao Sistema Financeiro de Habitações. Com a publicação da Norma Brasileira NB 140 (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 1965), ficou definido a metodologia de cálculo dos CUB para projetos-padrão de prédios habitacionais. A finalidade destes CUB é auxiliar na avaliação dos custos de incorporações imobiliárias, antes do lançamento, quando os incorporadores não dispõem dos projetos completos. A metodologia de cálculo destes CUB sofreu uma única reformulação ao longo destes quase quarenta anos, quando da edição da NBR 12.721 (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 1992). Em 1999, recebeu anexo complementar, que não fez qualquer atualização na metodologia de cálculo dos CUB, apenas estendeu a apuração destes custos para edifícios comerciais, galpões industriais e casas populares Este trabalho realizou a verificação e validação do modelo de cálculo dos CUB para prédios habitacionais, fazendo comparações entre os valores apurados pela técnica recomendada na Norma e os obtidos diretamente nos orçamentos discriminados que deram origem à metodologia de cálculo dos CUB, utilizando preços unitários de insumos no período de janeiro de 1993 a dezembro de 2000. Ao final concluiu-se que o modelo de cálculo dos CUB necessita de uma profunda reformulação para readquirir a propriedade fundamental de sua caracterização que é a de substituir o cálculo dos custos com o uso do orçamento discriminado dos projetos-padrão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A confiabilidade de sistemas de processamento digital de sinais é, entre tantos fatores, diretamente proporcional à confiabilidade dos conversores analógico-digitais neles presentes para serem usados como interface com o mundo real. Este trabalho propõe um método novo de teste de conversores analógico-digitais baseado em ruído. O método proposto possibilita a detecção de falhas nos conversores em teste. Além disto, a técnica proposta é capaz de estimar simultaneamente características estáticas e dinâmicas tornando-se, portanto, inovador em relação aos demais métodos presentes na literatura. A proposta, a simulação e a implementação do método são apresentadas ao longo desta dissertação. A comparação dos resultados obtidos com um método padrão de teste de ADCs, o método do histograma, comprovam a eficácia do método.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O desenvolvimento de projetos de interfaces gráficas está apoiado em guias de recomendações. Estes guias apresentam regras genéricas aos projetos de Interfaces Homem Computador–IHC. Entretanto, aplicações particulares, como as educacionais, não encontram regras específicas que atendam as necessidades do usuário-alvo. Ainda, a análise comparativa entre guias disponíveis aponta contradições entre as recomendações genéricas com aquelas específicas aplicadas a um determinado ambiente. A necessidade de um modelo de referência para a construção de interfaces gráficas amigáveis ao usuário e a escassez e contradições de recomendações específicas às aplicações educacionais motivaram o trabalho de pesquisa prática junto aos usuáriosalvo. Para a identificação das recomendações sobre aspectos gráficos básicos e elementos de navegação necessários a uma efetiva interação com interfaces dedicadas a aplicações educacionais, foi desenvolvido um instrumento de pesquisa que permitiu a investigação das preferências relativas aos aspectos pesquisados junto ao público-alvo. Os dados coletados foram tratados estatisticamente e os resultados obtidos contrariam tanto critérios adotados em interfaces de sistemas de ensino disponíveis na Internet como algumas recomendações sobre os mesmos disponíveis na literatura. Os resultados obtidos apontam, também, para a preferência dos usuários por elementos de navegação que não são referidos nos guias de recomendações consultados. A análise dos resultados possibilitou a geração de um modelo básico que recomenda preferências sobre aspectos gráficos básicos, como aplicação de cores em fontes e fundos de tela, tipologia de fontes para textos e paginação, e também, sobre componentes de navegação, como posicionamento e preferência por tipo de recurso de navegação. O modelo proposto está fundamentado nas recomendações de Nielsen [NIE 00], o qual recomenda que as necessidades dos usuários na interatividade com a interface sejam identificadas junto a estes usuários. As recomendações apresentadas neste trabalho foram utilizadas, inicialmente, nos ambientes educacionais desenvolvidos dentro dos projetos Tapejara [TAP 00] e LaVia [LAV 00].

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Aplicações como videoconferência, vídeo sob-demanda, aplicações de ensino a distância, entre outras, utilizam-se das redes de computadores como infra-estrutura de apoio. Mas para que tal uso seja efetivo, as redes de computadores, por sua vez, devem fornecer algumas facilidades especiais para atender às necessidades dessas aplicações. Dentre as facilidades que devem ser fornecidas estão os suportes à qualidade de serviço (QoS - Quality of Service) e as transmissões multicast. Além do suporte a QoS e multicast nas redes, é necessário fornecer um gerenciamento da rede adequado às expectativas de tais aplicações. Soluções que fornecem gerenciamento de forma individual para tais facilidades, já foram propostas e implementadas. Entretanto, estas soluções não conseguem agir de modo integrado, o que torna a tarefa do gerente da rede extremamente complexa e difícil de ser executada, pois possibilitam um fornecimento não adequado das facilidades desejadas às aplicações. Nesta dissertação é apresentada uma solução para gerenciamento integrado de QoS e multicast. Fazem parte da solução: a definição e implementação de uma arquitetura para gerenciamento integrado de QoS e multicast, utilizando gerenciamento baseado em políticas (PBNM - Policy-Based Network Management), além da validação da solução proposta através da implementação de um protótipo. Um ambiente, condições de teste, e análise dos resultados obtidos, também são apresentados durante a dissertação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho compara-se diversos métodos de determinação da volatilidade de uma ação, quando a finalidade é tornar um dado spread de opções delta-neutro, usando o modelo de Black-Scholes. Os spreads são formados com o objetivo de gerar lucros de arbitragem, através de uma estratégia de exploração sistemática de distorções de volatilidades implícitas das opções de compra da Telebrás na BOVESPA, no período de Abril de 93 a Maio de 95. A comparação dos métodos é feita através de medidas da eficiência dos mesmos em hedgear os spreads formados. Nessas condições, conclui-se que a melhor maneira de tomar a carteira delta-neutra é usando para cada opção a sua respectiva volatilidade implícita. Além disso, verifica-se que teria sido possível, para um agente com baixos custos de transação, obter lucros substanciais com a estratégia de trading utilizada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

None

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A performance esportiva de jogadores de futebol pode ser afetada por diversos fatores como a qualidade técnica individual, o nível de condicionamento físico, a motivação, o treinamento, o adversário, o clima e as condições da superfície de jogo. Neste estudo, 20 jogadores da categoria sub-20 (idade média 18,6 anos ± 0,94) foram submetidos a um teste progressivo para investigar a influência da umidade do gramado sobre alguns aspectos do rendimento físico. Os resultados mostraram uma diminuição na duração do teste sobre o gramado molhado, comparado ao resultado do teste sobre o gramado seco. Os parâmetros das freqüências cardíacas e as concentrações finais de lactato sangüíneo foram semelhantes nas situações de gramado seco e de gramado molhado. Entretanto, a percepção subjetiva ao esforço apresentou resultados mais acentuados a partir da segunda metade do teste progressivo sobre o gramado molhado. A umidade do gramado pareceu ter modificado a eficiência mecânica da corrida o que pode ter acelerado a instalação do processo de fadiga nos jogadores investigados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A sustentabilidade da dívida pública brasileira no período entre dezembro de 1997 e junho de 2004 é testada nesse trabalho. Além disso, estima- se como o governo a justa em valor presente os impostos e gastos futuros diante de um choque nestas variáveis. Para testar a sustentabilidade, dois tipos de testes são aplicados: o primeiro segue a metodologia de coin- tegração presente nos modelos desenvolvidos por Hakkio e Rush (1991) e Bohn (1991); e o segundo baseia-se na reação do superávit primário a mudanças na razão dívida-PIB, como demonstrado por Bohn (1998). Para estes testes, utiliza-se séries como proporção do PIB, pois são as variáveis de relevância para o governo na condução da política fiscal. Os resultados dos três modelos indicam sustentabilidade da dívida pública brasileira. Sob a confirmação empírica de que a dívida é sustentável, o modelo desenvolvido por Bohn (1991) foi aplicado para avaliar como o governo reage a inovações nos gastos ou nos impostos de modo a manter a relação de equilíbrio de longo prazo do seu orçamento. Os resultados indicam que o governo reage com aumento de impostos quando a economia sofre choques nas variáveis fiscais. Isto resulta da exogeneidade fraca dos gastos no modelo de correção-de-erro estimado.