996 resultados para Precisão do teste


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A literatura sobre Teste de Software apresenta diversas estratégias e metodologias que definem critérios eficazes e automatizáveis para selecionar casos de teste capazes de detectar erros em softwares. Embora eficientes na descoberta de erros, as técnicas de seleção de casos de teste exigem que uma quantidade relativamente grande de testes seja realizada para satisfazer os seus critérios. Essa característica acarreta, em parte, um alto custo na atividade de teste, uma vez que, ao fim de cada teste deve-se verificar se o comportamento do software está ou não de acordo com os seus requisitos. Oráculo para teste de software é um mecanismo capaz de determinar se o resultado de um teste está ou não de acordo com os valores esperados. Freqüentemente, assume-se que o próprio projetista de teste é o responsável por esta tarefa. A automatização da atividade dos oráculos deu origem a oráculos automáticos, os quais são capazes de determinar o bom ou mau funcionamento do software a partir de uma fonte de informação confiável. Ao longo dos anos, a especificação formal vêm sendo largamente utilizada como fonte de informação para oráculos automáticos. Diversas estratégias vêm propondo geradores de oráculos baseados em especificações formais. Dentre as características marcantes dessas estratégias, cita-se aquelas que são aplicáveis a implementações derivadas a partir da estrutura da especificação e aquelas que geram oráculos a partir de técnicas específicas de seleção de casos. Essas características, entretanto, limitam a aplicação abrangente dos oráculos por restringi-los tanto a implementações derivadas diretamente de especificações como ao uso de técnicas específicas de seleção de casos de teste. Este trabalho apresenta um estudo sobre os geradores de oráculos para teste de software, identifica aspectos fundamentais que regem seu processo de construção e propõe uma estratégia que permite a geração de oráculos semi-automaticamente, mesmo para implementações não derivadas diretamente da estrutura da especificação. A estratégia proposta é, também, aplicável aos casos de teste derivados de qualquer técnica de seleção de casos de teste.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese tem como objetivo central investigar o impacto do gerenciamento de reclamações na confiança e lealdade do consumidor, em trocas de serviços relacionais. Para tanto, foi desenvolvido e testado um modelo teórico, que retrata os inter-relacionamentos entre avaliações específicas do processo de reclamação e construtos relacionais. Desta forma, o presente estudo relaciona três importantes correntes de pesquisa - teoria da justiça, gerenciamento de reclamações e estudos sobre confiança. De modo geral, os resultados obtidos através da Modelagem de Equações Estruturais confirmam 10 das 12 hipóteses estabelecidas a partir do modelo teórico proposto. Mais especificamente, os resultados indicam que as percepções de justiça distributiva, interpessoal e processual afetam significativamente a percepção global de justiça e o nível de satisfação do consumidor com o gerenciamento da reclamação. A confiança do consumidor após a reclamação é influenciada diretamente pelo nível de satisfa ção final alcançado e pelas experiências anteriores do consumidor com a empresa. Por fim, o grau de lealdade do consumidor é influenciado pela confiança do consumidor e pelo valor relacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objetivo: Avaliar os efeitos de um programa de exercício aeróbio sobre o condicionamento cardiorrespiratório em gestantes hígidas, de baixo risco, com sobrepeso. Métodos: 92 mulheres gestantes com sobrepeso (índice de massa corporal 26-31kg/m2), idade ≥ 20 anos, idade gestacional ≤ 20 semanas, com ausência de diabetes e hipertensão, foram alocadas aleatoriamente para realizar exercício aeróbio três vezes por semana com uma hora de duração ou para realizar sessões de relaxamento no grupo controle. Foram realizados dois testes de exercício submáximo em esteira, utilizando protocolo de rampa na entrada do estudo e outro teste após 12 semanas. Resultados: Em teste de exercício submáximo 12 semanas após randomização, o consumo de oxigênio (VO2) no limiar anaeróbio aumentou 17% (± 3) no grupo intervenção enquanto reduziu 16% (± 3) no grupo controle, de modo que após 12 semanas de exercício ajustado através da análise de covariância pelo o VO2 no limiar na linha de base, idade gestacional e idade materna foi de 2,68ml/kg/min (IC 95% 1,32-4,03) maior, P = 0,002. Conclusão: Exercício aeróbio realizado em gestantes com sobrepeso produz um aumento no limiar anaeróbio, sobrepondo os efeitos negativos da gestação sobre o condicionamento cardiorrespiratório em mulheres com estilo de vida sedentário.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho trata do desenvolvimento do projeto mecânico do mecanismo de aplicação de carga do sistema de deslocamento longitudinal do Simulador de Tráfego UFRGS DAERlRS. Esta é uma máquina utilizada para executar teste acelerado em pavimentos rodoviários. O sistema mecânico que executa o deslocamento longitudinal é composto de um chassi tipo carro que se movimenta de forma alternada dentro de uma estrutura metálica ao longo de 12 metros. Neste sistema mecânico deverá estar acop1ado um par de pneus para fazer a aplicação da carga por rolamento sobre a pista que estará sendo testada pelo simulador de tráfego. A cada ciclo completo um atuador hidráulico fará o respectivo carregamento sobre o garfo que guia os pneus, num único sentido, ou seja, no retomo o atuador suspende este mesmo garfo garantindo que não haja contato com a pista. A magnitude da carga aplicada deverá ser mantida constante e devidamente monitorada no decorrer dos ensaios. Para isso, conta-se com a imp1ementação de elementos elásticos e células de carga no conjunto. Para o desenvolvimento deste estudo foi empregada uma metodologia para o processo de projeto que se desdobra em quatro fases principais: Projeto Informacional, Projeto Conceitual, Projeto Preliminar e Projeto Detalhado. Tem-se como resultado deste 1rabalho o projeto mecânico do mecanismo de aplicação de carga do Simulador de Tráfego UFRGS-DAERlRS que poderá ser facilmente fabricado e imp1ementado no equipamento existente. O projeto foi elaborado considerando os itens montagem, manutenção e operação, o que resultará em aumento da sua performance durante sua utilização.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objetivo: Determinar a prevalência de má absorção de lactose e sua associação com a cor da pele e a idade em crianças e adolescentes de escolas públicas do município de Porto Alegre. Material e Métodos: Foi realizado um estudo transversal que incluiu 225 indivíduos de 8 a 18 anos, freqüentadores de escolas públicas do município de Porto Alegre. Os participantes foram classificados segundo a cor e a faixa etária. A má absorção de lactose foi diagnosticada através do teste do hidrogênio expirado após ingestão de 250 ml de leite. O teste teve duração de 3 horas e foi considerado como critério de positividade o aumento ≥ 20 partes por milhão na concentração de hidrogênio em relação ao nível basal. Resultados: Foram estudados 225 alunos, com uma média e desvio padrão de idade de 12,2 ± 2,0 anos. Cento e cinqüenta e quatro alunos eram de cor branca (68,4%) e os restantes, de cor não-branca (preta ou parda). A má absorção de lactose foi evidenciada em 19/225 casos (8,4%). Foram diagnosticados 8/154 casos (5,2%) nos alunos de cor branca e 11/71 casos (15,5%) nos alunos de cor não-branca (p = 0,02). Em relação à faixa etária, ocorreram 15/143 casos (10,5%) nos alunos entre 8 e 12 anos e 4/82 casos (4,9%) entre 13 e 18 anos (p = 0,227). Conclusões: A prevalência de má absorção de lactose encontrada em alunos de escolas pú-blicas de Porto Alegre é alta, especialmente se considerarmos que foram utilizadas doses fi-siológicas (250 ml de leite) para o diagnóstico. As taxas de má absorção foram maiores entre as crianças de cor não-branca em relação às crianças de cor branca, confirmando a influência racial na hipolactasia primária do tipo adulto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação insere-se no contexto de um projeto global de pesquisa, em desenvolvimento no GESID-PPGA/EA/UFRGS, com a cooperação de algumas universidades estrangeiras. Tal projeto tem como tema a percepção do processo decisório individual e a influência da cultura nacional e da experiência decisória. Para estudar a inter-relação destes assuntos é preciso, antes de mais nada, elaborar um conjunto de instrumentos que permitam investigar a percepção das pessoas sobre a tomada de decisão. Este é o objetivo principal do presente trabalho, que refere-se à primeira fase desse projeto global: a partir da literatura, e do conhecimento de um grupo de pesquisadores, conceber e desenvolver um conjunto de instrumentos (quantitativos e qualitativos) válidos para estudar a decisão. E ainda estabelecer uma metodologia de aplicação desse instrumental, a qual possa determinar uma seqüência (ordem) e forma de aplicação mais adequada. Para tanto, primeiramente foram definidas as 3 questões de pesquisa, que nortearam o desenvolvimento dos instrumentos de pesquisa, as quais deverão ser investigadas no contexto do projeto global de pesquisa, e que podem ser resumidas da seguinte forma: (1) Independentemente da cultura nacional ou do nível de experiência decisória dos indivíduos é possível identificar fatores comuns (passos, princípios, insights) a respeito da forma como as pessoas percebem o processo decisório individual, especialmente se tomado o modelo de processo decisório da “Racionalidade limitada” de Simon (1947) como padrão de comparação? (2) A cultura atua como fator de diferenciação na percepção do processo decisório individual? (3) A Experiência Decisória (vivência) dos indivíduos influencia a forma como eles percebem o processo decisório individual? A definição destas 3 questões de pesquisa possibilitou a concepção dos instrumentos, nos quais posteriormente foi realizada uma validação de conteúdo (por uma comissão de juízes) e de sua seqüência de aplicação (testando-se diferentes ordens), bem como a verificação da sua fidedignidade (através do Teste-reteste). Com este processo obteve-se os seguintes resultados: (1) projeto global consolidado; (2) conjunto de instrumentos de pesquisa concebido e validado; (3) seqüência de aplicação do instrumental definida e validada; (4) quadro de construtos definido fornecendo subsídios para a definição de um protocolo de análise de dados; (5) concepção de um método para verificação da "contaminação" de instrumentos de pesquisa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente estudo teve como objetivos (i) avaliar a validade do emprego do teste SMART, em Drosophila melanogaster, como indicador da contaminação de amostras de água superficial associada a misturas complexas, (ii) detectar a atividade tóxico-genética de dejetos industriais, lançados no rio Caí, empregando o cruzamento aprimorado. Dentro desta perspectiva, pretendeu também (iii) comparar os dados obtidos para as amostras sob influência de despejos industriais com aqueles previamente observados para amostras sob influência de dejetos de origem urbana, provenientes das cidades de Montenegro e São Sebastião do Caí (Silva., 1999). Na tentativa de avaliar a genotoxicidade, associada ao curso final do rio Caí, foram selecionados os seguintes pontos de coleta de despejos industriais: Km 18,6 - situado na foz do arroio Bom Jardim, próximo à área de disposição do efluente final líquido e da drenagem das áreas de disposição dos resíduos sólidos do complexo industrial – e Km 13,6 - no canal da bacia de acumulação e segurança 7 do pólo industrial Neste ensaio genético, cada amostra industrial foi administrada às larvas de terceiro estágio em duas diluições (25% e 50%), bem como na sua forma crua (100%) - sendo avaliados um total de 40 indivíduos por amostra por concentração, totalizando a análise de 11.712.000 células por amostra. Foram utilizados dois controles negativos, o controle de campo – representado pela nascente de um riacho localizada em uma área conservada com fraca ação antrópica e próxima aos pontos do rio – assim como o diluente água destilada. Uma vez que as freqüências das diferentes categorias de manchas não foram significantemente superiores àquelas observadas nos controles negativos (água destilada), os pontos Km 18,6 e Km 13,6 foram caracterizados como destituídos de ação genotóxica nos três meses de coleta : março, junho e setembro. Estes achados sugerem que, nas condições experimentais empregadas, os dejetos de origem industrial não foram capazes de induzir lesões do tipo mutação gênica, cromossômica, assim como eventos relacionados com recombinação mitótica. Por outro lado, a comparação dos dados obtidos no presente estudo com os observados por Silva (1999) para dejetos urbanos, revelou a validade do emprego do teste SMART como uma ferramenta para detecção de contaminação ambiental. De fato, as amostras urbanas referentes aos meses de março (Km 52, 78 e 80) e setembro (Km 52) – coletadas concomitantemente com as de origem industrial – foram diagnosticadas como indutoras de aneuploidias e/ou de grandes deleções cromossômicas. As potências genotóxicas médias estimadas mostraram que o Km 80 foi o local com o maior grau de genotoxicidade – seguido pelos Km 78 e 52 – que apresentaram potências semelhantes Considerando os resultados obtidos, em cinco pontos situados ao longo do curso final do rio Caí, conclui-se que os prejuízos causados pelos dejetos urbanos podem ser tão ou mais nocivos que os impostos pelos de origem industrial – especialmente em função de seu grande volume de lançamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho tem por objetivo mostrar uma técnica de depuração de circuitos integrados VLSI, utilizando um microscópio eletrônico de varredura (MEV) aliado ao fenômeno de contraste por tensão. São abordadas a descrição da ferramenta, técnicas de observação e depuração dos circuitos, bem como, são sugeridas estratégias de concepção visando facilitar a depuração dos circuitos. Embora tenham sido utilizados circuitos NMOS para realizar as experiências, a técnica é aplicável a circuitos MOS em geral. Resultados experimentais, utilizando circuitos projetados no PGCC, são apresentados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A atividade de teste constitui uma fase de grande importância no processo de desenvolvimento de software, tendo como objetivo garantir um alto grau de confiabilidade nos produtos desenvolvidos. O paradigma da Orientação a Objetos (OO) surgiu com o objetivo de melhorar a qualidade bem como a produtividade no desenvolvimento de aplicações. Entretanto, apesar do aumento constante de aceitação do paradigma OO pela indústria de software, a presença de algumas de suas características torna a atividade de teste de programas neste paradigma mais complexa do que o teste de sistemas tradicionais. Entre estas características cita-se a herança, o encapsulamento, o polimorfismo e a ligação dinâmica [EIS 97] [PRE 95] [UNG 97]. Algumas técnicas estão sendo implementadas para auxiliarem a atividade de teste através do uso da tecnologia de reflexão computacional [HER 99]. Estas técnicas permitem a realização de análises de aspectos dinâmicos dos programas, sem a necessidade de instrumentar o código-fonte das aplicações que estão sendo monitoradas. Com o objetivo de auxiliar o processo de teste de programas orientados a objetos, este trabalho aborda o desenvolvimento de uma ferramenta, a qual automatiza parcialmente o teste de programas escritos em Java. A ferramenta evidencia o teste de estados fazendo uso da tecnologia de reflexão computacional. Através da especificação de asserções, feitas pelo usuário da ferramenta, na forma de invariantes de classe, pré e pós-condições de métodos, é possível verificar a integridade dos estados dos objetos durante a execução do programa em teste. A ferramenta possibilita também, armazenar a seqüência de métodos chamados pelos objetos da aplicação em teste, tornando possível ao testador, visualizar o histórico das interações entre os objetos criados no nível-base.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo, implementação e simulação de geradores de sinais analógicos usando-se circuitos digitais, em forma de CORE, integrando-se este com o microprocessador Risco. As principais características procuradas no gerador de sinais são: facilidade de implementação em silício, programabilidade tanto em freqüência quanto em amplitude, qualidade do sinal e facilidade de integração com um microprocessador genérico. Foi feito um estudo sobre a geração convencional de sinais analógicos, dando-se ênfase em alguns tipos específicos de circuitos como circuitos osciladores sintonizados, multivibradores, geradores de sinais triangulares e síntese de freqüência digital direta. Foi feito também um estudo sobre conversão digital-analógica, onde foram mostrados alguns tipos básicos de conversores D/A. Além disso foram abordadas questões como a precisão desses conversores, tipos digitais de conversores digitalanalógico, circuitos geradores de sinais e as fontes mais comuns de erros na conversão D/A. Dando-se ênfase a um tipo específico de conversor D/A, o qual foi utilizado nesse trabalho, abordou-se a questão da conversão sigma-delta, concentrando-se principalmente no ciclo de formatação de ruído. Dentro desse assunto foram abordados o laço sigma-delta, as estruturas de realimentação do erro, estruturas em cascata, e também o laço quantizador. Foram abordados vários circuitos digitais capazes de gerar sinais analógicos, principalmente senóides. Além de geradores de senóides simples, também se abordou a geração de sinais multi-tom, geração de outros tipos de sinais baseando-se no gerador de senóides e também foi apresentado um gerador de funções. Foram mostradas implementações e resultados dessas. Iniciando-se pelo microprocessador Risco, depois o gerador de sinais, o teste deste, a integração do microprocessador com o gerador de sinais e finalmente a implementação standard-cell do leiaute desse sistema. Por fim foram apresentadas conclusões, comentários e sugestões de trabalhos futuros baseando-se no que foi visto e implementado nesse trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos ultimos anos, com a crescente popularização das redes de computadores baseadas no protocolo IP, desde pequenas redes até metropolitanas começaram a se agrupar e a fazer do que hoje se conhece como a rede mundial de computadores.Apesar dos benefícios de comunicação e troca de informação da Internet, esse feômeno global também trouxe problemas de segurança, pois a origem e estrutura dos protocolos utilizados na comunicação entre as diversas máquinas limitam as possibilidades de prevenir, identificar ou detectar possíveis ataques ou intrusos. Assim, várias ferramentas surgiram para prevenir e auxiliar na tarefa de identicar problemas de segurança nas redes como firewalls, sniffers e sistemas de detecção de intrusão. Apesar dos benefícios trazidos por essas novas tecnologias, surgiram muitas dúvidas referentes a segurança que esses recursos proporcionam. Afinal, o desenvolvimento e validação desses sistemas são procedimentos bastante complexos e, freqüentemente, esses sitemas têm se tornado o alvo primário de um atacante. O resultado disso, não raramente, é uma falsa noção de segurança devido à utilização inadequada desses mecanismos, o que é, normalmente, mais prejudicial do que a simples inexistência de segurança em uma organização, mas cujas falhas são conhecidas por seus administradores. A realização de testes para verificação da segurança de uma organização é uma atividade fundamental a fim de alcançar um ambiente operacional seguro e de verificar a correta aplicação dos requisitos de segurança de uma organização.O uso de testes permite a uma empresa verificar com precisão a postura de segurança utilizada em seus sistemas ao mesmo tempo em que permite visualizar a sua rede da mesma maneira que um atacante a visualizaria. Ao visualizar a rede como atacante, pode-se verificar com que facilidade obtém-se informações da rede, quais suas fragilidades e a dificuldade que se tem para invadí-la. Assim, obtém-se uma visão mais realista da segurança de uma organização. Além de técnicas para a avaliação, é muito importante que se possua ferramentas para a realização desses testes. Assim, é possível automotizar a realização de testes e verificar com maior facilidade a existência de problemas em uma rede. A existência de ferramentas que testem sistemas de segurnaça é extremamente importante e necessária, pois, afinal, a segurança de toda uma rede pode depender fortemente de algum desses sistemas. Este trabalho apresenta as técncias existentes para a injecção de falhas visando verificar as que são mais eficientes para a valiação de sistemas de segurança de rede. Adicionalmente são apresentadas algumas técnicas para o teste de mecanismos de segurança e algumas ferramentas existentes para a realizão de tais testes. A partir desses estudos, é apresentado um modelo de ferramenta adequando as funções de um sistema de injeção de falhas ao teste de mecanismos de segurança em rede. Um protótipo essa ferramenta foi desenvolvido e é apresentado neste trabalho. Esse protótipo permite o envio e o recebimento de pacotes da pilha TCP/IP, podendo testar problemas em protocolos e sistemas utilizados na rede. E, através da utilização de plug-ins, permite que diversos tipos de ataque mais sofisticados possam ser realizados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A avaliação do potencial genotóxico é um importante índice da ação do homem sobre os corpos d’água, complementando os critérios legalmente exigidos na avaliação da qualidade de águas. A bacia do Lago Guaíba é a mais importante do Rio Grande do Sul em termos sócio- econômicos, concentrando em suas margens mais da metade da população e 86% da produção do estado. Esse estudo avaliou o potencial mutagênico de amostras não concentradas das águas superficiais dos rios que compõem a bacia hidrográfica do Guaíba, e do próprio Lago Guaíba, pelo ensaio Salmonella/Microssoma. Paralelamente foi analisada a presença de hidrocarbonetos aromáticos policíclicos (criseno e benzo[a]pireno), de pesticidas (pentaclorofenol, organofosforados e carbamatos), e de elementos inorgânicos, buscando uma possível correlação desses com os efeitos mutagênicos encontrados. As amostras apresentaram fraca atividade mutagênica, sendo detectado um único resultado positivo frente a linhagem TA98, na presença de ativação metabólica em águas coletadas no lago Guaíba próximo a um local de liberação de efluente urbano Foram ainda observados cinco indícios de mutagenicidade, indicando a provável presença de compostos de ação indireta sobre o DNA, que causam mutações do tipo substituição nos pares de bases (detectado pela TA100). Os efeitos tóxicos encontrados foram igualmente pouco intensos, podendo estarem relacionados à presença de elementos inorgânicos detectados acima dos limites permitidos pela resolução número 20 do CONAMA. Além disso, observou-se influência sazonal sobre a resposta mutagênica das amostras de água da bacia do Lago Guaíba. Os resultados nos levam a concluir que os rios que formam a Bacia do Guaíba contribuem com uma parte muito pequena da atividade genotóxica das águas do Lago Guaíba, sendo o grande problema a contaminação por esgoto urbano.