970 resultados para Testes de software


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The different computer softwares developed by the International Center for Living Aquatic Resources (ICLARM) and its functions and uses in fisheries science are presented.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Assessment and management of risk is needed for sustainable use of genetically modified aquatic organisms (aquatic GMOs). A computer software package for safely conducting research with genetically modified fish and shellfish is described. By answering a series of questions about the organism and the accessible aquatic ecosystem, a researcher or oversight authority can either identify specific risks or conclude that there is a specific reason for safety of the experiment. Risk assessment protocols with examples involving transgenic coho salmon, triploid grass carp and hybrid tilapia are described. In case a specific risk is identified, the user is led to consider risk management measures, involving culture methods, facilities design and operations management, to minimize the risk. Key features of the software are its user-friendly organization; easy access to explanatory text, literature citations and glossary; and automated completion of a worksheet. Documented completion of the Performance Standards can facilitate approval of a well designed experiment by oversight authorities.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste estudo in vivo foi avaliar comparativamente três técnicas de clareamento de dentes polpados quanto ao grau de cor final alcançado, sensibilidade dental e satisfação pessoal de operadores e pacientes. Indivíduos jovens de mesma faixa etária e padrão de higiene bucal foram selecionados e divididos aleatoriamente entre os grupos (G1; n=7) caseiro, com regime de uso de 8 h/dia/4 semanas; (G2; n=7) consultório, com regime de clareamento de 4 sessões semanais de 2 aplicações de 15 min cada e; (G3; n=6) associado, com caseiro e consultório combinados. Para as técnicas caseira e de consultório foram utilizados peróxido de carbamida a 16% (WhitegoldHome/Dentsply) e peróxido de hidrogênio a 35% (Whitegold Office/Dentsply), respectivamente. Os registros de cor foram obtidos por um único operador antes e após o emprego da cada técnica utilizando escala de cores Vita Bleachedguide 3D-Master e máquina fotográfica digital profissional (EOS Rebel XT Canon), com ajustes de iluminação, flash e distância focal padronizados. O nível de clareamento foi avaliado por unidades de mudança de cor (luminosidade) na escala de cores, além do número de tons alcançados nas imagens digitais e mudança de cor no sistema CIE L*a*b* por meio do software ScanWhite. Os dados foram tratados estatisticamente pelos testes não paramétricos de Kruskal Wallis e dos sinais (p≤0,05). Os registros de sensibilidade dental trans e pós operatória e da satisfação pessoal dos operadores e pacientes foram preenchidos individualmente em questionário unidimensional ao final de cada sessão. Foram atribuídos escores para a avaliação final da sensibilidade dental, conforme: 0=ausente; 1=leve; 2=moderada e; 3=severa. Os dados foram tratados estatisticamente pelo teste Kruskal Wallis. As médias das variações de unidades de mudança de cor da escala Vita e do software foram, respectivamente: G1) 4,57 (IC1,34), 27,14 (IC12,03); G2) 2,86 (IC0,99), 21,29 (IC14,27); G3) 4 (IC1,82), 25,33 (IC10,70). Na comparação entre os métodos de avaliação de cor, os p-valores do teste dos sinais foram 0,453, 0,453 e 0,687 para os grupos 1, 2 e 3, respectivamente. As médias da variação total de cor (∆E) foram, respectivamente: G1) 8,79(IC4,18), G2) 7,10(IC3,53) e G3) 9,74 (IC4,07). Não foi determinada diferença estatisticamente significante entre os grupos. Os postos médios do nível de sensibilidade foram: G1 = 9,64; G2 = 11,58; e G3 = 10,43, e o p-valor = 0,807. Não houve diferença estatisticamente significante entre grupos. Conclui-se que as técnicas caseiro, consultório e associada foram igualmente eficazes quanto ao nível de cor final, de acordo com os métodos objetivos e subjetivos utilizados. O nível de sensibilidade dental foi o mesmo independentemente da técnica utilizada. Todos os indivíduos registraram satisfação ao final do clareamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Amostras de DNA são encontradas em fragmentos, obtidos em vestígios de uma cena de crime, ou coletados de amostras de cabelo ou sangue, para testes genéticos ou de paternidade. Para identificar se esse fragmento pertence ou não a uma sequência de DNA, é necessário compará-los com uma sequência determinada, que pode estar armazenada em um banco de dados para, por exemplo, apontar um suspeito. Para tal, é preciso uma ferramenta eficiente para realizar o alinhamento da sequência de DNA encontrada com a armazenada no banco de dados. O alinhamento de sequências de DNA, em inglês DNA matching, é o campo da bioinformática que tenta entender a relação entre as sequências genéticas e suas relações funcionais e parentais. Essa tarefa é frequentemente realizada através de softwares que varrem clusters de base de dados, demandando alto poder computacional, o que encarece o custo de um projeto de alinhamento de sequências de DNA. Esta dissertação apresenta uma arquitetura de hardware paralela, para o algoritmo BLAST, que permite o alinhamento de um par de sequências de DNA. O algoritmo BLAST é um método heurístico e atualmente é o mais rápido. A estratégia do BLAST é dividir as sequências originais em subsequências menores de tamanho w. Após realizar as comparações nessas pequenas subsequências, as etapas do BLAST analisam apenas as subsequências que forem idênticas. Com isso, o algoritmo diminui o número de testes e combinações necessárias para realizar o alinhamento. Para cada sequência idêntica há três etapas, a serem realizadas pelo algoritmo: semeadura, extensão e avaliação. A solução proposta se inspira nas características do algoritmo para implementar um hardware totalmente paralelo e com pipeline entre as etapas básicas do BLAST. A arquitetura de hardware proposta foi implementada em FPGA e os resultados obtidos mostram a comparação entre área ocupada, número de ciclos e máxima frequência de operação permitida, em função dos parâmetros de alinhamento. O resultado é uma arquitetura de hardware em lógica reconfigurável, escalável, eficiente e de baixo custo, capaz de alinhar pares de sequências utilizando o algoritmo BLAST.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho investiga a implementação de sistemas fuzzy com circuitos eletrônicos. Tais sistemas têm demonstrado sua capacidade de resolver diversos tipos de problemas em várias aplicações de engenharia, em especial nas relacionadas com controle de processos. Para processos mais complexos, o raciocínio aproximado da lógica fuzzy fornece uma maneira de compreender o comportamento do sistema, permitindo a interpolação aproximada entre situações observadas de entrada e saída. A implementação de um sistema fuzzy pode ser baseada em hardware, em software ou em ambos. Tipicamente, as implementações em software utilizam ambientes de programação integrados com simulação, de modo a facilitar o trabalho do projetista. As implementações em hardware, tradicionais ou evolutivas, podem ser analógicas ou digitais e viabilizam sistemas de maior desempenho. Este trabalho tem por objetivo pesquisar a implementação eletrônica de sistemas fuzzy, a fim de viabilizar a criação de sistemas reais capazes de realizar o mapeamento de entrada e saída adequado. O foco é a utilização de uma plataforma com uma arquitetura analógico-digital baseada em uma tabela de mapeamento armazenada em uma memória de alta capacidade. Memórias do tipo SD (Secure Digital) foram estudadas e utilizadas na construção do protótipo eletrônico da plataforma. Também foram desenvolvidos estudos sobre a quantização, especificamente sobre a possibilidade de redução do número de bits. Com a implementação realizada é possível desenvolver um sistema fuzzy num ambiente simulado (Matlab), configurar a plataforma e executar o sistema fuzzy diretamente na plataforma eletrônica. Os testes com o protótipo construído comprovaram seu bom funcionamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sinais diversos estão presentes em nosso cotidiano, assim como nas medidas realizadas nas atividades de ciência e tecnologia. Dentre estes sinais, tem grande importância tecnológica aqueles associados à corrosão de estruturas metálicas. Assim, esta tese propõe o estudo de um esquema local de transformada de Fourier janelada, com a janela variando em função da curtose, aplicada a sinais de ruído eletroquímico. A curtose foi avaliada nos domínios do tempo e da frequência e processada pelo programa desenvolvido para esse fim. O esquema foi aplicado a sinais de ruído eletroquímico dos aços UNS S31600, UNS G10200 e UNS S32750 imersos em três soluções: FeCl3 0,1 mol=L (cloreto férrico), H2SO4 5%(ácido sulfúrico) e NaOH 0,1%(hidróxido de sódio). Para os aços inoxidáveis, estas soluções promovem corrosão localizada, uniforme e passivação, respectivamente. Visando testar o desempenho do esquema de Fourier desenvolvido, testes foram realizados utilizando-se inicialmente sinais sintéticos e em seguida sinais de ruído eletroquímico. Notou-se que os sinais têm características de não-estacionaridade e a maior parte da energia está presente em baixa frequência. Os intervalos de tempo e de frequência onde se concentra a maior parte da energia do sinal foram correlacionados. Para os picos máximos dos sinais de potencial e corrente obtidos de amperimetria de resistência nula, a correlação entre eles foi baixa, independente da forma de corrosão presente. Conclui-se que o método se adaptou bastante bem às características locais do sinal eletroquímico permitindo o monitoramento dos espectros tempo-frequência. O fato de ser sensível às características locais do sinal permite analisar aspectos dos sinais que do modo clássico não podem ser diretamente processados. O método da transformada de Fourier janelada variável (Variable Short-Time Fourier Transform - VSTFT) adaptou-se muito bem no monitoramento dos sinais originados de potencial de circuito aberto e amperimetria de resistência nula.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Jogos educacionais constituem em uma importante ferramenta de ensino na área de Engenharia de Software, onde, muitas vezes, os alunos não passam por nenhum mecanismo de treinamento prático. Um jogo educacional de qualidade tem que ter objetivos educacionais bem definidos, motivar os alunos e efetivar a aprendizagem dos conteúdos. A aplicação de jogos no Ensino de Engenharia de Software deve ser realizada de forma sistemática e controlada com base em avaliação. A técnica Estatística de Experimentação permite a medição e a análise das variáveis envolvidas no processo de aplicação de jogos para que estes possam ser aplicados com qualidade. Para definir melhor os experimentos no uso de jogos para o ensino de Engenharia de Software, este trabalho propõe diretrizes para o planejamento de experimentos em jogos educacionais, de forma que permita verificar a influência e a significância da utilização desses jogos no ensino e aprendizado dos conceitos de Engenharia de Software. Um experimento com o SimulES-W foi realizado seguindo essas diretrizes, onde foi possível ser demonstrada sua aplicabilidade e simplicidade em sua definição. A experiência de uso do SimulES-W mostra que aprender com jogos de computador é divertido, interativo e que, apesar dos resultados obtidos não serem significativos estatisticamente, de certa forma contribui para o ensino da Engenharia de Software, não sendo necessariamente um conhecimento prévio do conteúdo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é avaliar os riscos de ocorrências de intrusos em um sistema de computação em nuvem para sistemas distribuídos utilizando lógica nebulosa. A computação em nuvem é um tema que vem sendo bastante abordado e vem alavancando discussões calorosas, tanto na comunidade acadêmica quanto em palestras profissionais. Embora essa tecnologia esteja ganhando mercado, alguns estudiosos encontram-se céticos afirmando que ainda é cedo para se tirar conclusões. Isto se deve principalmente por causa de um fator crítico, que é a segurança dos dados armazenados na nuvem. Para esta dissertação, foi elaborado um sistema distribuído escrito em Java com a finalidade de controlar um processo de desenvolvimento colaborativo de software na nuvem, o qual serviu de estudo de caso para avaliar a abordagem de detecção de intrusos proposta. Este ambiente foi construído com cinco máquinas (sendo quatro máquinas virtuais e uma máquina real). Foram criados dois sistemas de inferência nebulosos, para análise de problemas na rede de segurança implementados em Java, no ambiente distribuído. Foram realizados diversos testes com o intuito de verificar o funcionamento da aplicação, apresentando um resultado satisfatório dentro dessa metodologia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta dissertação foi criar uma nova abordagem para identificar de maneira automática feições do tipo edificação em uma imagem digital. Tal identificação seria de interesse de órgãos públicos que lidam com planejamento urbano para fins de controle da ocupação humana irregular. A abordagem criada utilizou agentes de software especialistas para proceder com o processamento da segmentação e reconhecimento de feições na imagem digital. Os agentes foram programados para tratar uma imagem colorida com o padrão Red, Green e Blue (RGB). A criação desta nova abordagem teve como motivação o fato das atuais técnicas existentes de segmentação e classificação de imagens dependerem sobremaneira dos seus usuários. Em outras palavras, pretendeu-se com a abordagem em questão permitir que usuários menos técnicos pudessem interagir com um sistema classificador, sem a necessidade de profundos conhecimentos de processamento digital de imagem. Uma ferramenta protótipo foi desenvolvida para testar essa abordagem, que emprega de forma inusitada, agentes inteligentes, com testes feitos em recortes de ortofotos digitais do Município de Angra dos Reis (RJ).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Estado do Rio de Janeiro possui indicadores de produção muito baixos na realização de exames de câncer de mama. Na tentativa de melhorar o acesso aos exames, principalmente em regiões com baixa densidade populacional onde a aquisição de mamógrafos não é custo-efetiva, o uso da mamografia móvel é uma alternativa para aumentar a execução de exames de rastreamento de câncer de mama. O objetivo desta pesquisa é a construção de um modelo computacional para definir a alocação de mamógrafos móveis. O Modelo considera as variáveis associadas com os custos e prazos, indicando quando, onde e por quanto tempo, as unidades móveis de mamografia devem permanecer em cada cidade. O modelo foi construído no software de modelagem e simulação Anylogic, usando técnicas de modelagem baseada em agentes. O principal resultado é determinar o percurso de cada veículo disponível, para oferecer a cobertura desejada em cada cidade. Todas as entradas são parametrizadas, permitindo simular diferentes cenários e fornecer informações importantes para o processo de tomada de decisão. O horizonte de tempo, número de mamógrafos (fixos e móveis), a cobertura desejada da população, a capacidade de produção de cada dispositivo, a adesão da população urbana e rural, entre outras variáveis, foram consideradas no modelo. Os dados da Região Serrana do Rio de Janeiro foram usados nas simulações, onde menos de metade das cidades possuem mamógrafos fixos. Com o modelo proposto foi possível determinar a distribuição de cada dispositivo físico e o número ótimo de unidades móveis de mamografia para oferecer cobertura à totalidade da população no ciclo de dois anos. O número de mamógrafos para oferecer cobertura de toda a população da região poderia ser reduzido pela metade com o modelo de alocação proposto neste trabalho. A utilização de mamografia móvel, em conjunto com a rede existente de mamógrafos fixos, procura maximizar a disponibilização de exames de testes de diagnóstico de câncer de mama no estado do Rio de Janeiro. O desenvolvimento de um modelo de roteamento que aperfeiçoa a cobertura de rastreio do câncer de mama é apresentado como um complemento importante na tentativa de melhorar o acesso à população residente em áreas urbanas e rurais dos municípios.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os profissionais da área da saúde formam um dos grupos mais vulneráveis à infecção pelo Mycobacterium tuberculosis (Mtb). Segundo estimativas da Organização Mundial de Saúde (OMS), 8,8 milhões de pessoas estavam infectadas pelo Mtb e ocorreram 1,4 milhão de óbitos por tuberculose (TB) em 2010. A identificação de pessoas com Infecção Latente Tuberculosa (ILTB) é considerada pela OMS como uma prioridade no controle da doença, especialmente em países em desenvolvimento em que a incidência da doença ativa tem apresentado redução. O objetivo do presente trabalho foi avaliar, no Brasil, o custo-efetividade dos testes Prova Tuberculínica (PT) e Quantiferon TB Gold-In-Tube (QTF-GIT) no diagnóstico e tratamento da ILTB em profissionais de saúde atuantes na atenção básica, sob a perspectiva do Sistema Único de Saúde (SUS), comparando cinco estratégias que incluem o QTF-GIT, distintos pontos de corte para a PT e uso sequencial dos dois testes; e analisar o impacto do tabagismo sobre o risco de ILTB entre os profissionais de saúde, destacando-se a categoria da Enfermagem. Foi realizada uma avaliação econômica completa do tipo custo-efetividade, conduzida considerando uma coorte hipotética de 10.000 profissionais de saúde atuantes na atenção básica, com horizonte temporal restrito a um ano. Um modelo analítico de decisão, caracterizado por uma árvore de probabilidades de eventos, foi desenvolvido utilizando o software TreeAge ProTM 2013 para simular os resultados clínicos e impactos econômicos em saúde da nova tecnologia diagnóstica (QTF-GIT) versus a PT tradicional. Esse modelo simulou cinco estratégias diagnósticas para detecção e tratamento da ILTB: (a) PT, usando ponto de corte de 5mm; (b) PT, usando ponto de corte de 10 mm; (c) teste QTF-GIT; (d) PT, com ponto de corte de 5mm, seguida de teste QTF-GIT quando PT positiva; (e) PT, com ponto de corte de 10mm, seguida de teste QTF-GIT quando PT positiva. Foi realizada análise de sensibilidade determinística univariada. Na determinação dos fatores associados à ILTB, foi elaborado um modelo de regressão logística múltipla com seleção hierarquizada, utilizando o software Stata. A estratégia mais custo-efetiva foi a PT no ponto de corte ≥10mm, considerando como medida de desfecho tanto o número de indivíduos corretamente classificados pelos testes assim como o número de casos de TB evitados. A utilização isolada do QTF-GIT revelou-se a estratégia de menor eficiência, com RCEI= R$ 343,24 por profissional corretamente classificado pelo teste. Encontrou-se risco à ILTB significantemente maior para sexo masculino [OR=1,89; IC 95%:1,11-3,20], idade ≥ 41 anos [OR=1,56; IC 95%: 1.09-2,22], contato próximo com familiar com TB [OR=1,55; IC 95%: 1.02-2,36], status do tabagismo fumante [OR=1,75; IC 95%: 1.03-2,98] e categoria profissional da Enfermagem [OR=1,44; IC 95%: 1.02-2,03]. Concluiu-se que a PT no ponto de corte de 10mm é a estratégia diagnóstica mais custo-efetiva para ILTB entre os profissionais de saúde na atenção básica e que a ILTB está associada ao hábito do tabagismo e à categoria profissional de Enfermagem.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho tem por objetivo testar a hipótese levantada por Reinhart e Rogoff acerca da relação entre dívida pública e crescimento econômico. Para isso utilizamos um modelo empírico baseado no modelo teórico de crescimento neoclássico acrescido de algumas variáveis econômicas comprovadamente relevantes, utilizando dados em painel numa amostra com 86 países no período de 1983 até 2013. Encontramos evidências que confirmam em parte a hipótese levantada por Reinhart e Rogoff, isto é, a dívida pública apresentou uma relação negativa com o crescimento econômico, no entanto não fomos capazes de encontrar um threshold onde a magnitude de tal efeito fosse aumentada.