995 resultados para reprodutibilidade dos testes


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A significant observational effort has been directed to investigate the nature of the so-called dark energy. In this dissertation we derive constraints on dark energy models using three different observable: measurements of the Hubble rate H(z) (compiled by Meng et al. in 2015.); distance modulus of 580 Supernovae Type Ia (Union catalog Compilation 2.1, 2011); and the observations of baryon acoustic oscilations (BAO) and the cosmic microwave background (CMB) by using the so-called CMB/BAO of six peaks of BAO (a peak determined through the Survey 6dFGS data, two through the SDSS and three through WiggleZ). The statistical analysis used was the method of the χ2 minimum (marginalized or minimized over h whenever possible) to link the cosmological parameter: m, ω and δω0. These tests were applied in two parameterization of the parameter ω of the equation of state of dark energy, p = ωρ (here, p is the pressure and ρ is the component of energy density). In one, ω is considered constant and less than -1/3, known as XCDM model; in the other the parameter of state equantion varies with the redshift, where we the call model GS. This last model is based on arguments that arise from the theory of cosmological inflation. For comparison it was also made the analysis of model CDM. Comparison of cosmological models with different observations lead to different optimal settings. Thus, to classify the observational viability of different theoretical models we use two criteria information, the Bayesian information criterion (BIC) and the Akaike information criteria (AIC). The Fisher matrix tool was incorporated into our testing to provide us with the uncertainty of the parameters of each theoretical model. We found that the complementarity of tests is necessary inorder we do not have degenerate parametric spaces. Making the minimization process we found (68%), for the Model XCDM the best fit parameters are m = 0.28 ± 0, 012 and ωX = −1.01 ± 0, 052. While for Model GS the best settings are m = 0.28 ± 0, 011 and δω0 = 0.00 ± 0, 059. Performing a marginalization we found (68%), for the Model XCDM the best fit parameters are m = 0.28 ± 0, 012 and ωX = −1.01 ± 0, 052. While for Model GS the best settings are M = 0.28 ± 0, 011 and δω0 = 0.00 ± 0, 059.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A significant observational effort has been directed to investigate the nature of the so-called dark energy. In this dissertation we derive constraints on dark energy models using three different observable: measurements of the Hubble rate H(z) (compiled by Meng et al. in 2015.); distance modulus of 580 Supernovae Type Ia (Union catalog Compilation 2.1, 2011); and the observations of baryon acoustic oscilations (BAO) and the cosmic microwave background (CMB) by using the so-called CMB/BAO of six peaks of BAO (a peak determined through the Survey 6dFGS data, two through the SDSS and three through WiggleZ). The statistical analysis used was the method of the χ2 minimum (marginalized or minimized over h whenever possible) to link the cosmological parameter: m, ω and δω0. These tests were applied in two parameterization of the parameter ω of the equation of state of dark energy, p = ωρ (here, p is the pressure and ρ is the component of energy density). In one, ω is considered constant and less than -1/3, known as XCDM model; in the other the parameter of state equantion varies with the redshift, where we the call model GS. This last model is based on arguments that arise from the theory of cosmological inflation. For comparison it was also made the analysis of model CDM. Comparison of cosmological models with different observations lead to different optimal settings. Thus, to classify the observational viability of different theoretical models we use two criteria information, the Bayesian information criterion (BIC) and the Akaike information criteria (AIC). The Fisher matrix tool was incorporated into our testing to provide us with the uncertainty of the parameters of each theoretical model. We found that the complementarity of tests is necessary inorder we do not have degenerate parametric spaces. Making the minimization process we found (68%), for the Model XCDM the best fit parameters are m = 0.28 ± 0, 012 and ωX = −1.01 ± 0, 052. While for Model GS the best settings are m = 0.28 ± 0, 011 and δω0 = 0.00 ± 0, 059. Performing a marginalization we found (68%), for the Model XCDM the best fit parameters are m = 0.28 ± 0, 012 and ωX = −1.01 ± 0, 052. While for Model GS the best settings are M = 0.28 ± 0, 011 and δω0 = 0.00 ± 0, 059.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Survival models deals with the modelling of time to event data. In certain situations, a share of the population can no longer be subjected to the event occurrence. In this context, the cure fraction models emerged. Among the models that incorporate a fraction of cured one of the most known is the promotion time model. In the present study we discuss hypothesis testing in the promotion time model with Weibull distribution for the failure times of susceptible individuals. Hypothesis testing in this model may be performed based on likelihood ratio, gradient, score or Wald statistics. The critical values are obtained from asymptotic approximations, which may result in size distortions in nite sample sizes. This study proposes bootstrap corrections to the aforementioned tests and Bartlett bootstrap to the likelihood ratio statistic in Weibull promotion time model. Using Monte Carlo simulations we compared the nite sample performances of the proposed corrections in contrast with the usual tests. The numerical evidence favors the proposed corrected tests. At the end of the work an empirical application is presented.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os classificadores múltiplos são processos que utilizam um conjunto de modelos, cada um deles obtido pela aplicação de um processo de aprendizagem para um problema dado. Combinam vários classificadores individuais, em que para cada um deles são utilizados dados de treino para gerar limites de decisão diferentes. As decisões produzidas pelos classificadores individuais contém erros, que são combinados pelos classificadores múltiplos de forma a reduzir o erro total. Estes têm vindo a ganhar uma crescente importância devido principalmente ao facto de permitirem obter um melhor desempenho quando comparado com o obtido por qualquer um dos modelos que o compõem, principalmente quando as correlações entre os erros cometidos pelos modelos de base são baixos. A investigação nesta área tem crescido, tornando-se uma área de investigação importante. No entanto, para que o desempenho seja melhor do que o desempenho obtido por cada classificador individualmente, é necessário que cada um deles produza uma decisão diferente originando uma diversidade de classificação. Esta diversidade pode ser obtida tanto pela utilização de diferentes conjuntos de dados para o treino individual de cada classificador, como também pela utilização de diferentes parâmetros de formação de diferentes classificadores. Apesar disso, a utilização de classificadores múltiplos para aplicações no mundo real pode apresentar-se como dispendiosa e morosa. Tem-se notado nos dias de hoje que o desenvolvimento web tem vindo a crescer exponencialmente, assim como o uso de bases de dados. Desta forma, combinando a forte utilização da linguagem R para cálculos estatísticos com a crescente utilização das tecnologias web, foi implementado um protótipo que facilitasse a utilização dos classificadores múltiplos, mais precisamente, foi desenvolvida uma aplicação web que permitisse o teste para aprendizagem com classificadores múltiplos, sendo utilizadas as tecnologias PHP, R e MySQL. Com esta aplicação pretende-se que seja possível testar algoritmos independentes do software em que estejam desenvolvidos, não sendo necessariamente escritos em R. Nesta Dissertação foi utilizada a expressão “classificadores múltiplos” por ser a mais comum, apesar de ser redutora e existirem outros termos mais genéricos como por exemplo modelos múltiplos e ensemble learning.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estereopsia define-se como a perceção de profundidade baseada na disparidade retiniana. A estereopsia global depende do processamento de estímulos de pontos aleatórios e a estereopsia local depende da perceção de contornos. O objetivo deste estudo é correlacionar três testes de estereopsia: TNO®, StereoTAB® e Fly Stereo Acuity Test® e verificar a sensibilidade e correlação entre eles, tendo o TNO® como gold standard. Incluíram-se 49 estudantes da Escola Superior de Tecnologia da Saúde de Lisboa (ESTeSL) entre os 18 e 26 anos. As variáveis ponto próximo de convergência (ppc), vergências, sintomatologia e correção ótica foram correlacionadas com os três testes. Os valores médios (desvios-padrão) de estereopsia foram: TNO® = 87,04’’ ±84,09’’; FlyTest® = 38,18’’ ±34,59’’; StereoTAB® = 124,89’’ ±137,38’’. Coeficiente de determinação: TNO® e StereoTAB® com R2=0,6 e TNO® e FlyTest® com R2=0,2. O coeficiente de correlação de Pearson mostra uma correlação positiva de entre o TNO® e o StereoTAB® (r=0,784 com α=0,01). O coeficiente de associação de Phi mostrou uma relação positiva forte entre o TNO® e StereoTAB® (Φ=0,848 com α=0,01). Na curva ROC, o StereoTAB® possui uma área sob a curva maior que o FlyTest®, apresentando valor de sensibilidade de 92,3% para uma especificidade de 94,4%, tornando-o num teste sensível e com bom poder discriminativo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Graças ao aumento da esperança média de vida do ser humano, a engenharia de tecidos tem sido uma área alvo de enorme investigação. A utilização de estruturas tridimensionais porosas e biodegradáveis, denominadas de scaffolds, como matriz para a adesão e proliferação celular tem sido amplamente investigada. Existem atualmente diversas técnicas para a produção destas estruturas mas o grau de exigência tem vindo a aumentar, existindo ainda lacunas que necessitam ser preenchidas. A técnica de robocasting consiste numa deposição camada a camada de uma pasta coloidal, seguindo um modelo computorizado (CAD) e permite a produção de scaffolds com porosidade tamanho de poro e fração de porosidade controlados, boa reprodutibilidade, e com formas variadas, as quais podem ser idênticas às dos defeitos ósseos a preencher. O presente estudo teve como objetivo produzir scaffolds porosos à base de fosfatos de cálcio através de robocasting. Para tal, foram estudadas duas composições de pós à base de β-TCP, uma pura e outra co-dopada com estrôncio, zinco e manganês. Inicialmente os pós foram sintetizados pelo método de precipitação química por via húmida. Após a síntese, estes foram filtrados, secos, calcinados a 1000ºC e posteriormente moídos até possuírem um tamanho médio de partícula de cerca de 1,5 μm. Os pós foram depois peneirados com uma malha de 40μm e caracterizados. Posteriormente foram preparadas várias suspensões e avaliado o seu comportamento reológico, utilizando Targon 1128 como dispersante, Hidroxipropilmetilcelulose (HPMC) como ligante e polietilenimina (PEI) como agente floculante. Por fim, e escolhida a melhor composição para a formação da pasta, foram produzidos scaffolds com diferentes porosidades, num equipamento de deposição robótica (3D Inks, LLC). Os scaffolds obtidos foram secos à temperatura ambiente durante 48 horas, sinterizados a 1100ºC e posteriormente caracterizados por microscopia eletrónica de varrimento (SEM), avaliação dos tamanhos de poro, porosidade total e testes mecânicos. Ambas as composições estudadas puderam ser transformadas em pastas extrudíveis, mas a pasta da composição pura apresentou uma consistência mais próxima do ideal, tendo originado scaffolds de melhor qualidade em termos de microestrutura e de propriedades mecânicas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Agenda: 1- Definição e Conceitos Testes Rápidos: “Testes Laboratoriais Remotos (POCT)” 2- Fases do Processo Analítico e Controlo de Qualidade 3- Estudo em Portugal: Utilização dos Testes Rápidos em Instituições de Saúde (2012) Apresentação dos dados do questionário ProMeQuaLab (2015) 4- Experiência na Europa 5- Sistema de Gestão da Qualidade Legislação, Normas ISO e Guidelines 6- Perspetivas

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A dificuldade em conhecer o histórico de temperatura de um alimento, desde sua produção até o consumo, torna difícil prever sua verdadeira vida-útil. O uso de indicadores de tempo e temperatura (ITT) pode ser uma alternativa inovadora empregada para garantir a validade de produtos de forma dinâmica. Assim, este trabalho visa desenvolver novos indicadores enzimáticos de tempo e temperatura para monitorar a qualidade de alimentos perecíveis durante o seu processamento e armazenamento, baseados na reação de complexação entre o amido e o iodo (azul), e na posterior atuação de uma enzima amilase sobre esse complexo, para causar uma redução da intensidade da cor azul a uma taxa dependente do tempo e da temperatura de armazenagem. Os sistemas inteligentes propostos possuem versatilidade de atuação em função do tipo e quantidade de amilase empregada. Desta forma, foi utilizada uma amilase termoestável para a formulação de um indicador inteligente de processamento, utilizado para o controle de tratamentos térmicos industriais (pasteurização);e uma amilase termosensível na formulação de um indicador de armazenamento, empregada para o controle das condições de temperatura durante a cadeia de frio de produtos perecíveis. Na elaboração dos ITT de processamento foram realizadas simulações em laboratório e testes em planta fabril, os quais avaliaram diferentes concentrações de amilase termoestável nos protótipos de ITT quando submetidos as condições de tempo e temperatura de pasteurização. Os resultados evidenciaram que a resposta de cor dos indicadores foi visualmente interpretada, como adaptável à medição usando equipamentos, apresentando boa reprodutibilidade em todas as condições estudadas. O ITT contendo 6,5 % de amilase termoestável (penzima/pamido) foi aquele cujo resultado melhor se adequou à utilização na validação de cozimento de presunto. Nesta condição, o protótipo anexado à embalagem primária do produto indicou o processo de pasteurização de forma fácil, precisa e não destrutiva. Já durante o desenvolvimento do ITT de armazenamento foram realizadas simulações em laboratório, testes em planta fabril e ponto de venda, os quais avaliaram o uso de diferentes concentrações de amilase termosensível nos protótipos de ITT quando submetidos a diversas condições de cadeia de frio. Os resultados evidenciaram que devido à possibilidade de definir a vida-útil destes protótipos variando as concentrações de enzima termosensível, os indicadores podem ser facilmente adaptados para controlar as condições de temperatura durante a cadeia de diversos alimentos perecíveis. O protótipo contendo 60 % de amilase termosensível (penzima/pamido) foi aquele cujo resultado melhor se adequou à utilização no controle da cadeia avícola. Assim, o ITT indicou visualmente o histórico de tempo e temperatura de produtos à base de frango de forma fácil e precisa. Os resultados obtidos na avaliação das percepções dos consumidores frente ao emprego de indicadores inteligentes em embalagens alimentícias mostraram que o uso de ITT é uma inovação receptiva, com consequente aceitação e intenção de compra elevada pela população brasileira. Assim, com este trabalho espera-se contribuir efetivamente para que o conceito de embalagens inteligentes possa ser aceito comercialmente e que sejam estabelecidas no Brasil normas que regulamentem seu uso, conferindo benefícios à conservação de grande variedade de alimentos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, Programa de Pós-Graduação em Estatística, 2015.