908 resultados para Medida de probabilidade


Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Avaliar as diferenças entre três métodos para medida do infarto experimental em ratos, em relação ao método tradicional. MÉTODOS: A área infartada por histologia (AREA), o perímetro interno da cavidade infartada por histologia (PER) e o perímetro interno por ecocardiograma (ECO) foram comparados ao método tradicional (análise histológica das circunferências epicárdicas e endocárdicas da região infartada - CIR). Utilizaram-se ANOVA de medidas repetidas, complementada com o teste de comparações múltiplas de Dunn, o método de concordância de Bland & Altman e o teste de correlação de Spearman. A significância foi p < 0,05. RESULTADOS: Foram analisados dados de 122 animais, após 3 a 6 meses do infarto. Houve diferença na avaliação do tamanho do infarto entre CIR e os outros três métodos (p < 0,001): CIR = 42,4% (35,9-48,8), PER = 50,3% (39,1-57,0), AREA = 27,3% (20,2-34,3), ECO = 46,1% (39,9-52,6). Assim, a medida por área resultou em subestimação de 15% do tamanho do infarto, enquanto as medidas por ecocardiograma e pelo perímetro interno por meio de histologia resultaram em superestimação do tamanho do infarto de 4% e 5%, respectivamente. em relação ao ECO e PER, apesar de a diferença entre os métodos ser de apenas 1,27%, o intervalo de concordância variou de 24,1% a -26,7%, sugerindo baixa concordância entre os métodos. em relação às associações, houve correlações estatisticamente significativas entre: CIR e PER (r = 0,88 e p < 0,0001); CIR e AREA (r = 0,87 e p < 0,0001) e CIR e ECO (r = 0,42 e p < 0,0001). CONCLUSÃO: Na determinação do tamanho do infarto, apesar da alta correlação, houve baixa concordância entre os métodos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this work, we propose a two-stage algorithm for real-time fault detection and identification of industrial plants. Our proposal is based on the analysis of selected features using recursive density estimation and a new evolving classifier algorithm. More specifically, the proposed approach for the detection stage is based on the concept of density in the data space, which is not the same as probability density function, but is a very useful measure for abnormality/outliers detection. This density can be expressed by a Cauchy function and can be calculated recursively, which makes it memory and computational power efficient and, therefore, suitable for on-line applications. The identification/diagnosis stage is based on a self-developing (evolving) fuzzy rule-based classifier system proposed in this work, called AutoClass. An important property of AutoClass is that it can start learning from scratch". Not only do the fuzzy rules not need to be prespecified, but neither do the number of classes for AutoClass (the number may grow, with new class labels being added by the on-line learning process), in a fully unsupervised manner. In the event that an initial rule base exists, AutoClass can evolve/develop it further based on the newly arrived faulty state data. In order to validate our proposal, we present experimental results from a level control didactic process, where control and error signals are used as features for the fault detection and identification systems, but the approach is generic and the number of features can be significant due to the computationally lean methodology, since covariance or more complex calculations, as well as storage of old data, are not required. The obtained results are significantly better than the traditional approaches used for comparison

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Two-level factorial designs are widely used in industrial experimentation. However, many factors in such a design require a large number of runs to perform the experiment, and too many replications of the treatments may not be feasible, considering limitations of resources and of time, making it expensive. In these cases, unreplicated designs are used. But, with only one replicate, there is no internal estimate of experimental error to make judgments about the significance of the observed efects. One of the possible solutions for this problem is to use normal plots or half-normal plots of the efects. Many experimenters use the normal plot, while others prefer the half-normal plot and, often, for both cases, without justification. The controversy about the use of these two graphical techniques motivates this work, once there is no register of formal procedure or statistical test that indicates \which one is best". The choice between the two plots seems to be a subjective issue. The central objective of this master's thesis is, then, to perform an experimental comparative study of the normal plot and half-normal plot in the context of the analysis of the 2k unreplicated factorial experiments. This study involves the construction of simulated scenarios, in which the graphics performance to detect significant efects and to identify outliers is evaluated in order to verify the following questions: Can be a plot better than other? In which situations? What kind of information does a plot increase to the analysis of the experiment that might complement those provided by the other plot? What are the restrictions on the use of graphics? Herewith, this work intends to confront these two techniques; to examine them simultaneously in order to identify similarities, diferences or relationships that contribute to the construction of a theoretical reference to justify or to aid in the experimenter's decision about which of the two graphical techniques to use and the reason for this use. The simulation results show that the half-normal plot is better to assist in the judgement of the efects, while the normal plot is recommended to detect outliers in the data

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In the work reported here we present theoretical and numerical results about a Risk Model with Interest Rate and Proportional Reinsurance based on the article Inequalities for the ruin probability in a controlled discrete-time risk process by Ros ario Romera and Maikol Diasparra (see [5]). Recursive and integral equations as well as upper bounds for the Ruin Probability are given considering three di erent approaches, namely, classical Lundberg inequality, Inductive approach and Martingale approach. Density estimation techniques (non-parametrics) are used to derive upper bounds for the Ruin Probability and the algorithms used in the simulation are presented

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In general, an inverse problem corresponds to find a value of an element x in a suitable vector space, given a vector y measuring it, in some sense. When we discretize the problem, it usually boils down to solve an equation system f(x) = y, where f : U Rm ! Rn represents the step function in any domain U of the appropriate Rm. As a general rule, we arrive to an ill-posed problem. The resolution of inverse problems has been widely researched along the last decades, because many problems in science and industry consist in determining unknowns that we try to know, by observing its effects under certain indirect measures. Our general subject of this dissertation is the choice of Tykhonov´s regulaziration parameter of a poorly conditioned linear problem, as we are going to discuss on chapter 1 of this dissertation, focusing on the three most popular methods in nowadays literature of the area. Our more specific focus in this dissertation consists in the simulations reported on chapter 2, aiming to compare the performance of the three methods in the recuperation of images measured with the Radon transform, perturbed by the addition of gaussian i.i.d. noise. We choosed a difference operator as regularizer of the problem. The contribution we try to make, in this dissertation, mainly consists on the discussion of numerical simulations we execute, as is exposed in Chapter 2. We understand that the meaning of this dissertation lays much more on the questions which it raises than on saying something definitive about the subject. Partly, for beeing based on numerical experiments with no new mathematical results associated to it, partly for being about numerical experiments made with a single operator. On the other hand, we got some observations which seemed to us interesting on the simulations performed, considered the literature of the area. In special, we highlight observations we resume, at the conclusion of this work, about the different vocations of methods like GCV and L-curve and, also, about the optimal parameters tendency observed in the L-curve method of grouping themselves in a small gap, strongly correlated with the behavior of the generalized singular value decomposition curve of the involved operators, under reasonably broad regularity conditions in the images to be recovered

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis aims to show teachers and students in teaching and learning in a study of Probability High School, a subject that sharpens the perception and understanding of the phenomea of the random nature that surrounds us. The same aims do with people who are involved in this process understand basic ideas of probability and, when necessary, apply them in the real world. We seek to draw a matched between intuition and rigor and hope therebyto contribute to the work of the teacher in the classroom and the learning process of students, consolidating, deepening and expaning what they have learned in previous contents

Relevância:

20.00% 20.00%

Publicador:

Resumo:

INTRODUÇÃO: A pressão intra-ocular (Po) é o fator de risco isolado mais importante para o desenvolvimento do glaucoma primário de ângulo aberto (GPAA). O controle da Po é o objetivo principal da terapia antiglaucomatosa até o momento. A curva tensional diária (CTD) é de grande importância para o diagnóstico e seguimento do glaucoma primário de ângulo aberto. Métodos simplificados como a minicurva têm sido utilizados em seu lugar por serem mais práticos. OBJETIVO: Comparar curva tensional diária, minicurva e medida isolada às 6 horas quanto à detecção de picos pressóricos e verificar a influência da variação postural na medida das 6 horas da manhã. MÉTODOS: Sessenta e quatro pacientes (126 olhos) com glaucoma primário de ângulo aberto ou suspeita de glaucoma foram submetidos à curva tensional diária. A minicurva considerou as medidas das 9, 12, 15 e 18 horas da mesma curva tensional diária. A medida das 6 horas foi realizada no escuro, com o paciente deitado, utilizando o tonômetro de Perkins. Logo após, foi feita nova medida, com o paciente sentado, usando o tonômetro de Goldmann. A Po média e a ocorrência de picos (Po > 21 mmHg) da curva tensional diária e minicurva foram comparados, assim como o horário de ocorrência dos picos. RESULTADOS: A Po média foi maior no glaucoma primário de ângulo aberto do que nos suspeitos tanto na minicurva como na curva tensional diária Quando comparadas, a curva tensional diária apresentou médias de Po maiores que a minicurva. A medida das 6 horas foi maior quando feita com o paciente deitado. A minicurva não detectou 60,42% dos picos nos pacientes com glaucoma primário de ângulo aberto e 88,24% dos picos nos suspeitos. CONCLUSÃO: 1. A curva tensional diária detectou mais picos pressóricos do que a minicurva; 2. A média de Po das 6 horas foi maior com o paciente deitado; 3. A Po das 6 horas com o paciente deitado foi maior do que a Po média da curva tensional diária e da minicurva.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O efeito das variáveis independentes: soro desmineralizado em pó (0,0; 1,5 e 3,0 %), cultura láctica (1,0; 2,0 e 3,0 %) e temperatura de tratamento da mistura (85; 90 e 95°C) foi estudado nas respostas consistência sensorial e instrumental do iogurte. A metodologia de superfície de resposta foi usada para efetuar tratamentos estatísticos dos experimentos e desenvolver modelos matemáticos da relação entre as variáveis e as respostas. A consistência instrumental e sensorial apresentaram resultados semelhantes e correlacionáveis entre si, r = 0,65 (p < 0,01), ambas foram maiores quando aumentou-se a temperatura da mistura e diminuiu-se o teor de soro desmineralizado em pó.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

FUNDAMENTO: A medida precisa da pressão arterial é fundamental para a investigação científica ou decisão clínica. Nesse sentido, é importante verificar valores fornecidos por equipamentos eletrônicos. OBJETIVO: Validar o monitor Omron HEM 742 de medida de pressão arterial em adolescentes, segundo os critérios sugeridos pela British Hypertension Society. MÉTODOS: Participaram do estudo 150 adolescentes com idades entre 10 e 16 anos. O monitor automático Omron HEM 742 foi conectado em Y com equipamento auscultatório de coluna de mercúrio, e realizaram-se três avaliações simultâneas, calculando-se as diferenças entre os dois equipamentos. Para verificar a relação entre ambos, utilizaram-se o coeficiente de correlação intraclasse e a plotagem de Bland-Altman (concordância). A especificidade e a sensibilidade do aparelho foram determinadas pela curva ROC. RESULTADOS: A comparação entre as medidas acusou uma diferença menor ou igual a 5 mmHg em 67,3% dos valores sistólicos e 69,3% dos valores diastólicos; uma diferença menor ou igual a 10 mmHg ocorreu em 87,3% e 90,6% dos valores sistólicos e diastólicos, respectivamente; e uma diferença menor ou igual a 15 mmHg em 96,6% dos valores sistólicos e 97,3% dos diastólicos. Esses resultados indicam grau A segundo o protocolo da British Hypertension Society. Observou-se ainda elevada concordância nos valores obtidos por meio do monitor automático, e verificou-se que esse equipamento é capaz de identificar a presença ou a ausência da pressão arterial elevada. CONCLUSÃO: O monitor Omron HEM 742 mostrou-se válido para medidas de pressão arterial em adolescentes, conforme os critérios sugeridos pela British Hypertension Society.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

JUSTIFICATIVA E OBJETIVOS: O conhecimento de indicadores de qualidade de vida (QV) relacionados à saúde bucal é especialmente relevante para a Odontologia considerando o impacto que as condições bucais podem provocar no bem estar psicológico e social. Estudos sobre aspectos psicossociais contribuem para maior integração da conduta clínica e assistencial, preocupação compartilhada com profissionais da saúde. Integrar as áreas de Psicologia e Odontologia quebrando paradigmas interdisciplinares e o interesse em conhecer os aspectos psicológicos dos pacientes, motivou a realização deste estudo. O objetivo deste estudo foi avaliar a QV dos pacientes com disfunção temporomandibular e/ou dor orofacial. MÉTODO: Foi aplicado o Questionário Genérico de Avaliação de Qualidade de Vida - Medical Outcomes Study 36 - Item Short Health Survey (SF-36) a 91 pacientes, que buscaram atendimento por apresentarem sinais e/ou sintomas de disfunção temporomandibular (DTM) e dor orofacial (DOF). O SF-36 avalia 8 domínios: capacidade funcional (CF), aspectos físicos (AF), dor, estado geral de saúde (EGS), saúde mental (SM), aspectos emocionais (AE), aspectos sociais (AS) e vitalidade (V). RESULTADOS: A análise estatística descritiva e inferencial pela Correlação de Pearson (p-valor < 0,05) demonstrou, com exceção da capacidade funcional (73,2), valores médios entre 50 e 64 para os demais domínios: AF - 57,6; Dor - 50; EGS - 54,5; V - 53,4; AS - 63,6; AE - 51,8; SM - 58. Considerando-se que a pontuação varia de 0 a 100, ou seja, do pior para o melhor estado de saúde, os valores médios foram baixos. Verificou-se correlação entre CF e EGS (p-valor 0,01), tendência de significância para dor e EGS (p-valor 0,07). CONCLUSÃO: Os aspectos dor e capacidade funcional interferem no estado geral de saúde; os pacientes com DTM e DOF sofreram impacto negativo na qualidade de vida pelo prejuízo dos aspectos físicos e mentais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um evento extremo de precipitação ocorreu na primeira semana do ano 2000, de 1º a 5 de janeiro, no Vale do Paraíba, parte leste do Estado de São Paulo, Brasil, causando enorme impacto socioeconômico, com mortes e destruição. Este trabalho estudou este evento em 10 estações meteorológicas selecionadas que foram consideradas como aquelas tendo dados mais homogêneos do Que outras estações na região. O modelo de distribuição generalizada de Pareto (DGP) para valores extremos de precipitação de 5 dias foi desenvolvido, individualmente para cada uma dessas estações. Na modelagem da DGP, foi adotada abordagem não-estacionaria considerando o ciclo anual e tendência de longo prazo como co-variaveis. Uma conclusão desta investigação é que as quantidades de precipitação acumulada durante os 5 dias do evento estudado podem ser classificadas como extremamente raras para a região, com probabilidade de ocorrência menor do que 1% para maioria das estações, e menor do que 0,1% em três estações.