1000 resultados para Método bootstrap
Resumo:
A variabilidade natural do solo dificulta a obtenção de valores que representem adequadamente as propriedades do solo em determinada área. O conhecimento do número mínimo de observações, que devem ser realizadas para representar, com um erro aceitável, uma propriedade ou característica do solo, é fundamental para que os resultados experimentais possam ser aplicados com segurança. No presente trabalho, comparou-se o método convencional (teste-t) com o método "bootstrap", com vistas em estimar o número de observações necessárias para calcular os parâmetros que caracterizam a relação entre a condutividade hidráulica e o teor de água do solo, determinada pelo método do perfil instantâneo. Realizou-se um experimento de drenagem num Latossolo Vermelho-Amarelo em Piracicaba (SP), numa parcela experimental com 45 pontos de observação distanciados de 1 m entre si. Observaram-se a umidade (com TDR) e o potencial mátrico (com tensiômetros) durante três semanas de redistribuição da água. Após processamento dos dados, o conjunto de valores mostrou uma distribuição não-normal, fazendo-se necessária a eliminação de "outliers" para a aplicação do método convencional, normalizando a distribuição. Assim, o uso do método tradicional só é recomendado após a confirmação da pertinência da eliminação dos "outliers". Ambos os métodos de análise requerem grande número de repetições, reafirmando que determinações da função condutividade hidráulica com poucas repetições não podem ser extrapoladas para áreas maiores.
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Matemática e Aplicações - Actuariado, Estatística e Investigação Operacional
Resumo:
Neste artigo, apresentamos o bootstrap como metodologia de inferência estatística. Após apresentar o princípio teórico que fundamenta, analisamos as propriedades assimptóticas. São desenvolvidos também os vários métodos de cálculo de intervalos de confiança: método bootstrap -t, método dos percentis e métodos BCa e ABC.
Resumo:
Nesse artigo, tem-se o interesse em avaliar diferentes estratégias de estimação de parâmetros para um modelo de regressão linear múltipla. Para a estimação dos parâmetros do modelo foram utilizados dados de um ensaio clínico em que o interesse foi verificar se o ensaio mecânico da propriedade de força máxima (EM-FM) está associada com a massa femoral, com o diâmetro femoral e com o grupo experimental de ratas ovariectomizadas da raça Rattus norvegicus albinus, variedade Wistar. Para a estimação dos parâmetros do modelo serão comparadas três metodologias: a metodologia clássica, baseada no método dos mínimos quadrados; a metodologia Bayesiana, baseada no teorema de Bayes; e o método Bootstrap, baseado em processos de reamostragem.
Resumo:
A pesquisa teve como objetivo testar se preços no mercado futuro brasileiro seguem um passeio aleatório - uma das versões da chamada Hipótese do Mercado Eficiente. Foram estudados os preços dos contratos futuros de Ibovespa e de dólar comercial, de 30 de junho de 1994 a 31 de dezembro de 1998. Aplicação de testes paramétricos e não-paramétricos envolvendo a Relação de Variâncias (Variance Ratio) de Lo-MacKinlay levam à conclusão de que a hipótese testada não pode ser rejeitada, apontando, portanto, para eficiência em tais mercados.
Resumo:
Foundations support constitute one of the types of legal entities of private law forged with the purpose of supporting research projects, education and extension and institutional, scientific and technological development of Brazil. Observed as links of the relationship between company, university, and government, foundations supporting emerge in the Brazilian scene from the principle to establish an economic platform of development based on three pillars: science, technology and innovation – ST&I. In applied terms, these ones operate as tools of debureaucratisation making the management between public entities more agile, especially in the academic management in accordance with the approach of Triple Helix. From the exposed, the present study has as purpose understanding how the relation of Triple Helix intervenes in the fund-raising process of Brazilian foundations support. To understand the relations submitted, it was used the interaction models University-Company-Government recommended by Sábato and Botana (1968), the approach of the Triple Helix proposed by Etzkowitz and Leydesdorff (2000), as well as the perspective of the national innovation systems discussed by Freeman (1987, 1995), Nelson (1990, 1993) and Lundvall (1992). The research object of this study consists of 26 state foundations that support research associated with the National Council of the State Foundations of Supporting Research - CONFAP, as well as the 102 foundations in support of IES associated with the National Council of Foundations of Support for Institutions of Higher Education and Scientific and Technological Research – CONFIES, totaling 128 entities. As a research strategy, this study is considered as an applied research with a quantitative approach. Primary research data were collected using the e-mail Survey procedure. Seventy-five observations were collected, which corresponds to 58.59% of the research universe. It is considering the use of the bootstrap method in order to validate the use of the sample in the analysis of results. For data analysis, it was used descriptive statistics and multivariate data analysis techniques: the cluster analysis; the canonical correlation and the binary logistic regression. From the obtained canonical roots, the results indicated that the dependency relationship between the variables of relations (with the actors of the Triple Helix) and the financial resources invested in innovation projects is low, assuming the null hypothesis of this study, that the relations of the Triple Helix do not have interfered positively or negatively in raising funds for investments in innovation projects. On the other hand, the results obtained with the cluster analysis indicate that entities which have greater quantitative and financial amounts of projects are mostly large foundations (over 100 employees), which support up to five IES, publish management reports and use in their capital structure, greater financing of the public department. Finally, it is pertinent to note that the power of the classification of the logistic model obtained in this study showed high predictive capacity (80.0%) providing to the academic community replication in environments of similar analysis.
Resumo:
Dissertação para obtenção do Grau de Mestre em Matemática e Aplicações, no ramo Actuariado, Estatística e Investigação Operacional
Resumo:
Os métodos de alisamento exponencial são muito utilizados na modelação e previsão de séries temporais, devido à sua versatilidade e opção de modelos que integram. Na estatística computacional, a metodologia Bootstrap é muito aplicada em inferência estatística no âmbito de séries temporais. Este estudo teve como principal objectivo analisar o desempenho do método de Holt-Winters associado à metodologia Bootstrap, como um processo alternativo na modelação e previsão de séries temporais.
Resumo:
FUNDAMENTO: Escores de risco apresentam dificuldades para obter o mesmo desempenho em diferentes populações. OBJETIVO: Criar um modelo simples e acurado para avaliação do risco nos pacientes operados de doença coronariana e/ou valvar no Instituto do Coração da Universidade de São Paulo (InCor-HCFMUSP). MÉTODOS: Entre 2007 e 2009, 3.000 pacientes foram operados consecutivamente de doença coronariana e/ou valvar no InCor-HCFMUSP. Desse registro, dados de 2/3 dos pacientes foram utilizados para desenvolvimento do modelo (técnica de bootstrap) e de 1/3 para validação interna do modelo. O desempenho do modelo (InsCor) foi comparado aos complexos 2000 Bernstein-Parsonnet (2000BP) e EuroSCORE (ES). RESULTADOS: Apenas 10 variáveis foram selecionadas: Idade > 70 anos; sexo feminino; cirurgia de revascularização coronariana + valva; infarto de miocárdio < 90 dias; reoperação; tratamento cirúrgico da valva aórtica; tratamento cirúrgico da valva tricúspide; creatinina < 2mg/dL; fração de ejeção < 30%; e eventos. O teste de Hosmer Lemeshow para o InsCor foi de 0,184, indicando uma excelente calibração. A área abaixo da curva ROC foi de 0,79 para o InsCor, 0,81 para o ES e 0,82 para o 2000BP, confirmando que os modelos são bons e similares na discriminação. CONCLUSÕES: O InsCor e o ES tiveram melhor desempenho que o 2000BP em todas as fases da validação; pórem o novo modelo, além de se identificar com os fatores de risco locais, é mais simples e objetivo para a predição de mortalidade nos pacientes operados de doença coronariana e/ou valvar no InCor-HCFMUSP.
Resumo:
1. Realizar un estudio exhaustivo del Análisis Discriminante para evaluar su robustez con el fin de hacer las pertinentes recomendaciones al psicólogo aplicado; 2. Determinar criterios estadísticos que ayuden a las interpretaciones heurísticas de los coeficientes más relevantes, para la evaluación de las contribuciones de las variables a las funciones discriminantes. Primera investigación: Se trabajó con un diseño factorial 4x2x3x2x2 lo que supone 96 condiciones experimentales. Las cinco variables eran: a. Normalidad de las variables, b. Varianza de los grupos, c. Número de variables, d. Número de grupos, 5. Número de sujetos en cada grupo. Variable Dependiente: Para cada una de las 200 replicaciones Monte Carlo se obtuvieron las lambdas de Wilks, las V de Bartlett y su probabilidad asociada, como índice de la significación de criterio discriminante. Segunda investigación: Para esta investigación se replicó el diseño de la primera investigación, es decir, las 96 condiciones experimentales con todos los factores, otorgando ahora el perfil de diferencias grupales siguiente para las condiciones con tres grupos y para las condiciones con seis grupos. Se mantuvieron constantes las correlaciones entre las variables e iguales a las de la primera investigación, 0,70. El valor de los parámetros fue obtenido mediante el programa DISCRIMINANT del SPSS/PC+. Hardware: El trabajo de simulación se llevó a cabo con ocho ordenadores personales clónicos PC:PENTIUM/100 Mhz., con 16 MB de RAM. Software: Los procedimientos necesarios para la investigación fueron realizados en el lenguaje de programación GAUSS 386i, versión 3.1 (Aptech Systems, 1994). 1. Los métodos de simulación y concretamente, el método de muestreo bootstrap, son de gran utilidad para los estudios de robustez de las técnicas estadísticas, así como en los de inferencia estadística: cálculo de intervalos de confianza; 2. El Análisis Discriminante es una técnica robusta, siempre y cuando se cumpla la condición de homogeneidad de las varianzas; 3. El Análisis Discriminante no es robusto ante problemas de heterogeneidad en las siguientes condiciones: Con seis o menos variables,cuando los tamaños grupales son diferentes. Para tamaños iguales, si además se presenta una alteración conjunta de asimetría y apuntamiento; 4. Cuando la violación del supuesto de homogeneidad viene provocada porque la varianza mayor la presenta el grupo con menos sujetos la técnica se vuelve demasiado liberal, es decir, se produce un alto grado de error tipo I; 5. Los coeficientes de estructura son más estables e insesgados que los típicos; 6. Es posible determinar los intervalos confidenciales de los coeficientes de estructura mediante el procedimiento sugerido por Dalgleish (1994). 1. El Análisis Discriminante se puede utilizar siempre que se cumpla la condición de Homogeneidad de varianzas. Es por tanto, absolutamente necesario comprobar antes de realizar un Análisis Discriminante este principio, lo cual se puede llevar a cabo a través de cualquiera de los estadísticos pertinentes y, en especial, la prueba de Box; 2. Ante la heterogeneidad de varianzas si el número de variables independientes es seis o inferior, deberá tenerse en cuenta que el número de sujetos debe ser igual en todos los grupos y que las variables no presenten alteraciones conjuntas de asimetría y apuntamiento,por lo que, como paso previo deberá comprobarse la distribución de las variables y detectar si se presenta esta alteración. En cualquier otra condición, y ante la presencia de heterogeneidad de varianzas no se puede utilizar la técnica. Cuando el número de variables predictoras sea nueve o más, podrá utilizarse la técnica siempre, a excepción de diferentes tamaños grupales y no normalidad de las variables. El investigador aplicado deberá conocer la posibilidad que proponemos de apoyatura estadística para la toma de decisiones.
Resumo:
Resumen tomado de la publicación
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Two hundred and six patients with severe head injury (Glasgow Coma Scale of 8 points or less after nonsurgical resuscitation on admission), managed at Intensive Care Unit-Hospital das Clínicas - Universidade Estadual de Campinas were prospectively analysed. All patients were assessed by CT scan and 72 required neurosurgical intervention. All patients were continuously monitored to evaluate intracranial pressure (ICP) levels by a subarachnoid device (11 with subarachnoid metallic bolts and 195 with subarachnoid polyvinyl catheters). The ICP levels were continuously observed in the bedside pressure monitor display and their end-hour values were recorded in a standard chart. The patients were managed according to a standard protocol guided by the ICP levels. There were no intracranial haemorrhagic complications or hematomas due the monitoring method. Sixty six patients were punctured by lateral C1-C2 technique to assess infectious complications and 2 had positive cerebrospinal fluid samples for Acinetobacter sp. The final results measured at hospital discharge showed 75 deaths (36,40%) and 131 (63,60%) survivors. ICP levels had significantly influenced the final results (p<0,001). The subarachnoid method to continuously assess the ICP levels was considered aplicable, safe, simple, low cost and useful to advise the management of the patients. The ICP record methodology was practical and useful. Despite the current technical advances the subarachnoid method was considered viable to assess the ICP levels in severe head injury.
Resumo:
The purpose of this study is to introduce a method to evaluate visual functions in infants in the first three months of life. An adaptation of the Guide for the Assessment of Visual Ability in Infants (Gagliardo, 1997) was used. The instrument was a ring with string. It was implemented a pilot study with 33 infants, selected according to the following criteria: neonates well enough to go home within two days of birth; 1 to 3 months of chronological age; monthly evaluation with no absence; subjects living in Campinas/SP metropolitan area. In the first month we observed: visual fixation (93,9%); eye contact (90,9%); horizontal tracking (72,7%); inspects surroundings (97,0%). In the third month, we observed: inspects own hands (42,4%) and increased movements of arms (36,4%). This method allowed the evaluation of visual functions in infants, according to the chronological age. Alterations in this function will facilitate immediate referral to medical services for diagnoses.
Resumo:
The ONIOM method was used to calculate the proton affinities (PA) of n-alkylamines (CnH2n+1NH2, n = 3 to 6, 8, 10, 12, 14, 16 and 18). The calculations were carried out at several levels (HF, MP2, B3LYP, QCISD(T), ...) using Pople basis sets and at the QCISD(T) level using basis sets developed by the generator coordinate method (GCM) and adapted to effective core potentials. PAs were also obtained through the GCM and high level methods, like ONIOM[QCISD(T)/6-31+G(2df,p):MP2/6-31G+G(d,p))//ONIOM[MP2/6-31+G(d,p):HF/6-31G]. The average error using the GCM, with respect to experimental data, was 3.4 kJ mol-1.