990 resultados para weibull analyysi


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lähtökohdat Tämän tutkimuksen tarkoituksena oli analysoida nuorten tyytyväisyyttä oman hampaistonsa toimintaan ja ulkonäköön. Aineisto ja menetelmät Tutkimusaineiston muodostivat peruskoulun 9. luokkalaiset (n=159), joista tutkimukseen osallistui 126 (79 %). Nuorten purentoja arvioitiin sekä kliinisesti että kipsimalleilta käyttäen IOTN-menetelmää. Tietoja nuorten tyytyväisyydestä omaan hampaistoonsa ja heidän kokemastaan oikomishoidon tarpeesta kerättiin kyselylomakkeella. Tulokset Nuorista 90 % oli tyytyväisiä hampaistonsa toimintaan ja 71 % hampaistonsa ulkonäköön. Viisi prosenttia osallistujista koki olevansa oikomishoidon tarpeessa; tarve oli yleisempää oikomishoidossa olleiden kuin ei-oiottujen nuorten keskuudessa (9 % vs. 2 %, p > 0.05). Johtopäätökset Suurin osa tutkituista nuorista oli tyytyväisiä oman hampaistonsa toimintaan ja ulkonäköön. Yleisimmin tyytymättömyyttä aiheuttivat yksittäisten hampaiden virheasennot.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Raportissa tarkastellaan tilastollisin menetelmin työtarjousten ja esittelyiden suoraa ja epäsuoraa työllistävää vaikutusta Uuden-maan TE-toimistossa. Analyysin aineistona toimi asiantuntijakohtainen työsuoritetilasto vuodelta 2015. Esittelyillä oli analyysin mukaan moninkertaisesti suurempi todennäköisyys johtaa työnvälitykseen kuin työtarjouksilla. Virkailijoiden tekemiin määriin suhteutettuna työnvälitykseen johtaneiden työtarjousten osuus oli 1 prosentti ja esittelyiden 6 prosenttia. Täytettyihin työpaikkoi-hin suhteutettuna onnistuneiden työnvälitysten osuus oli työtarjousten kohdalla 3 prosenttia ja esittelyiden kohdalla 25 prosenttia. Esittelyiden ja työtarjousten vaikutusta vertailevan regressioanalyysin mukaan esittelyt johtivat työnvälitykseen yli 5 kertaa toden-näköisemmin kuin työtarjoukset. Analyysi antoi kuitenkin myös viitteitä työtarjousten epäsuorasta työllistävästä vaikutuksesta, jota esittelyillä ei havaittu. Niiden Uudenmaan TE-toimiston asiantuntijoiden asiakkaat, joiden vastuuasiantuntijat tekivät enemmän työtarjouksia, työllistyivät todennäköisemmin kuin muut. Analyysin tuloksia tarkastellessa on otettava huomioon että esittelyiden ja työtarjousten tekemistä koskevissa työkäytännöissä on eri toimipaikkojen välillä eroja, joita on tilastollisin menetelmin vaikea huomioida.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tutkielmassa käsitellään Yhdysvaltain 9/11 jälkeistä ulkopolitiikkaa Giorgio Agambenin esittelemän poikkeustilan käsitteen valossa. Pyrkimys on tarkastella sitä, millä tavalla Yhdysvallat käyttää poikkeustilaa uuskolonialismissaan sekä terrorisminvastaisessa sodassaan. Lisäksi uuskolonialismin oikeuttamisessa käytetyt poikkeustilan maantieteelliset mielikuvat ovat kiinnostuksen kohteena. Näiden tavoitteiden tukena käsitellään uuskolonialismissa käytettyjä vallan ja hallinnan muotoja. Michel Foucault’n valtakäsitys toimii Agambenin valtakäsityksen parina, sitä täydentäen ja kyseenalaistaen. Aineistoa on lähestytty Agambenin ja Foucault’n tuotannon pohjalta luodun valta-analyysin keinoin. Tukena on käytetty Peter Milleriin ja Nikolas Roseen sekä Mitchell Deaniin pohjaavaa hallintamentaliteetin teoriaa. Tutkielman kolmitasoisessa lähestymistavassa metatasona on Yhdysvaltain harjoittama uuskolonialismi, makrotasona terrorisminvastainen sota ja mikrotasona konkreettinen leiriesimerkki, Guántanamo Bay. Aineistona on käytetty Kansakunnan tila -puheita, Yhdysvaltain hallintoelinten virallisia dokumentteja sekä YK:n ja ihmisoikeusjärjestöjen raportteja ja kannanottoja. Analyysin tuloksena väitetään, että Yhdysvallat käyttää poikkeustilaa hallinnan teknologiana ensisijaisesti normalisoidakseen poikkeuksellisia yksilöitä. Poikkeustilan avulla pyritään hallitsemaan uusliberalistiselle hallinnalle ominaisia määritelmiä pakenevaa modernia yhteiskuntaa. Keskeisenä hallintamentaliteetin rationaliteettina eli päämääränä nousee esiin rauhaisa ja vakaa, Yhdysvaltain arvot omaksunut maailma. Päämäärän tavoittelemisessa hyödynnetään poikkeustilan lisäksi erilaisia biovallan ja suvereenin vallan mekanismeja. Thanatovaltaa, kuoleman valtaa, hyödynnetään erityisesti leireillä. Poikkeuksellisia subjekteja normalisoidaan kurinpidollisin menetelmin, ja subjekteja tuotetaan keskeisesti desubjektivaation mekanismein. Tiedon ja vallan välinen dialektiikka on keskeinen väline hallinnassa. Poikkeustila on virtuaalinen hallinnan teknologia, joka voi materialisoituessaan tuottaa leirin minne tahansa, milloin tahansa. Poikkeustilaan liitettävät maantieteelliset mielikuvat suosivat mielikuvia vaarallisesta, vaikeasti paikannettavasta, poikkeuksellisesta vihollisesta. Näin suvereeni varaa mahdollisuuden lokalisoida vihollisen – ja poikkeustilan – maantieteellisesti minne tahansa, tarpeidensa mukaan.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tuija Lehtikunnas: Intensive care patient handover document in support of decision-making in nursing work - Retrospective document analysis for the period 2001–2013 University of Turku, Faculty of Medicine, Nursing Science Annales Universitatis Turkuensis Turku 2016 ABSTRACT The continuity of care and flow of information must be ensured when transferring the responsibility of care, whether this is done within an organisation or from one organisation to another. The purpose of this study was to describe and compare the nursing handover documents of long-term intensive care patients and changes to these documents during the years 2001–2013. Research data comprehended long-term intensive care patient handover documents (N = 250). Data was gathered from one university hospital intensive care unit and subjected to a content analysis of technical implementation, structure and content at five different time points. In addition to this, the nursing handover documents were analysed from a nursing decision-making standpoint. Sub-data (n = 5 x 50) from the years 2001, 2002, 2004, 2006 and 2013 was gathered. The first sub-data was manual, written on paper with a pen. The rest of the sub-data obtained was entered in a dedicated intensive care information system. The study developed an intensive care patient nursing handover document analysis framework, which was used to deductively analyse the research data. The results indicated that the transitioning to electronic records reinforced structure and identification improving the reusability of data was increased. Although intensive care nursing was recorded on nursing handover documents more comprehensively in more recent sub-data, it was done selectively with regard to overall patient care, e.g. there are no entries concerning the psychological support and counselling of patients or family members. Nursing handover documents do not contain a systematic description of the patient's communication and functional capacity at the moment of transfer. The patient's condition at the moment of transfer is not clearly indicated on the handover documents. Plans for follow-up treatment are not recorded at all. Nursing decision-making is difficult to find on the nursing handover documents used as research data. The study developed a handover document model for intensive care nursing that supports nursing decision-making and the continuity of care. Developmental recommendations focus on the management of co-operation within organisations for ensuring the continuity of care and enhancing each area of nursing in recording nursing handover documents by planning nursing for the patient, taking follow-up treatment resources into consideration. Keywords: Intensive care nursing, nursing decision-making, nursing records, information flow, nursing handover document, continuity of care

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Department of Statistics, Cochin University of Science & Technology, Part of this work has been supported by grants from DST and CSIR, Government of India. 2Department of Mathematics and Statistics, IIT Kanpur

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In dieser Arbeit werden mithilfe der Likelihood-Tiefen, eingeführt von Mizera und Müller (2004), (ausreißer-)robuste Schätzfunktionen und Tests für den unbekannten Parameter einer stetigen Dichtefunktion entwickelt. Die entwickelten Verfahren werden dann auf drei verschiedene Verteilungen angewandt. Für eindimensionale Parameter wird die Likelihood-Tiefe eines Parameters im Datensatz als das Minimum aus dem Anteil der Daten, für die die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, und dem Anteil der Daten, für die diese Ableitung nicht positiv ist, berechnet. Damit hat der Parameter die größte Tiefe, für den beide Anzahlen gleich groß sind. Dieser wird zunächst als Schätzer gewählt, da die Likelihood-Tiefe ein Maß dafür sein soll, wie gut ein Parameter zum Datensatz passt. Asymptotisch hat der Parameter die größte Tiefe, für den die Wahrscheinlichkeit, dass für eine Beobachtung die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, gleich einhalb ist. Wenn dies für den zu Grunde liegenden Parameter nicht der Fall ist, ist der Schätzer basierend auf der Likelihood-Tiefe verfälscht. In dieser Arbeit wird gezeigt, wie diese Verfälschung korrigiert werden kann sodass die korrigierten Schätzer konsistente Schätzungen bilden. Zur Entwicklung von Tests für den Parameter, wird die von Müller (2005) entwickelte Simplex Likelihood-Tiefe, die eine U-Statistik ist, benutzt. Es zeigt sich, dass für dieselben Verteilungen, für die die Likelihood-Tiefe verfälschte Schätzer liefert, die Simplex Likelihood-Tiefe eine unverfälschte U-Statistik ist. Damit ist insbesondere die asymptotische Verteilung bekannt und es lassen sich Tests für verschiedene Hypothesen formulieren. Die Verschiebung in der Tiefe führt aber für einige Hypothesen zu einer schlechten Güte des zugehörigen Tests. Es werden daher korrigierte Tests eingeführt und Voraussetzungen angegeben, unter denen diese dann konsistent sind. Die Arbeit besteht aus zwei Teilen. Im ersten Teil der Arbeit wird die allgemeine Theorie über die Schätzfunktionen und Tests dargestellt und zudem deren jeweiligen Konsistenz gezeigt. Im zweiten Teil wird die Theorie auf drei verschiedene Verteilungen angewandt: Die Weibull-Verteilung, die Gauß- und die Gumbel-Copula. Damit wird gezeigt, wie die Verfahren des ersten Teils genutzt werden können, um (robuste) konsistente Schätzfunktionen und Tests für den unbekannten Parameter der Verteilung herzuleiten. Insgesamt zeigt sich, dass für die drei Verteilungen mithilfe der Likelihood-Tiefen robuste Schätzfunktionen und Tests gefunden werden können. In unverfälschten Daten sind vorhandene Standardmethoden zum Teil überlegen, jedoch zeigt sich der Vorteil der neuen Methoden in kontaminierten Daten und Daten mit Ausreißern.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Heterogeneity in lifetime data may be modelled by multiplying an individual's hazard by an unobserved frailty. We test for the presence of frailty of this kind in univariate and bivariate data with Weibull distributed lifetimes, using statistics based on the ordered Cox-Snell residuals from the null model of no frailty. The form of the statistics is suggested by outlier testing in the gamma distribution. We find through simulation that the sum of the k largest or k smallest order statistics, for suitably chosen k , provides a powerful test when the frailty distribution is assumed to be gamma or positive stable, respectively. We provide recommended values of k for sample sizes up to 100 and simple formulae for estimated critical values for tests at the 5% level.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In interval-censored survival data, the event of interest is not observed exactly but is only known to occur within some time interval. Such data appear very frequently. In this paper, we are concerned only with parametric forms, and so a location-scale regression model based on the exponentiated Weibull distribution is proposed for modeling interval-censored data. We show that the proposed log-exponentiated Weibull regression model for interval-censored data represents a parametric family of models that include other regression models that are broadly used in lifetime data analysis. Assuming the use of interval-censored data, we employ a frequentist analysis, a jackknife estimator, a parametric bootstrap and a Bayesian analysis for the parameters of the proposed model. We derive the appropriate matrices for assessing local influences on the parameter estimates under different perturbation schemes and present some ways to assess global influences. Furthermore, for different parameter settings, sample sizes and censoring percentages, various simulations are performed; in addition, the empirical distribution of some modified residuals are displayed and compared with the standard normal distribution. These studies suggest that the residual analysis usually performed in normal linear regression models can be straightforwardly extended to a modified deviance residual in log-exponentiated Weibull regression models for interval-censored data. (C) 2009 Elsevier B.V. All rights reserved.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We obtain adjustments to the profile likelihood function in Weibull regression models with and without censoring. Specifically, we consider two different modified profile likelihoods: (i) the one proposed by Cox and Reid [Cox, D.R. and Reid, N., 1987, Parameter orthogonality and approximate conditional inference. Journal of the Royal Statistical Society B, 49, 1-39.], and (ii) an approximation to the one proposed by Barndorff-Nielsen [Barndorff-Nielsen, O.E., 1983, On a formula for the distribution of the maximum likelihood estimator. Biometrika, 70, 343-365.], the approximation having been obtained using the results by Fraser and Reid [Fraser, D.A.S. and Reid, N., 1995, Ancillaries and third-order significance. Utilitas Mathematica, 47, 33-53.] and by Fraser et al. [Fraser, D.A.S., Reid, N. and Wu, J., 1999, A simple formula for tail probabilities for frequentist and Bayesian inference. Biometrika, 86, 655-661.]. We focus on point estimation and likelihood ratio tests on the shape parameter in the class of Weibull regression models. We derive some distributional properties of the different maximum likelihood estimators and likelihood ratio tests. The numerical evidence presented in the paper favors the approximation to Barndorff-Nielsen`s adjustment.