990 resultados para Step tests


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hintergrund und Ziel: Ausgehend von einem Forschungsdefizit im Bereich von Performance-Tests, das von der Arbeitsgruppe um Bührlen et al. (2002) gekennzeichnet wurde, war es das Ziel der Arbeit einen Performance-Tests of lower limb activities (Polla) zu validieren. Methode: In einer Längsschnittstudie wurden die Ergebnisse einer sechswöchigen physiotherapeutischen Behandlung an einem 19-75jährigem orthopädisch-traumatologisch orientierten Patientenkollektiv (n=81) mit dem Polla und dem SF-36 Fragebogen erfasst. Ergebnisse: Die Ergebnisse machen eine gute Absicherung der Teststatistik deutlich. Bei ausgezeichneter Intrarater- (n=29) sowie guter Interrater-Reliabilität (n=32) weist die Konsistenzanalyse eine zufrieden stellende Zuverlässigkeit auf. Die Kriteriumsvalidität macht moderate Zusammenhänge zwischen dem Polla und den Dimensionen Schmerz, Körperliche Rollenfunktion und Körperliche Funktionsfähigkeit des SF-36 deutlich. Über die Standardized Response Mean zeigen die Instrumente eine große Änderungssensitivität, die nur für den Polla auch zum Follow-up (n=26) gilt. Schlussfolgerung: Der Polla ist ein kostenloses Testverfahren mit hoher praktischer Relevanz, wobei aus zeitökonomischen Gründen eine modifizierte Form des Polla mit nur zehn Items und einem gemessenen Test zu empfehlen ist.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Im Rahmen von empirischen Untersuchungen zum Lehren und Lernen von Mathematik haben wir einen Test entwickelt ("Potentialtest"), der die "mathematische Leistungsfähigkeit" von 13/14jährigen Jugendlichen in England und Deutschland für Vergleichszwecke messen soll. Im vorliegenden Beitrag beschreiben wir die Entstehung des Tests sowie Resultate der Durchführung des Tests bei 1036 englischen und deutschen Lernenden. Die Resultate werden unter Berücksichtigung von - aus unseren früheren Fallstudien bekannten - Charakteristika des Mathematikunterrichts in beiden Ländern interpretiert.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In dieser Arbeit werden mithilfe der Likelihood-Tiefen, eingeführt von Mizera und Müller (2004), (ausreißer-)robuste Schätzfunktionen und Tests für den unbekannten Parameter einer stetigen Dichtefunktion entwickelt. Die entwickelten Verfahren werden dann auf drei verschiedene Verteilungen angewandt. Für eindimensionale Parameter wird die Likelihood-Tiefe eines Parameters im Datensatz als das Minimum aus dem Anteil der Daten, für die die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, und dem Anteil der Daten, für die diese Ableitung nicht positiv ist, berechnet. Damit hat der Parameter die größte Tiefe, für den beide Anzahlen gleich groß sind. Dieser wird zunächst als Schätzer gewählt, da die Likelihood-Tiefe ein Maß dafür sein soll, wie gut ein Parameter zum Datensatz passt. Asymptotisch hat der Parameter die größte Tiefe, für den die Wahrscheinlichkeit, dass für eine Beobachtung die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, gleich einhalb ist. Wenn dies für den zu Grunde liegenden Parameter nicht der Fall ist, ist der Schätzer basierend auf der Likelihood-Tiefe verfälscht. In dieser Arbeit wird gezeigt, wie diese Verfälschung korrigiert werden kann sodass die korrigierten Schätzer konsistente Schätzungen bilden. Zur Entwicklung von Tests für den Parameter, wird die von Müller (2005) entwickelte Simplex Likelihood-Tiefe, die eine U-Statistik ist, benutzt. Es zeigt sich, dass für dieselben Verteilungen, für die die Likelihood-Tiefe verfälschte Schätzer liefert, die Simplex Likelihood-Tiefe eine unverfälschte U-Statistik ist. Damit ist insbesondere die asymptotische Verteilung bekannt und es lassen sich Tests für verschiedene Hypothesen formulieren. Die Verschiebung in der Tiefe führt aber für einige Hypothesen zu einer schlechten Güte des zugehörigen Tests. Es werden daher korrigierte Tests eingeführt und Voraussetzungen angegeben, unter denen diese dann konsistent sind. Die Arbeit besteht aus zwei Teilen. Im ersten Teil der Arbeit wird die allgemeine Theorie über die Schätzfunktionen und Tests dargestellt und zudem deren jeweiligen Konsistenz gezeigt. Im zweiten Teil wird die Theorie auf drei verschiedene Verteilungen angewandt: Die Weibull-Verteilung, die Gauß- und die Gumbel-Copula. Damit wird gezeigt, wie die Verfahren des ersten Teils genutzt werden können, um (robuste) konsistente Schätzfunktionen und Tests für den unbekannten Parameter der Verteilung herzuleiten. Insgesamt zeigt sich, dass für die drei Verteilungen mithilfe der Likelihood-Tiefen robuste Schätzfunktionen und Tests gefunden werden können. In unverfälschten Daten sind vorhandene Standardmethoden zum Teil überlegen, jedoch zeigt sich der Vorteil der neuen Methoden in kontaminierten Daten und Daten mit Ausreißern.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Numerous studies have proven an effect of a probable climate change on the hydrosphere’s different subsystems. In the 21st century global and regional redistribution of water has to be expected and it is very likely that extreme weather phenomenon will occur more frequently. From a global view the flood situation will exacerbate. In contrast to these discoveries the classical approach of flood frequency analysis provides terms like “mean flood recurrence interval”. But for this analysis to be valid there is a need for the precondition of stationary distribution parameters which implies that the flood frequencies are constant in time. Newer approaches take into account extreme value distributions with time-dependent parameters. But the latter implies a discard of the mentioned old terminology that has been used up-to-date in engineering hydrology. On the regional scale climate change affects the hydrosphere in various ways. So, the question appears to be whether in central Europe the classical approach of flood frequency analysis is not usable anymore and whether the traditional terminology should be renewed. In the present case study hydro-meteorological time series of the Fulda catchment area (6930 km²), upstream of the gauging station Bonaforth, are analyzed for the time period 1960 to 2100. At first a distributed catchment area model (SWAT2005) is build up, calibrated and finally validated. The Edertal reservoir is regulated as well by a feedback control of the catchments output in case of low water. Due to this intricacy a special modeling strategy has been necessary: The study area is divided into three SWAT basin models and an additional physically-based reservoir model is developed. To further improve the streamflow predictions of the SWAT model, a correction by an artificial neural network (ANN) has been tested successfully which opens a new way to improve hydrological models. With this extension the calibration and validation of the SWAT model for the Fulda catchment area is improved significantly. After calibration of the model for the past 20th century observed streamflow, the SWAT model is driven by high resolution climate data of the regional model REMO using the IPCC scenarios A1B, A2, and B1, to generate future runoff time series for the 21th century for the various sub-basins in the study area. In a second step flood time series HQ(a) are derived from the 21st century runoff time series (scenarios A1B, A2, and B1). Then these flood projections are extensively tested with regard to stationarity, homogeneity and statistical independence. All these tests indicate that the SWAT-predicted 21st-century trends in the flood regime are not significant. Within the projected time the members of the flood time series are proven to be stationary and independent events. Hence, the classical stationary approach of flood frequency analysis can still be used within the Fulda catchment area, notwithstanding the fact that some regional climate change has been predicted using the IPCC scenarios. It should be noted, however, that the present results are not transferable to other catchment areas. Finally a new method is presented that enables the calculation of extreme flood statistics, even if the flood time series is non-stationary and also if the latter exhibits short- and longterm persistence. This method, which is called Flood Series Maximum Analysis here, enables the calculation of maximum design floods for a given risk- or safety level and time period.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis aims at empowering software customers with a tool to build software tests them selves, based on a gradual refinement of natural language scenarios into executable visual test models. The process is divided in five steps: 1. First, a natural language parser is used to extract a graph of grammatical relations from the textual scenario descriptions. 2. The resulting graph is transformed into an informal story pattern by interpreting structurization rules based on Fujaba Story Diagrams. 3. While the informal story pattern can already be used by humans the diagram still lacks technical details, especially type information. To add them, a recommender based framework uses web sites and other resources to generate formalization rules. 4. As a preparation for the code generation the classes derived for formal story patterns are aligned across all story steps, substituting a class diagram. 5. Finally, a headless version of Fujaba is used to generate an executable JUnit test. The graph transformations used in the browser application are specified in a textual domain specific language and visualized as story pattern. Last but not least, only the heavyweight parsing (step 1) and code generation (step 5) are executed on the server side. All graph transformation steps (2, 3 and 4) are executed in the browser by an interpreter written in JavaScript/GWT. This result paves the way for online collaboration between global teams of software customers, IT business analysts and software developers.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se analiza la medida en que las pruebas psicopedag??gicas Boehm y Peabody predicen las dificultades en el ??mbito lectoescritor que pueden presentarse en el alumnado de Primaria. Para ello se ha desarrollado un estudio de tipo correlacional en el que se han reunido datos de alumnos desde su ingreso en la Educaci??n Infantil hasta su escolarizaci??n en el segundo ciclo de Educaci??n Primaria. La informaci??n obtenida tiene por tanto, un car??cter diacr??nico. El informe est?? constituido por una breve alusi??n te??rica al problema que se trata para situarse en el lugar preciso donde se centra la investigaci??n, descripci??n de la metodolog??a de investigaci??n, resultados y conclusiones, la discusi??n de los resultados y las propuestas. Se recogen tambi??n la bibliograf??a usada y el estudio de an??lisis de los casos utilizados. Las conclusiones afirman que existe una correlaci??n estad??sticamente significativa entre los tests Peabody y Boehm. Las correlaciones m??s altas son las que implican, de una parte a los tests Peabody y Boehm y, de otra, a las notas escolares de segundo ciclo de Educaci??n Primaria en Matem??ticas y Lengua. Las notas escolares obtenidas por los alumnos del primer ciclo de Educaci??n Primaria en Lengua y Matem??ticas no tienen una correlaci??n estad??sticamente significativa con los tests Boehm y Peabody. En el primer ciclo de Educaci??n Primaria, s??lo el test Peaboy permite predecir las notas escolares en Lengua y Matem??ticas. Estimar y determinar el rendimiento de los alumnos en las citadas asignaturas tomando como punto de partida s??lo los datos aportados por el test Peabody resulta desaconsejable dado el escaso poder predictivo de dicho test. El test Boehm, por su parte, tiene a??n menos poder predictivo sobre las notas escolares y, en el presente estudio, aparece como un mal predictor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Electroosmotic flow is a convenient mechanism for transporting polar fluid in a microfluidic device. The flow is generated through the application of an external electric field that acts on the free charges that exists in a thin Debye layer at the channel walls. The charge on the wall is due to the chemistry of the solid-fluid interface, and it can vary along the channel, e.g. due to modification of the wall. This investigation focuses on the simulation of the electroosmotic flow (EOF) profile in a cylindrical microchannel with step change in zeta potential. The modified Navier-Stoke equation governing the velocity field and a non-linear two-dimensional Poisson-Boltzmann equation governing the electrical double-layer (EDL) field distribution are solved numerically using finite control-volume method. Continuities of flow rate and electric current are enforced resulting in a non-uniform electrical field and pressure gradient distribution along the channel. The resulting parabolic velocity distribution at the junction of the step change in zeta potential, which is more typical of a pressure-driven velocity flow profile, is obtained.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this paper a novel methodology aimed at minimizing the probability of network failure and the failure impact (in terms of QoS degradation) while optimizing the resource consumption is introduced. A detailed study of MPLS recovery techniques and their GMPLS extensions are also presented. In this scenario, some features for reducing the failure impact and offering minimum failure probabilities at the same time are also analyzed. Novel two-step routing algorithms using this methodology are proposed. Results show that these methods offer high protection levels with optimal resource consumption

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen tomado de la publicaci??n

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen tomado de la publicaci??n

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen tomado del autor. Incluye gráficos e imágenes capturadas de la pantalla del ordenador

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen tomado del autor. Este trabajo ha sido financiado por el proyecto TIN 2005-08386-C05-02 y los fondos FEDER

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introducción: A pesar de que las combinaciones de Propofol y opioides son ampliamente usadas para inducir y mantener una adecuada anestesia y analgesia, disminuir la dosis del inductor, incrementar la estabilidad hemodinámica y suprimir la respuesta a la laringoscopia y la intubación; no existen estudios que comparen el uso de Anestesia Total Intravenosa manual con Remifentanil - Propofol versus Fentanil - Propofol. Objetivo: Comparar el tiempo de despertar y el tiempo de descarga entre dos técnicas de Anestesia Total Intravenosa manual empleadas en el Hospital Occidente de Kennedy, una basada en Propofol y Remifentanil y otra basada en Propofol y Fentanil controlado por Stangraf. Metodología: Estudio de corte transversal, en 43 pacientes llevados a cirugía bajo Anestesia Total Intravenosa en el Hospital Occidente de Kennedy. Se analizó la información mediante las pruebas de Shapiro-Wilks, t de Student y U de Mann Withney y los coeficientes de correlación de Spearman y de Pearson, usando SPSS versión 20 para Windows. Un valor de p < 0.05 fue aceptado como estadísticamente significativo. Resultados: Al comparar las dos técnicas, no se encontraron diferencias estadísticamente significativas en los tiempos evaluados. El tiempo de despertar promedio fue 10,1 minutos para Fentanil y 10,2 minutos para Remifentanil. El tiempo de descarga para Fentanil fue 11,9 minutos y para Remifentanil fue 11,5 minutos. Conclusiones: El uso de Fentanil - Propofol guiado por Stangraf es equivalente al uso de Remifentanil – Propofol en cuanto a los tiempos de despertar y de descarga. Se requieren nuevos estudios para corroborar estos hallazgos.