866 resultados para sequential-tests
Resumo:
Notre progiciel PoweR vise à faciliter l'obtention ou la vérification des études empiriques de puissance pour les tests d'ajustement. En tant que tel, il peut être considéré comme un outil de calcul de recherche reproductible, car il devient très facile à reproduire (ou détecter les erreurs) des résultats de simulation déjà publiés dans la littérature. En utilisant notre progiciel, il devient facile de concevoir de nouvelles études de simulation. Les valeurs critiques et puissances de nombreuses statistiques de tests sous une grande variété de distributions alternatives sont obtenues très rapidement et avec précision en utilisant un C/C++ et R environnement. On peut même compter sur le progiciel snow de R pour le calcul parallèle, en utilisant un processeur multicœur. Les résultats peuvent être affichés en utilisant des tables latex ou des graphiques spécialisés, qui peuvent être incorporés directement dans vos publications. Ce document donne un aperçu des principaux objectifs et les principes de conception ainsi que les stratégies d'adaptation et d'extension.
Resumo:
Contexte : De manière générale, on considère que le processus de validation d’un instrument de mesure porte sur la validité et la fiabilité. Or, la nature dynamique et évolutive de certaines problématiques, comme la stigmatisation des personnes vivant avec le VIH (PVVIH), laisse croire qu’il est particulièrement important de réinvestir rapidement dans la pratique, les résultats produits par les mesures ainsi validées. Objectifs : La présente thèse vise à développer et valider une échelle de mesure des attitudes stigmatisantes envers les PVVIH en intégrant un dispositif participatif. La thèse utilise en partie les données d’une enquête de surveillance des attitudes envers les PVVIH au Québec, elle comporte trois études qui répondent aux trois objectifs spécifiques suivants : (1) valider la version révisée d’un instrument de mesure des attitudes favorables à la stigmatisation dans la population générale du Québec envers les PVVIH; (2) analyser la relation entre la mesure des attitudes favorables à la stigmatisation et le recours au dépistage du VIH dans la population générale du Québec; (3) décrire et analyser les processus de circulation et d’utilisation des connaissances produites par l’instrument de mesure dans les réseaux professionnels des membres d’un comité consultatif. Méthodes : Un comité consultatif réunissant plusieurs partenaires issus de différents milieux a été constitué dès l’obtention de la subvention. Il a été consulté et informé avant, pendant et après l’enquête téléphonique populationnelle (n=1500) ayant permis de colliger les données. L’Échelle des Attitudes Stigmatisantes envers les Personnes Vivant avec le VIH (EASE-PVVIH) a été validée au moyen de plusieurs analyses psychométriques : analyses factorielles exploratoires et confirmatives, corrélations, régression linéaire multiple, test-t, tests d’hypothèses d’invariance de la structure factorielle et alphas de Cronbach (objectif 1). L’association entre les attitudes favorables à la stigmatisation et le recours au dépistage du VIH a été testée à l’aide de régressions logistiques hiérarchiques (objectif 2). Quant aux processus de circulation et d’utilisation des connaissances dans les réseaux professionnels, ils ont été analysés au moyen d’une étude de cas rétrospective (objectif 3). Résultats : Les analyses ont révélé trois résultats importants. Premièrement, d’un point de vue psychométrique, l’EASE-PVVIH est un outil fiable et valide pour mesurer les attitudes stigmatisantes envers les personnes vivant avec le VIH. Deuxièmement, sous une certaine forme caractérisée par l’inquiétude éprouvée lors de rencontres occasionnelles, les attitudes stigmatisantes par rapport aux personnes vivant avec le VIH semblent nuire au recours au test de dépistage dans la population générale au Québec. Troisièmement, un dispositif participatif en particulier, soit un comité consultatif, semble être un moyen pour favoriser le réinvestissement rapide et étendre la portée des résultats produits par la recherche dans des actions concrètes de santé publique. Conclusion : Ces résultats mettent en lumière la portée d’un dispositif participatif pour la validation d’instrument de mesure. L’arrimage entre les préoccupations scientifiques et pratiques apparaît être une avenue prometteuse pour améliorer la qualité et la pertinence sociale des données produites par les mesures.
Resumo:
L’insuffisance rénale chronique (IRC) est un problème majeur fréquemment rencontré chez les greffés cardiaques. Les inhibiteurs de la calcineurine, pierre angulaire de l’immunosuppression en transplantation d’organes solides, sont considérés comme une des principales causes de dysfonction rénale postgreffe. Plusieurs autres éléments tels que les caractéristiques démographiques, cliniques et génétiques du receveur contribuent également au phénomène, mais il demeure plutôt difficile de déterminer quels sont les patients les plus à risque de développer une IRC après la transplantation. Ainsi, la découverte de nouveaux marqueurs génétiques de dysfonction rénale pourrait un jour mener à l’individualisation de la thérapie immunosuppressive selon le profil génétique de chaque patient. Or, on ne connaît pas les opinions des greffés à l’égard des tests pharmacogénomiques et l’on ne sait pas si celles-ci diffèrent des opinions exprimées par les individus en bonne santé. Cette thèse de doctorat a donc pour objectifs : 1- De décrire l’évolution de la fonction rénale à très long terme après la transplantation et d’identifier les marqueurs démographiques et phénotypiques associés à l’IRC postgreffe cardiaque; 2- D’identifier les marqueurs génétiques associés à la néphrotoxicité induite par les inhibiteurs de la calcineurine; 3- D’évaluer et de comparer les attitudes des patients et des individus en bonne santé par rapport à l’intégration clinique potentielle des marqueurs pharmacogénomiques. Trois projets ont été réalisés pour répondre à ces questions. Le premier repose sur une analyse rétrospective de l’évolution de la fonction rénale chez les patients greffés au sein de notre établissement entre 1983 et 2008. Nous y avons découvert que le déclin de la fonction rénale se poursuit jusqu’à 20 ans après la transplantation cardiaque et que les facteurs de risque d’IRC incluent entre autres l’âge avancé, le sexe féminin, la dysfonction rénale prégreffe, l’hypertension, l’hyperglycémie et l’utilisation de la prednisone. Le deuxième projet est une étude pharmacogénomique s’intéressant aux déterminants génétiques de la néphrotoxicité induite par les inhibiteurs de la calcineurine. Elle nous a permis d’illustrer pour la première fois qu’un polymorphisme génétique lié à PRKCB (gène codant pour la protéine kinase C-β) est associé avec la fonction rénale des patients greffés cardiaques, alors que cela n’est probablement pas le cas pour les polymorphismes de TGFB1 (gène codant pour le transforming growth factor-β1). La troisième section de cette thèse rapporte les résultats d’un questionnaire dont le but était de comparer les attitudes envers les tests pharmacogénomiques parmi un groupe de personnes en bonne santé, de patients greffés cardiaques et de patients souffrant d’insuffisance cardiaque. Cette étude a démontré que, bien que l’enthousiasme pour la pharmacogénomique soit partagé par tous ces individus, les craintes liées à la confidentialité et aux répercussions potentielles sur l’emploi et les assurances sont plus prononcées chez les personnes en bonne santé. En résumé, les travaux issus de cette thèse ont révélé que l’identification précoce des patients greffés cardiaques les plus susceptibles de présenter une détérioration de la fonction rénale ainsi que l’adoption d’une approche thérapeutique individualisée reposant notamment sur les applications cliniques de la pharmacogénomique pourraient éventuellement permettre de freiner cette complication postgreffe.
Resumo:
We study the problem of deriving a complete welfare ordering from a choice function. Under the sequential solution, the best alternative is the alternative chosen from the universal set; the second best is the one chosen when the best alternative is removed; and so on. We show that this is the only completion of Bernheim and Rangel's (2009) welfare relation that satisfies two natural axioms: neutrality, which ensures that the names of the alternatives are welfare-irrelevant; and persistence, which stipulates that every choice function between two welfare-identical choice functions must exhibit the same welfare ordering.
Resumo:
Les simulations et figures ont été réalisées avec le logiciel R.
Resumo:
Full Text / Article complet
Resumo:
In this work. Sub-micrometre thick CulnSe2 films were prepared using different
techniques viz, selenization through chemically deposited Selenium and Sequential
Elemental Evaporation. These methods
are simpler than co-evaporation technique, which is known to be the most suitable
one for CulnSe2 preparation. The films were optimized by varying the composition
over a wide range to find optimum properties for device fabrication. Typical absorber
layer thickness of today's solar cell ranges from 2-3m. Thinning of the absorber
layer is one of the challenges to reduce the processing time and material usage,
particularly of Indium. Here we made an attempt to fabricate solar cell with absorber
layer of thickness
Resumo:
The study was carried out to understand the effect of silver-silica nanocomposite (Ag-SiO2NC) on the cell wall integrity, metabolism and genetic stability of Pseudomonas aeruginosa, a multiple drugresistant bacterium. Bacterial sensitivity towards antibiotics and Ag-SiO2NC was studied using standard disc diffusion and death rate assay, respectively. The effect of Ag-SiO2NC on cell wall integrity was monitored using SDS assay and fatty acid profile analysis while the effect on metabolism and genetic stability was assayed microscopically, using CTC viability staining and comet assay, respectively. P. aeruginosa was found to be resistant to β-lactamase, glycopeptidase, sulfonamide, quinolones, nitrofurantoin and macrolides classes of antibiotics. Complete mortality of the bacterium was achieved with 80 μgml-1 concentration of Ag-SiO2NC. The cell wall integrity reduced with increasing time and reached a plateau of 70 % in 110 min. Changes were also noticed in the proportion of fatty acids after the treatment. Inside the cytoplasm, a complete inhibition of electron transport system was achieved with 100 μgml-1 Ag-SiO2NC, followed by DNA breakage. The study thus demonstrates that Ag-SiO2NC invades the cytoplasm of the multiple drug-resistant P. aeruginosa by impinging upon the cell wall integrity and kills the cells by interfering with electron transport chain and the genetic stability
Resumo:
Hintergrund und Ziel: Ausgehend von einem Forschungsdefizit im Bereich von Performance-Tests, das von der Arbeitsgruppe um Bührlen et al. (2002) gekennzeichnet wurde, war es das Ziel der Arbeit einen Performance-Tests of lower limb activities (Polla) zu validieren. Methode: In einer Längsschnittstudie wurden die Ergebnisse einer sechswöchigen physiotherapeutischen Behandlung an einem 19-75jährigem orthopädisch-traumatologisch orientierten Patientenkollektiv (n=81) mit dem Polla und dem SF-36 Fragebogen erfasst. Ergebnisse: Die Ergebnisse machen eine gute Absicherung der Teststatistik deutlich. Bei ausgezeichneter Intrarater- (n=29) sowie guter Interrater-Reliabilität (n=32) weist die Konsistenzanalyse eine zufrieden stellende Zuverlässigkeit auf. Die Kriteriumsvalidität macht moderate Zusammenhänge zwischen dem Polla und den Dimensionen Schmerz, Körperliche Rollenfunktion und Körperliche Funktionsfähigkeit des SF-36 deutlich. Über die Standardized Response Mean zeigen die Instrumente eine große Änderungssensitivität, die nur für den Polla auch zum Follow-up (n=26) gilt. Schlussfolgerung: Der Polla ist ein kostenloses Testverfahren mit hoher praktischer Relevanz, wobei aus zeitökonomischen Gründen eine modifizierte Form des Polla mit nur zehn Items und einem gemessenen Test zu empfehlen ist.
Resumo:
Im Rahmen von empirischen Untersuchungen zum Lehren und Lernen von Mathematik haben wir einen Test entwickelt ("Potentialtest"), der die "mathematische Leistungsfähigkeit" von 13/14jährigen Jugendlichen in England und Deutschland für Vergleichszwecke messen soll. Im vorliegenden Beitrag beschreiben wir die Entstehung des Tests sowie Resultate der Durchführung des Tests bei 1036 englischen und deutschen Lernenden. Die Resultate werden unter Berücksichtigung von - aus unseren früheren Fallstudien bekannten - Charakteristika des Mathematikunterrichts in beiden Ländern interpretiert.
Resumo:
In dieser Arbeit werden mithilfe der Likelihood-Tiefen, eingeführt von Mizera und Müller (2004), (ausreißer-)robuste Schätzfunktionen und Tests für den unbekannten Parameter einer stetigen Dichtefunktion entwickelt. Die entwickelten Verfahren werden dann auf drei verschiedene Verteilungen angewandt. Für eindimensionale Parameter wird die Likelihood-Tiefe eines Parameters im Datensatz als das Minimum aus dem Anteil der Daten, für die die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, und dem Anteil der Daten, für die diese Ableitung nicht positiv ist, berechnet. Damit hat der Parameter die größte Tiefe, für den beide Anzahlen gleich groß sind. Dieser wird zunächst als Schätzer gewählt, da die Likelihood-Tiefe ein Maß dafür sein soll, wie gut ein Parameter zum Datensatz passt. Asymptotisch hat der Parameter die größte Tiefe, für den die Wahrscheinlichkeit, dass für eine Beobachtung die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, gleich einhalb ist. Wenn dies für den zu Grunde liegenden Parameter nicht der Fall ist, ist der Schätzer basierend auf der Likelihood-Tiefe verfälscht. In dieser Arbeit wird gezeigt, wie diese Verfälschung korrigiert werden kann sodass die korrigierten Schätzer konsistente Schätzungen bilden. Zur Entwicklung von Tests für den Parameter, wird die von Müller (2005) entwickelte Simplex Likelihood-Tiefe, die eine U-Statistik ist, benutzt. Es zeigt sich, dass für dieselben Verteilungen, für die die Likelihood-Tiefe verfälschte Schätzer liefert, die Simplex Likelihood-Tiefe eine unverfälschte U-Statistik ist. Damit ist insbesondere die asymptotische Verteilung bekannt und es lassen sich Tests für verschiedene Hypothesen formulieren. Die Verschiebung in der Tiefe führt aber für einige Hypothesen zu einer schlechten Güte des zugehörigen Tests. Es werden daher korrigierte Tests eingeführt und Voraussetzungen angegeben, unter denen diese dann konsistent sind. Die Arbeit besteht aus zwei Teilen. Im ersten Teil der Arbeit wird die allgemeine Theorie über die Schätzfunktionen und Tests dargestellt und zudem deren jeweiligen Konsistenz gezeigt. Im zweiten Teil wird die Theorie auf drei verschiedene Verteilungen angewandt: Die Weibull-Verteilung, die Gauß- und die Gumbel-Copula. Damit wird gezeigt, wie die Verfahren des ersten Teils genutzt werden können, um (robuste) konsistente Schätzfunktionen und Tests für den unbekannten Parameter der Verteilung herzuleiten. Insgesamt zeigt sich, dass für die drei Verteilungen mithilfe der Likelihood-Tiefen robuste Schätzfunktionen und Tests gefunden werden können. In unverfälschten Daten sind vorhandene Standardmethoden zum Teil überlegen, jedoch zeigt sich der Vorteil der neuen Methoden in kontaminierten Daten und Daten mit Ausreißern.
Resumo:
Se analiza la medida en que las pruebas psicopedag??gicas Boehm y Peabody predicen las dificultades en el ??mbito lectoescritor que pueden presentarse en el alumnado de Primaria. Para ello se ha desarrollado un estudio de tipo correlacional en el que se han reunido datos de alumnos desde su ingreso en la Educaci??n Infantil hasta su escolarizaci??n en el segundo ciclo de Educaci??n Primaria. La informaci??n obtenida tiene por tanto, un car??cter diacr??nico. El informe est?? constituido por una breve alusi??n te??rica al problema que se trata para situarse en el lugar preciso donde se centra la investigaci??n, descripci??n de la metodolog??a de investigaci??n, resultados y conclusiones, la discusi??n de los resultados y las propuestas. Se recogen tambi??n la bibliograf??a usada y el estudio de an??lisis de los casos utilizados. Las conclusiones afirman que existe una correlaci??n estad??sticamente significativa entre los tests Peabody y Boehm. Las correlaciones m??s altas son las que implican, de una parte a los tests Peabody y Boehm y, de otra, a las notas escolares de segundo ciclo de Educaci??n Primaria en Matem??ticas y Lengua. Las notas escolares obtenidas por los alumnos del primer ciclo de Educaci??n Primaria en Lengua y Matem??ticas no tienen una correlaci??n estad??sticamente significativa con los tests Boehm y Peabody. En el primer ciclo de Educaci??n Primaria, s??lo el test Peaboy permite predecir las notas escolares en Lengua y Matem??ticas. Estimar y determinar el rendimiento de los alumnos en las citadas asignaturas tomando como punto de partida s??lo los datos aportados por el test Peabody resulta desaconsejable dado el escaso poder predictivo de dicho test. El test Boehm, por su parte, tiene a??n menos poder predictivo sobre las notas escolares y, en el presente estudio, aparece como un mal predictor.
Resumo:
This paper describes a new statistical, model-based approach to building a contact state observer. The observer uses measurements of the contact force and position, and prior information about the task encoded in a graph, to determine the current location of the robot in the task configuration space. Each node represents what the measurements will look like in a small region of configuration space by storing a predictive, statistical, measurement model. This approach assumes that the measurements are statistically block independent conditioned on knowledge of the model, which is a fairly good model of the actual process. Arcs in the graph represent possible transitions between models. Beam Viterbi search is used to match measurement history against possible paths through the model graph in order to estimate the most likely path for the robot. The resulting approach provides a new decision process that can be use as an observer for event driven manipulation programming. The decision procedure is significantly more robust than simple threshold decisions because the measurement history is used to make decisions. The approach can be used to enhance the capabilities of autonomous assembly machines and in quality control applications.
Resumo:
In most classical frameworks for learning from examples, it is assumed that examples are randomly drawn and presented to the learner. In this paper, we consider the possibility of a more active learner who is allowed to choose his/her own examples. Our investigations are carried out in a function approximation setting. In particular, using arguments from optimal recovery (Micchelli and Rivlin, 1976), we develop an adaptive sampling strategy (equivalent to adaptive approximation) for arbitrary approximation schemes. We provide a general formulation of the problem and show how it can be regarded as sequential optimal recovery. We demonstrate the application of this general formulation to two special cases of functions on the real line 1) monotonically increasing functions and 2) functions with bounded derivative. An extensive investigation of the sample complexity of approximating these functions is conducted yielding both theoretical and empirical results on test functions. Our theoretical results (stated insPAC-style), along with the simulations demonstrate the superiority of our active scheme over both passive learning as well as classical optimal recovery. The analysis of active function approximation is conducted in a worst-case setting, in contrast with other Bayesian paradigms obtained from optimal design (Mackay, 1992).