833 resultados para Probabilistic methodology
Resumo:
Introduction: The chronic kidney disease outcomes and practice patterns study (CKDopps) is an international observational, prospective, cohort study involving patients with chronic kidney disease (CKD) stages 3-5 [estimated glomerular filtration rate (eGFR) < 60 ml/min/1.73 m2, with a major focus upon care during the advanced CKD period (eGFR < 30 ml/min/1.73 m2)]. During a 1-year enrollment period, each one of the 22 selected clinics will enroll up to 60 advanced CKD patients (eGFR < 30 ml/min/1.73 m2 and not dialysis-dependent) and 20 earlier stage CKD patients (eGFR between 30-59 ml/min/1.73 m2). Exclusion criteria: age < 18 years old, patients on chronic dialysis or prior kidney transplant. The study timeline include up to one year for enrollment of patients at each clinic starting in the end of 2013, followed by up to 2-3 years of patient follow-up with collection of detailed longitudinal patient-level data, annual clinic practice-level surveys, and patient surveys. Analyses will apply regression models to evaluate the contribution of patient-level and clinic practice-level factors to study outcomes, and utilize instrumental variable-type techniques when appropriate. Conclusion: Launching in 2013, CKDopps Brazil will study advanced CKD care in a random selection of nephrology clinics across Brazil to gain understanding of variation in care across the country, and as part of a multinational study to identify optimal treatment practices to slow kidney disease progression and improve outcomes during the transition period to end-stage kidney disease.
Resumo:
The number of security violations is increasing and a security breach could have irreversible impacts to business. There are several ways to improve organization security, but some of them may be difficult to comprehend. This thesis demystifies threat modeling as part of secure system development. Threat modeling enables developers to reveal previously undetected security issues from computer systems. It offers a structured approach for organizations to find and address threats against vulnerabilities. When implemented correctly threat modeling will reduce the amount of defects and malicious attempts against the target environment. In this thesis Microsoft Security Development Lifecycle (SDL) is introduced as an effective methodology for reducing defects in the target system. SDL is traditionally meant to be used in software development, principles can be however partially adapted to IT-infrastructure development. Microsoft threat modeling methodology is an important part of SDL and it is utilized in this thesis to find threats from the Acme Corporation’s factory environment. Acme Corporation is used as a pseudonym for a company providing high-technology consumer electronics. Target for threat modeling is the IT-infrastructure of factory’s manufacturing execution system. Microsoft threat modeling methodology utilizes STRIDE –mnemonic and data flow diagrams to find threats. Threat modeling in this thesis returned results that were important for the organization. Acme Corporation now has more comprehensive understanding concerning IT-infrastructure of the manufacturing execution system. On top of vulnerability related results threat modeling provided coherent views of the target system. Subject matter experts from different areas can now agree upon functions and dependencies of the target system. Threat modeling was recognized as a useful activity for improving security.
Resumo:
The purpose of this study was to assess the effects of changing a nursing documentation system, developed from King's Conceptual Framework, on the use of the nursing process. The null hypothesis was that there would be no significant increase in the reflection of the use of the nursing process on the nursing care plan or nurses' notes, as a result of using a nursing documentation system developed using King's Conceptual Framework (1981). The design involved the development of a questionnaire that was used to review health records pre and post implementation of a documentation system developed based on King's Conceptual Framework and Theory of Goal Attainment (1981). A Record Completeness Score was obtained from some of the questions. The null hypothesis was rejected. The results of the study have implications for nursing administration and the evaluation of nursing practice. If the use of a documentation system developed from a conceptual framework increases the reflection of the nursing process on the patient's health record, nursing will have the means to measure patient outcomes/goal attainment. All health care organizations and levels of government are focusing on methods to monitor and control the health-care dollar. In order for nursing to clearly determine the costs associated with nursing care, measurement of patient outcomes/goal attainment will need to be possible. In order to measure patient outcomes/goals attainment nurses will need to be able to collect data on their practice. It will be critical that nursing have a documentation system in place which facilitates the reflection of the nursing process within a theoretical framework.
Resumo:
One of the most important problems in the theory of cellular automata (CA) is determining the proportion of cells in a specific state after a given number of time iterations. We approach this problem using patterns in preimage sets - that is, the set of blocks which iterate to the desired output. This allows us to construct a response curve - a relationship between the proportion of cells in state 1 after niterations as a function of the initial proportion. We derive response curve formulae for many two-dimensional deterministic CA rules with L-neighbourhood. For all remaining rules, we find experimental response curves. We also use preimage sets to classify surjective rules. In the last part of the thesis, we consider a special class of one-dimensional probabilistic CA rules. We find response surface formula for these rules and experimental response surfaces for all remaining rules.
Resumo:
Dans ce texte, nous analysons les développements récents de l’économétrie à la lumière de la théorie des tests statistiques. Nous revoyons d’abord quelques principes fondamentaux de philosophie des sciences et de théorie statistique, en mettant l’accent sur la parcimonie et la falsifiabilité comme critères d’évaluation des modèles, sur le rôle de la théorie des tests comme formalisation du principe de falsification de modèles probabilistes, ainsi que sur la justification logique des notions de base de la théorie des tests (tel le niveau d’un test). Nous montrons ensuite que certaines des méthodes statistiques et économétriques les plus utilisées sont fondamentalement inappropriées pour les problèmes et modèles considérés, tandis que de nombreuses hypothèses, pour lesquelles des procédures de test sont communément proposées, ne sont en fait pas du tout testables. De telles situations conduisent à des problèmes statistiques mal posés. Nous analysons quelques cas particuliers de tels problèmes : (1) la construction d’intervalles de confiance dans le cadre de modèles structurels qui posent des problèmes d’identification; (2) la construction de tests pour des hypothèses non paramétriques, incluant la construction de procédures robustes à l’hétéroscédasticité, à la non-normalité ou à la spécification dynamique. Nous indiquons que ces difficultés proviennent souvent de l’ambition d’affaiblir les conditions de régularité nécessaires à toute analyse statistique ainsi que d’une utilisation inappropriée de résultats de théorie distributionnelle asymptotique. Enfin, nous soulignons l’importance de formuler des hypothèses et modèles testables, et de proposer des techniques économétriques dont les propriétés sont démontrables dans les échantillons finis.
Resumo:
We consider a probabilistic approach to the problem of assigning k indivisible identical objects to a set of agents with single-peaked preferences. Using the ordinal extension of preferences, we characterize the class of uniform probabilistic rules by Pareto efficiency, strategy-proofness, and no-envy. We also show that in this characterization no-envy cannot be replaced by anonymity. When agents are strictly risk averse von-Neumann-Morgenstern utility maximizers, then we reduce the problem of assigning k identical objects to a problem of allocating the amount k of an infinitely divisible commodity.
Resumo:
This Paper Intends to Develop a Coherent Methodological Framework Concerned with the Appraisal of Scientific Theories in Economics, and Which Is Based on a Postulated Aim of Science. We First Define the Scope of a Methodological Inquiry (Precise Definition of What Is Meant by the Logic of Appraisal of Scientific Theories) and Review the Work of Popper and Lakatos in the Philosophy of Science. We Then Use Their Results to Develop a Rational Structure of Scientific Activity. We Identify and Analyse Both a Micro and Macro Framework for the Process of Appraisal and Single Out the Importance of So-Called 'Fundamental Assumptions' in Creating Externalities in the Appraisal Process Which Forces Us to Adop a Multi-Level Analysis. Special Attention Is Given to the Role and Significance of the Abstraction Process and the Use of Assumptions in General. the Proposed Structure of Scientific Activity Is Illustrated with Examples From Economics.
Resumo:
Présentation du professeur Karim Benyekhlef, lors du Congrès annuel de l'Institut canadien de l'administration de la justice (ICAJ) intitulé « Règlement des conflits : la justice n'appartient-elle qu'aux tribunaux ? ». Le panel auquel il participait : « La cyber justice - Les tribunaux virtuels ». Disponible en français et en anglais (avec commentaires).
Resumo:
With the help of an illustrative general equilibrium (CGE) model of the Moroccan Economy, we test for the significance of simulation results in the case where the exact macromesure is not known with certainty. This is done by computing lower and upper bounds for the simulation resukts, given a priori probabilities attached to three possible closures (Classical, Johansen, Keynesian). Our Conclusion is that, when there is uncertainty on closures several endogenous changes lack significance, which, in turn, limit the use of the model for policy prescriptions.
Resumo:
L’appréciation de la puissance cancérogène des fibres d’amiante chrysotile repose en grande partie sur des jugements subjectifs et incertains des experts et des analystes en raison des résultats hétérogènes et équivoques d’études épidémiologiques et toxicologiques sérieuses. L’approche probabiliste bayésienne en évaluation de risques peut formaliser l’impact des jugements subjectifs et de leurs incertitudes sur les estimations de risques, mais elle est encore peu utilisée en santé publique. Le présent travail examine la possibilité d’appliquer l’approche bayésienne dans une récente élicitation d’opinions d’experts pour estimer la toxicité du chrysotile, le degré de consensus et de divergence, ainsi que les niveaux d’incertitude des experts. Les estimations des experts concordaient assez bien sur la différence de toxicité entre chrysotile et amphiboles pour les mésothéliomes. Pour le cancer du poumon, les évaluations probabilistes étaient bien plus disparates. Dans ce cas, les jugements des experts semblaient influencés à différents degrés par des biais heuristiques, surtout les heuristiques d’affect et d’ancrage liés à la controverse du sujet et à l’hétérogénéité des données. Une méthodologie rigoureuse de préparation des experts à l’exercice d’élicitation aurait pu réduire l’impact des biais et des heuristiques sur le panel.
Resumo:
Cette thèse porte sur l'analyse bayésienne de données fonctionnelles dans un contexte hydrologique. L'objectif principal est de modéliser des données d'écoulements d'eau d'une manière parcimonieuse tout en reproduisant adéquatement les caractéristiques statistiques de celles-ci. L'analyse de données fonctionnelles nous amène à considérer les séries chronologiques d'écoulements d'eau comme des fonctions à modéliser avec une méthode non paramétrique. Dans un premier temps, les fonctions sont rendues plus homogènes en les synchronisant. Ensuite, disposant d'un échantillon de courbes homogènes, nous procédons à la modélisation de leurs caractéristiques statistiques en faisant appel aux splines de régression bayésiennes dans un cadre probabiliste assez général. Plus spécifiquement, nous étudions une famille de distributions continues, qui inclut celles de la famille exponentielle, de laquelle les observations peuvent provenir. De plus, afin d'avoir un outil de modélisation non paramétrique flexible, nous traitons les noeuds intérieurs, qui définissent les éléments de la base des splines de régression, comme des quantités aléatoires. Nous utilisons alors le MCMC avec sauts réversibles afin d'explorer la distribution a posteriori des noeuds intérieurs. Afin de simplifier cette procédure dans notre contexte général de modélisation, nous considérons des approximations de la distribution marginale des observations, nommément une approximation basée sur le critère d'information de Schwarz et une autre qui fait appel à l'approximation de Laplace. En plus de modéliser la tendance centrale d'un échantillon de courbes, nous proposons aussi une méthodologie pour modéliser simultanément la tendance centrale et la dispersion de ces courbes, et ce dans notre cadre probabiliste général. Finalement, puisque nous étudions une diversité de distributions statistiques au niveau des observations, nous mettons de l'avant une approche afin de déterminer les distributions les plus adéquates pour un échantillon de courbes donné.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Aim: To develop a new medium for enhanced production of biomass of an aquaculture probiotic Pseudomonas MCCB 103 and its antagonistic phenazine compound, pyocyanin. Methods and Results: Carbon and nitrogen sources and growth factors, such as amino acids and vitamins, were screened initially in a mineral medium for the biomass and antagonistic compound of Pseudomonas MCCB 103. The selected ingredients were further optimized using a full-factorial central composite design of the response surface methodology. The medium optimized as per the model for biomass contained mannitol (20 g l)1), glycerol (20 g l)1), sodium chloride (5 g l)1), urea (3Æ3 g l)1) and mineral salts solution (20 ml l)1), and the one optimized for the antagonistic compound contained mannitol (2 g l)1), glycerol (20 g l)1), sodium chloride (5Æ1 g l)1), urea (3Æ6 g l)1) and mineral salts solution (20 ml l)1). Subsequently, the model was validated experimentally with a biomass increase by 19% and fivefold increase of the antagonistic compound. Conclusion: Significant increase in the biomass and antagonistic compound production could be obtained in the new media. Significance and Impact of the Study: Media formulation and optimization are the primary steps involved in bioprocess technology, an attempt not made so far in the production of aquaculture probiotics.