904 resultados para Test data
Resumo:
Most of the applications of airborne laser scanner data to forestry require that the point cloud be normalized, i.e., each point represents height from the ground instead of elevation. To normalize the point cloud, a digital terrain model (DTM), which is derived from the ground returns in the point cloud, is employed. Unfortunately, extracting accurate DTMs from airborne laser scanner data is a challenging task, especially in tropical forests where the canopy is normally very thick (partially closed), leading to a situation in which only a limited number of laser pulses reach the ground. Therefore, robust algorithms for extracting accurate DTMs in low-ground-point-densitysituations are needed in order to realize the full potential of airborne laser scanner data to forestry. The objective of this thesis is to develop algorithms for processing airborne laser scanner data in order to: (1) extract DTMs in demanding forest conditions (complex terrain and low number of ground points) for applications in forestry; (2) estimate canopy base height (CBH) for forest fire behavior modeling; and (3) assess the robustness of LiDAR-based high-resolution biomass estimation models against different field plot designs. Here, the aim is to find out if field plot data gathered by professional foresters can be combined with field plot data gathered by professionally trained community foresters and used in LiDAR-based high-resolution biomass estimation modeling without affecting prediction performance. The question of interest in this case is whether or not the local forest communities can achieve the level technical proficiency required for accurate forest monitoring. The algorithms for extracting DTMs from LiDAR point clouds presented in this thesis address the challenges of extracting DTMs in low-ground-point situations and in complex terrain while the algorithm for CBH estimation addresses the challenge of variations in the distribution of points in the LiDAR point cloud caused by things like variations in tree species and season of data acquisition. These algorithms are adaptive (with respect to point cloud characteristics) and exhibit a high degree of tolerance to variations in the density and distribution of points in the LiDAR point cloud. Results of comparison with existing DTM extraction algorithms showed that DTM extraction algorithms proposed in this thesis performed better with respect to accuracy of estimating tree heights from airborne laser scanner data. On the other hand, the proposed DTM extraction algorithms, being mostly based on trend surface interpolation, can not retain small artifacts in the terrain (e.g., bumps, small hills and depressions). Therefore, the DTMs generated by these algorithms are only suitable for forestry applications where the primary objective is to estimate tree heights from normalized airborne laser scanner data. On the other hand, the algorithm for estimating CBH proposed in this thesis is based on the idea of moving voxel in which gaps (openings in the canopy) which act as fuel breaks are located and their height is estimated. Test results showed a slight improvement in CBH estimation accuracy over existing CBH estimation methods which are based on height percentiles in the airborne laser scanner data. However, being based on the idea of moving voxel, this algorithm has one main advantage over existing CBH estimation methods in the context of forest fire modeling: it has great potential in providing information about vertical fuel continuity. This information can be used to create vertical fuel continuity maps which can provide more realistic information on the risk of crown fires compared to CBH.
Resumo:
This study examined the effects of providing students with explicit instruction in how to use a repertoire of reading comprehension strategies and test taking skills when reading and responding to three types of questions (direct, inferential, critical). Specifically, the study examined whether providing students with a "model" of how to read and respond to the text and to the comprehension questions improved their reading comprehension relative to providing them with implicit instruction on reading comprehension strategies and test taking skills. Students' reading comprehension and test taking performance scores were compared as a function of instructional condition. Students from 2 grade 8 classes participated in this study. The reading component of the Canadian Achievement Tests, Third Edition (CAT/3) was used to identify students' level of reading comprehension prior to the formal instructional sessions. Students received either explicit instruction, which involved modelling, or implicit instruction, which consisted of review and discussion of the strategies to be used. Comprehension was measured through the administration of formative tests after each instructional session. The formative tests consisted of reading comprehension questions pertaining to a specific form of text (narrative, informational, graphic). In addition, students completed 3 summative tests and a delayed comprehension test which consisted of the alternative version of the CAT/3 standardized reading assessment. These data served as a posttest measure to determine whether students had shown an improvement in their reading comprehension skills as a result of the program delivery. There were significant differences in students' Canadian Achievement Test performance scores prior to the onset of the study. Students in the implicit group attained significantly higher comprehension scores than did students in the explicit group. The results from the program sessions indicated no significant differences in reading comprehension between the implicit and explicit conditions, with the exception of the 6th session involving the reading and interpreting of graphic text. Students in the explicit group performed significantly better when reading and interpreting graphic text than those in the implicit group. No significant differences were evident between the two study conditions across the three summative tests. Upon completion of the study, the results from the Canadian Achievement Test indicated no significant differences in performance between the two study conditions. The findings from this study reveal the effectiveness of providing students with explicit strategy instruction when reading and responding to various forms of text. Modelling the appropriate reading comprehension strategies and test taking skills enabled students to apply the same thought processes to their own independent work. This form of instruction enabled students in the explicit group to improve in their abilities to comprehend and respond to text and therefore should be incorporated as an effective form of classroom teaching.
Resumo:
One hundred and seventy-two subj ects participated in this quantitative, correlational survey which tested Hackman and Oldham's Job Characteristics Model in an educational setting. Subjects were Teaching Masters, Chairmen and Deans from an Ontario community college. The data were collected via mailed questionnaire, on all variables of the model. Several reliable, valid instruments were used to test the variables. Data analysis through Pearson correlation and stepwise multiple regression analyses revealed that core job characteristics predicted certain critical psychological states and that these critical psychological states, in turn were able to predict various personal and work outcomes but not absenteeism. The context variable, Satisfaction with Co-workers, was the only consistent moderating variable between core characteristics and critical psychological states; however, individual employee differences did moderate the relationship between critical psychological states and all of the personal and work outcomes except Internal Work Motivation. Two other moderator variables, Satisfaction with Context and Growth Need Strength, demonstrated an ability to predict the outcome General Job Satisfaction. The research suggests that this model may be used for job design and redesign purposes within the community college setting.
Resumo:
The primary objectives of the present study were 1) to examine the relationship between health-enhancing physical activity (HEPA) and well-being across the previous day and 2) to examine the role of basic psychological need satisfaction as a potential mediator of the HEPA – well-being relationship. Participants (N = 203) were a convenience sample of undergraduate students with data collected cross sectionally. HEPA was generally associated with well-being (r‟s ranged from .18 to .62). Multiple mediation analyses supported psychological need satisfaction as mechanisms underpinning the HEPA – well- being relationship. Subsequent analyses demonstrated that effort put forth in HEPA activities, as opposed to frequency or duration, uniquely predicted well-being. The role of effort was further highlighted in the multiple mediation analyses. As such future research may wish to investigate the utility of a HEPA program that facilitates effortful engagement and fulfillment of basic psychological needs.
Resumo:
Selon certains modèles évolutionnistes, les femmes seraient davantage affectées par l’infidélité émotionnelle de leur partenaire masculin que par son infidélité sexuelle. Les mécanismes psychologiques responsables auraient évolué pendant notre passé de chasseur-cueilleur de façon à assurer à la femme un accès exclusif aux ressources économiques provenant du partenaire. Or la situation économique des femmes d’aujourd’hui a considérablement changé depuis cette époque, plusieurs d’entre-elles étant indépendantes financièrement. Dans la présente recherche, nous testons l’hypothèse que les femmes qui sont indépendantes financièrement sont moins intensément, ou moins rapidement, jalouses que les femmes qui dépendent financièrement de leur partenaire. Nous cherchons aussi à savoir si le nombre d’enfants, ou certains traits de personnalité ont une influence sur la jalousie. L’échantillon était constitué d’une soixantaine de femmes et les données proviennent de questionnaires et de mises en situation fictives. Nos résultats ne supportent pas l’hypothèse principale, les divers sous-groupes de femmes étant jalouses à la même intensité. Nous considérons divers facteurs pouvant expliquer l’absence de différences, par exemple, la possibilité que certains aspects de la relation de couple puissent cacher l’effet de la situation économique des femmes. D’autres résultats montrent une différence significative dans l’intensité de la jalousie selon l’identité de la personne en relation avec le partenaire (ancienne versus nouvelle amie). Ces résultats sont aussi évalués dans une perspective évolutionniste.
Resumo:
Introduction : Les statines ont prouvé leur efficacité dans le traitement des dyslipidémies. Cependant, ces molécules sont associées à des effets secondaires d’ordre musculaire. Puisque ces effets peuvent avoir des conséquences graves sur la vie des patients en plus d’être possiblement à l’origine de la non-observance d’une proportion importante des patients recevant une statine, un outil pharmacogénomique qui permettrait d’identifier a priori les patients susceptibles de développer des effets secondaires musculaires induits par une statine (ESMIS) serait très utile. L’objectif de la présente étude était donc de déterminer la valeur monétaire d’un tel type d’outil étant donné que cet aspect représenterait une composante importante pour sa commercialisation et son implantation dans la pratique médicale courante. Méthode : Une première simulation fut effectuée à l’aide de la méthode de Markov, mais celle-ci ne permettait pas de tenir compte de tous les éléments désirés. C’est pourquoi la méthode de simulation d'évènements discrets fut utilisée pour étudier une population de 100 000 patients hypothétiques nouvellement initiés sur une statine. Cette population virtuelle a été dupliquée pour obtenir deux cohortes de patients identiques. Une cohorte recevait le test et un traitement approprié alors que l'autre cohorte recevait le traitement standard actuel—i.e., une statine. Le modèle de simulation a permis de faire évoluer les deux cohortes sur une période de 15 ans en tenant compte du risque de maladies cardio-vasculaires (MCV) fatal ou non-fatal, d'ESMIS et de mortalité provenant d’une autre cause que d’une MCV. Les conséquences encourues (MCV, ESMIS, mortalité) par ces deux populations et les coûts associés furent ensuite comparés. Finalement, l’expérience fut répétée à 25 reprises pour évaluer la stabilité des résultats et diverses analyses de sensibilité ont été effectuées. Résultats : La différence moyenne des coûts en traitement des MCV et des ESMIS, en perte de capital humain et en médicament était de 28,89 $ entre les deux cohortes pour la durée totale de l’expérimentation (15 ans). Les coûts étant plus élevés chez celle qui n’était pas soumise au test. Toutefois, l’écart-type à la moyenne était considérable (416,22 $) remettant en question la validité de l’estimation monétaire du test pharmacogénomique. De plus, cette valeur était fortement influencée par la proportion de patients prédisposés aux ESMIS, par l’efficacité et le coût des agents hypolipidémiants alternatifs ainsi que par les coûts des traitements des ESMIS et de la valeur attribuée à un mois de vie supplémentaire. Conclusion : Ces résultats suggèrent qu’un test de prédisposition génétique aux ESMIS aurait une valeur d’environ 30 $ chez des patients s’apprêtant à commencer un traitement à base de statine. Toutefois, l’incertitude entourant la valeur obtenue est très importante et plusieurs variables dont les données réelles ne sont pas disponibles dans la littérature ont une influence importante sur la valeur. La valeur réelle de cet outil génétique ne pourra donc être déterminée seulement lorsque le modèle sera mis à jour avec des données plus précises sur la prévalence des ESMIS et leur impact sur l’observance au traitement puis analysé avec un plus grand nombre de patients.
Resumo:
La douleur est une expérience perceptive comportant de nombreuses dimensions. Ces dimensions de douleur sont inter-reliées et recrutent des réseaux neuronaux qui traitent les informations correspondantes. L’élucidation de l'architecture fonctionnelle qui supporte les différents aspects perceptifs de l'expérience est donc une étape fondamentale pour notre compréhension du rôle fonctionnel des différentes régions de la matrice cérébrale de la douleur dans les circuits corticaux qui sous tendent l'expérience subjective de la douleur. Parmi les diverses régions du cerveau impliquées dans le traitement de l'information nociceptive, le cortex somatosensoriel primaire et secondaire (S1 et S2) sont les principales régions généralement associées au traitement de l'aspect sensori-discriminatif de la douleur. Toutefois, l'organisation fonctionnelle dans ces régions somato-sensorielles n’est pas complètement claire et relativement peu d'études ont examiné directement l'intégration de l'information entre les régions somatiques sensorielles. Ainsi, plusieurs questions demeurent concernant la relation hiérarchique entre S1 et S2, ainsi que le rôle fonctionnel des connexions inter-hémisphériques des régions somatiques sensorielles homologues. De même, le traitement en série ou en parallèle au sein du système somatosensoriel constitue un autre élément de questionnement qui nécessite un examen plus approfondi. Le but de la présente étude était de tester un certain nombre d'hypothèses sur la causalité dans les interactions fonctionnelle entre S1 et S2, alors que les sujets recevaient des chocs électriques douloureux. Nous avons mis en place une méthode de modélisation de la connectivité, qui utilise une description de causalité de la dynamique du système, afin d'étudier les interactions entre les sites d'activation définie par un ensemble de données provenant d'une étude d'imagerie fonctionnelle. Notre paradigme est constitué de 3 session expérimentales en utilisant des chocs électriques à trois différents niveaux d’intensité, soit modérément douloureux (niveau 3), soit légèrement douloureux (niveau 2), soit complètement non douloureux (niveau 1). Par conséquent, notre paradigme nous a permis d'étudier comment l'intensité du stimulus est codé dans notre réseau d'intérêt, et comment la connectivité des différentes régions est modulée dans les conditions de stimulation différentes. Nos résultats sont en faveur du mode sériel de traitement de l’information somatosensorielle nociceptive avec un apport prédominant de la voie thalamocorticale vers S1 controlatérale au site de stimulation. Nos résultats impliquent que l'information se propage de S1 controlatéral à travers notre réseau d'intérêt composé des cortex S1 bilatéraux et S2. Notre analyse indique que la connexion S1→S2 est renforcée par la douleur, ce qui suggère que S2 est plus élevé dans la hiérarchie du traitement de la douleur que S1, conformément aux conclusions précédentes neurophysiologiques et de magnétoencéphalographie. Enfin, notre analyse fournit des preuves de l'entrée de l'information somatosensorielle dans l'hémisphère controlatéral au côté de stimulation, avec des connexions inter-hémisphériques responsable du transfert de l'information à l'hémisphère ipsilatéral.
Resumo:
Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.
Resumo:
L'enseignement, l'apprentissage et l'évaluation du raisonnement clinique en sciences infirmières est un défi pour les éducateurs de cette profession et leurs étudiants. Depuis plusieurs décennies, les chercheurs et les éducateurs dans le domaine des sciences de la santé ont travaillé pour élaborer des instruments d'évaluation dans le but de pouvoir mesurer le raisonnement clinique (Charlin, Bordage & Van der Vleuten, 2003). Plusieurs études semblent appuyer le test de concordance de script (TCS) en termes de validité, fiabilité, faisabilité et applicabilité pour plusieurs disciplines et différents contextes (Carrière & al, 2009). Deschênes et ses collaborateurs (2006; Deschênes, Charlin, Gagnon & Goudreau, 2011) ont mis au point et validé un TCS spécifiquement pour le raisonnement clinique en sciences infirmières (RCI). Comme l'évaluation a un impact important sur les stratégies d'apprentissage des étudiants (Sibert et al, 2001; Durak, Caliskan & Bor, 2007), les outils d'évaluation valides et fiables qui permettraient l'identification des problèmes spécifiques dans le développement du raisonnement clinique en sciences infirmières seraient très utiles pour guider les décisions concernant l'éducation (Gierl, 2007). Nous avons donc mené une étude pour explorer le potentiel diagnostique des questions d'un TCS. La question de recherche est la suivante: «Dans quelle mesure chaque question d’un TCS visant à évaluer le RCI peut-elle être reliée à des catégories et des stratégies de pensée spécifiques?" Avec une sous-question: «Comment peut-on décrire le potentiel diagnostique d’un TCS pour évaluer le RCI?". Nous avons fait une deuxième analyse de contenu des données qui ont été obtenues dans une étude précédente dans laquelle cinq vignettes (15 questions) du TCS de Deschênes (2006) ont été utilisées. Les résultats ont montré les catégories et stratégies de pensées utilisées pour répondre à certaines questions du TCS selon les groupes de participants. Aussi, nos résultats ont permis de découvrir des disparités importantes entre les groupes, notamment que le RCI des expertes est si différent des étudiantes, qu’il ne peut servir de référence. Enfin, cette étude démontre que le TCS a un potentiel diagnostique niveau par niveau (1ère, 2e, 3e année et expertes) et non d’un niveau à un autre.
Resumo:
Ce mémoire rapporte l’optimisation et l’évaluation d’une nouvelle version du test PAMPA (Parallel Artificial Membrane Permeability Assay) appelée Néo-PAMPA. Ce test qui permet la prédiction de l’absorption intestinale de médicaments consiste en l’utilisation d’une membrane modèle de la paroi intestinale composée d’une bicouche lipidique déposée sur un coussin de polydopamine recouvrant un filtre poreux. En effet, nous nous sommes intéressés lors de ce projet à la mise en place d’une membrane artificielle qui serait plus représentative de la paroi intestinale humaine. Nous avons pu déterminer, suite à une étude comparative des propriétés de huit médicaments ainsi que les coefficients de perméabilité obtenus, que les filtres en polycarbonate présentaient le meilleur choix de support solide pour la membrane. Nous avons également vérifié la déposition du coussin de polydopamine qui apporte le caractère fluide à la bicouche lipidique. Les résultats des tests de perméabilité ont démontré que le coussin de polymère n’obstrue pas les pores du filtre après un dépôt de 4h. Nous avons par la suite étudié la déposition de la bicouche lipidique sur le filtre recouvert de polydopamine. Pour ce faire, deux méthodes de préparation de liposomes ainsi que plusieurs tailles de liposomes ont été testées. Aussi, la composition en phospholipides a été sujette à plusieurs changements. Tous ces travaux d’optimisation ont permis d’aboutir à des liposomes préparés selon la méthode du « film lipidique » à partir d’un mélange de dioléoylphosphatidylcholine (DOPC) et de cholestérol. Une dernière étape d’optimisation de la déposition de la bicouche reste à améliorer. Enfin, le test standard Caco-2, qui consiste à évaluer la perméabilité des médicaments à travers une monocouche de cellules cancéreuses du colon humain, a été implémenté avec succès dans le but de comparer des données de perméabilité avec un test de référence.
Resumo:
Modeling and predicting co-occurrences of events is a fundamental problem of unsupervised learning. In this contribution we develop a statistical framework for analyzing co-occurrence data in a general setting where elementary observations are joint occurrences of pairs of abstract objects from two finite sets. The main challenge for statistical models in this context is to overcome the inherent data sparseness and to estimate the probabilities for pairs which were rarely observed or even unobserved in a given sample set. Moreover, it is often of considerable interest to extract grouping structure or to find a hierarchical data organization. A novel family of mixture models is proposed which explain the observed data by a finite number of shared aspects or clusters. This provides a common framework for statistical inference and structure discovery and also includes several recently proposed models as special cases. Adopting the maximum likelihood principle, EM algorithms are derived to fit the model parameters. We develop improved versions of EM which largely avoid overfitting problems and overcome the inherent locality of EM--based optimization. Among the broad variety of possible applications, e.g., in information retrieval, natural language processing, data mining, and computer vision, we have chosen document retrieval, the statistical analysis of noun/adjective co-occurrence and the unsupervised segmentation of textured images to test and evaluate the proposed algorithms.
Resumo:
Several eco-toxicological studies have shown that insectivorous mammals, due to their feeding habits, easily accumulate high amounts of pollutants in relation to other mammal species. To assess the bio-accumulation levels of toxic metals and their in°uence on essential metals, we quantified the concentration of 19 elements (Ca, K, Fe, B, P, S, Na, Al, Zn, Ba, Rb, Sr, Cu, Mn, Hg, Cd, Mo, Cr and Pb) in bones of 105 greater white-toothed shrews (Crocidura russula) from a polluted (Ebro Delta) and a control (Medas Islands) area. Since chemical contents of a bio-indicator are mainly compositional data, conventional statistical analyses currently used in eco-toxicology can give misleading results. Therefore, to improve the interpretation of the data obtained, we used statistical techniques for compositional data analysis to define groups of metals and to evaluate the relationships between them, from an inter-population viewpoint. Hypothesis testing on the adequate balance-coordinates allow us to confirm intuition based hypothesis and some previous results. The main statistical goal was to test equal means of balance-coordinates for the two defined populations. After checking normality, one-way ANOVA or Mann-Whitney tests were carried out for the inter-group balances
Resumo:
A novel test of spatial independence of the distribution of crystals or phases in rocks based on compositional statistics is introduced. It improves and generalizes the common joins-count statistics known from map analysis in geographic information systems. Assigning phases independently to objects in RD is modelled by a single-trial multinomial random function Z(x), where the probabilities of phases add to one and are explicitly modelled as compositions in the K-part simplex SK. Thus, apparent inconsistencies of the tests based on the conventional joins{count statistics and their possibly contradictory interpretations are avoided. In practical applications we assume that the probabilities of phases do not depend on the location but are identical everywhere in the domain of de nition. Thus, the model involves the sum of r independent identical multinomial distributed 1-trial random variables which is an r-trial multinomial distributed random variable. The probabilities of the distribution of the r counts can be considered as a composition in the Q-part simplex SQ. They span the so called Hardy-Weinberg manifold H that is proved to be a K-1-affine subspace of SQ. This is a generalisation of the well-known Hardy-Weinberg law of genetics. If the assignment of phases accounts for some kind of spatial dependence, then the r-trial probabilities do not remain on H. This suggests the use of the Aitchison distance between observed probabilities to H to test dependence. Moreover, when there is a spatial uctuation of the multinomial probabilities, the observed r-trial probabilities move on H. This shift can be used as to check for these uctuations. A practical procedure and an algorithm to perform the test have been developed. Some cases applied to simulated and real data are presented. Key words: Spatial distribution of crystals in rocks, spatial distribution of phases, joins-count statistics, multinomial distribution, Hardy-Weinberg law, Hardy-Weinberg manifold, Aitchison geometry
Resumo:
A condition needed for testing nested hypotheses from a Bayesian viewpoint is that the prior for the alternative model concentrates mass around the small, or null, model. For testing independence in contingency tables, the intrinsic priors satisfy this requirement. Further, the degree of concentration of the priors is controlled by a discrete parameter m, the training sample size, which plays an important role in the resulting answer regardless of the sample size. In this paper we study robustness of the tests of independence in contingency tables with respect to the intrinsic priors with different degree of concentration around the null, and compare with other “robust” results by Good and Crook. Consistency of the intrinsic Bayesian tests is established. We also discuss conditioning issues and sampling schemes, and argue that conditioning should be on either one margin or the table total, but not on both margins. Examples using real are simulated data are given
Resumo:
Resumen tomado de la publicaci??n. Resumen tambi??n en ingl??s