920 resultados para Sub-registry. Empirical bayesian estimator. General equation. Balancing adjustment factor


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Numerous studies have found a positive connection between learners’ motivation towards foreign language and foreign language achievement. The present study examines the role of motivation in receptive vocabulary breadth (size) of two groups of Spanish learners of different ages, but all with 734 hours of instruction in English as a Foreign Language (EFL): a CLIL (Content and Language Integrated Learning) group in primary education and a non-CLIL (or EFL) group in secondary education. Most students in both groups were found to be highly motivated. The primary CLIL group slightly overcame the secondary non-CLIL group with respect to the mean general motivation but this is a non-significant difference. The secondary group surpass significantly the primary group in receptive vocabulary size. No relationship between the receptive vocabulary knowledge and general motivation is found in the primary CLIL group. On the other hand, a positive significant connection, although a very small one, is identified for the secondary non-CLIL group. We will discuss on the type of test, the age of students and the type of instruction as variables that could be influencing the results.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We present results based on observations of SN 2015H which belongs to the small group of objects similar to SN 2002cx, otherwise known as type Iax supernovae. The availability of deep pre-explosion imaging allowed us to place tight constraints on the explosion epoch. Our observational campaign began approximately one day post-explosion, and extended over a period of about 150 days post maximum light, making it one of the best observed objects of this class to date. We find a peak magnitude of Mr = -17.27± 0.07, and a (Δm15)r = 0.69 ± 0.04. Comparing our observations to synthetic spectra generated from simulations of deflagrations of Chandrasekhar mass carbon-oxygen white dwarfs, we find reasonable agreement with models of weak deflagrations that result in the ejection of ∼0.2 M of material containing ∼0.07 M of 56Ni. The model light curve however, evolves more rapidly than observations, suggesting that a higher ejecta mass is to be favoured. Nevertheless, empirical modelling of the pseudo-bolometric light curve suggests that ≲ 0.6 M of material was ejected, implying that the white dwarf is not completely disrupted, and that a bound remnant is a likely outcome.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Estimates of HIV prevalence are important for policy in order to establish the health status of a country's population and to evaluate the effectiveness of population-based interventions and campaigns. However, participation rates in testing for surveillance conducted as part of household surveys, on which many of these estimates are based, can be low. HIV positive individuals may be less likely to participate because they fear disclosure, in which case estimates obtained using conventional approaches to deal with missing data, such as imputation-based methods, will be biased. We develop a Heckman-type simultaneous equation approach which accounts for non-ignorable selection, but unlike previous implementations, allows for spatial dependence and does not impose a homogeneous selection process on all respondents. In addition, our framework addresses the issue of separation, where for instance some factors are severely unbalanced and highly predictive of the response, which would ordinarily prevent model convergence. Estimation is carried out within a penalized likelihood framework where smoothing is achieved using a parametrization of the smoothing criterion which makes estimation more stable and efficient. We provide the software for straightforward implementation of the proposed approach, and apply our methodology to estimating national and sub-national HIV prevalence in Swaziland, Zimbabwe and Zambia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

While the right of parents to educate their children in their religious or philosophical conviction is recognised in Human Rights instruments (e.g. CoE 1952, protocol 1), educators must also attend to the right of a child to autonomy (UN 1989, Article 12.1) and the right of liberal democratic states to reproduce values of equity and freedom. This paper argues that certain forms of inter-religious dialogue and/or inter-religious collaborative learning can assist educators in balancing these rights where religion has significant influence and power over the management of schools and/or the curriculum. It is argued that in addition to the learning benefits which may result, the use of collaboration and dialogue goes some way in addressing three philosophical criticisms of religious education: first that religiously separate and religiously based education pays insufficient attention to the rights of children and, secondly, is likely to contribute to social fragmentation; and third, pupils will lack the skills to overcome prejudice or intolerance where they have no experience of others as a result of separate schooling or from a religiously narrow curriculum, and the latter may in fact support intolerant views. A rationale is developed that asserts the value of collaboration or dialogue as a pedagogical strategy that can, to some degree, mitigate potential negative outcomes from religious education. This argument is further supported with reference to a range of empirical studies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The problem of selecting suppliers/partners is a crucial and important part in the process of decision making for companies that intend to perform competitively in their area of activity. The selection of supplier/partner is a time and resource-consuming task that involves data collection and a careful analysis of the factors that can positively or negatively influence the choice. Nevertheless it is a critical process that affects significantly the operational performance of each company. In this work, trough the literature review, there were identified five broad suppliers selection criteria: Quality, Financial, Synergies, Cost, and Production System. Within these criteria, it was also included five sub-criteria. Thereafter, a survey was elaborated and companies were contacted in order to answer which factors have more relevance in their decisions to choose the suppliers. Interpreted the results and processed the data, it was adopted a model of linear weighting to reflect the importance of each factor. The model has a hierarchical structure and can be applied with the Analytic Hierarchy Process (AHP) method or Simple Multi-Attribute Rating Technique (SMART). The result of the research undertaken by the authors is a reference model that represents a decision making support for the suppliers/partners selection process.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

INTRODUCTION AND OBJECTIVES: The aim of the present paper was to report trends in coronary angioplasty for the treatment of ST-elevation myocardial infarction (STEMI) in Portugal. METHODS: Prospective multicenter data from the Portuguese National Registry of Interventional Cardiology (RNCI) and official data from the Directorate-General for Health (DGS) were studied to analyze percutaneous coronary intervention (PCI) procedures for STEMI from 2002 to 2013. RESULTS: In 2013, 3524 primary percutaneous coronary intervention (p-PCI) procedures were performed (25% of all procedures), an increase of 315% in comparison to 2002 (16% of all interventions). Between 2002 and 2013 the rate increased from 106 to 338 p-PCIs per million population per year. Rescue angioplasty decreased from 70.7% in 2002 to 2% in 2013. During this period, the use of drug-eluting stents grew from 9.9% to 69.5%. After 2008, the use of aspiration thrombectomy increased, reaching 46.7% in 2013. Glycoprotein IIb-IIIa inhibitor use decreased from 73.2% in 2002 to 23.6% in the last year of the study. Use of a radial approach increased steadily from 8.3% in 2008 to 54.6% in 2013. CONCLUSION: During the reporting period there was a three-fold increase in primary angioplasty rates per million population. Rescue angioplasty has been overtaken by p-PCI as the predominant procedure since 2006. New trends in the treatment of STEMI were observed, notably the use of drug-eluting stents and radial access as the predominant approach.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

With the objective to improve the reactor physics calculation on a 2D and 3D nuclear reactor via the Diffusion Equation, an adaptive automatic finite element remeshing method, based on the elementary area (2D) or volume (3D) constraints, has been developed. The adaptive remeshing technique, guided by a posteriori error estimator, makes use of two external mesh generator programs: Triangle and TetGen. The use of these free external finite element mesh generators and an adaptive remeshing technique based on the current field continuity show that they are powerful tools to improve the neutron flux distribution calculation and by consequence the power solution of the reactor core even though they have a minor influence on the critical coefficient of the calculated reactor core examples. Two numerical examples are presented: the 2D IAEA reactor core numerical benchmark and the 3D model of the Argonauta research reactor, built in Brasil.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This chapter considers the policy and practice of partnership working amongst educational organisations and related service providers as a means of promoting social inclusion in higher education (HE). It draws on an empirical study of partnership working in an area of England which has low levels of participation in HE, consistently performs poorly in national measures of educational achievement, and contains pockets of severe economic and social deprivation. The empirical research focuses on the work of senior managers from seventeen organisations who formed a sub-regional partnership as a strategy to raise aspirations, widen participation in HE and promote social inclusion.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ma thèse s’intéresse aux politiques de santé conçues pour encourager l’offre de services de santé. L’accessibilité aux services de santé est un problème majeur qui mine le système de santé de la plupart des pays industrialisés. Au Québec, le temps médian d’attente entre une recommandation du médecin généraliste et un rendez-vous avec un médecin spécialiste était de 7,3 semaines en 2012, contre 2,9 semaines en 1993, et ceci malgré l’augmentation du nombre de médecins sur cette même période. Pour les décideurs politiques observant l’augmentation du temps d’attente pour des soins de santé, il est important de comprendre la structure de l’offre de travail des médecins et comment celle-ci affecte l’offre des services de santé. Dans ce contexte, je considère deux principales politiques. En premier lieu, j’estime comment les médecins réagissent aux incitatifs monétaires et j’utilise les paramètres estimés pour examiner comment les politiques de compensation peuvent être utilisées pour déterminer l’offre de services de santé de court terme. En second lieu, j’examine comment la productivité des médecins est affectée par leur expérience, à travers le mécanisme du "learning-by-doing", et j’utilise les paramètres estimés pour trouver le nombre de médecins inexpérimentés que l’on doit recruter pour remplacer un médecin expérimenté qui va à la retraite afin de garder l’offre des services de santé constant. Ma thèse développe et applique des méthodes économique et statistique afin de mesurer la réaction des médecins face aux incitatifs monétaires et estimer leur profil de productivité (en mesurant la variation de la productivité des médecins tout le long de leur carrière) en utilisant à la fois des données de panel sur les médecins québécois, provenant d’enquêtes et de l’administration. Les données contiennent des informations sur l’offre de travail de chaque médecin, les différents types de services offerts ainsi que leurs prix. Ces données couvrent une période pendant laquelle le gouvernement du Québec a changé les prix relatifs des services de santé. J’ai utilisé une approche basée sur la modélisation pour développer et estimer un modèle structurel d’offre de travail en permettant au médecin d’être multitâche. Dans mon modèle les médecins choisissent le nombre d’heures travaillées ainsi que l’allocation de ces heures à travers les différents services offerts, de plus les prix des services leurs sont imposés par le gouvernement. Le modèle génère une équation de revenu qui dépend des heures travaillées et d’un indice de prix représentant le rendement marginal des heures travaillées lorsque celles-ci sont allouées de façon optimale à travers les différents services. L’indice de prix dépend des prix des services offerts et des paramètres de la technologie de production des services qui déterminent comment les médecins réagissent aux changements des prix relatifs. J’ai appliqué le modèle aux données de panel sur la rémunération des médecins au Québec fusionnées à celles sur l’utilisation du temps de ces mêmes médecins. J’utilise le modèle pour examiner deux dimensions de l’offre des services de santé. En premierlieu, j’analyse l’utilisation des incitatifs monétaires pour amener les médecins à modifier leur production des différents services. Bien que les études antérieures ont souvent cherché à comparer le comportement des médecins à travers les différents systèmes de compensation,il y a relativement peu d’informations sur comment les médecins réagissent aux changementsdes prix des services de santé. Des débats actuels dans les milieux de politiques de santé au Canada se sont intéressés à l’importance des effets de revenu dans la détermination de la réponse des médecins face à l’augmentation des prix des services de santé. Mon travail contribue à alimenter ce débat en identifiant et en estimant les effets de substitution et de revenu résultant des changements des prix relatifs des services de santé. En second lieu, j’analyse comment l’expérience affecte la productivité des médecins. Cela a une importante implication sur le recrutement des médecins afin de satisfaire la demande croissante due à une population vieillissante, en particulier lorsque les médecins les plus expérimentés (les plus productifs) vont à la retraite. Dans le premier essai, j’ai estimé la fonction de revenu conditionnellement aux heures travaillées, en utilisant la méthode des variables instrumentales afin de contrôler pour une éventuelle endogeneité des heures travaillées. Comme instruments j’ai utilisé les variables indicatrices des âges des médecins, le taux marginal de taxation, le rendement sur le marché boursier, le carré et le cube de ce rendement. Je montre que cela donne la borne inférieure de l’élasticité-prix direct, permettant ainsi de tester si les médecins réagissent aux incitatifs monétaires. Les résultats montrent que les bornes inférieures des élasticités-prix de l’offre de services sont significativement positives, suggérant que les médecins répondent aux incitatifs. Un changement des prix relatifs conduit les médecins à allouer plus d’heures de travail au service dont le prix a augmenté. Dans le deuxième essai, j’estime le modèle en entier, de façon inconditionnelle aux heures travaillées, en analysant les variations des heures travaillées par les médecins, le volume des services offerts et le revenu des médecins. Pour ce faire, j’ai utilisé l’estimateur de la méthode des moments simulés. Les résultats montrent que les élasticités-prix direct de substitution sont élevées et significativement positives, représentant une tendance des médecins à accroitre le volume du service dont le prix a connu la plus forte augmentation. Les élasticitésprix croisées de substitution sont également élevées mais négatives. Par ailleurs, il existe un effet de revenu associé à l’augmentation des tarifs. J’ai utilisé les paramètres estimés du modèle structurel pour simuler une hausse générale de prix des services de 32%. Les résultats montrent que les médecins devraient réduire le nombre total d’heures travaillées (élasticité moyenne de -0,02) ainsi que les heures cliniques travaillées (élasticité moyenne de -0.07). Ils devraient aussi réduire le volume de services offerts (élasticité moyenne de -0.05). Troisièmement, j’ai exploité le lien naturel existant entre le revenu d’un médecin payé à l’acte et sa productivité afin d’établir le profil de productivité des médecins. Pour ce faire, j’ai modifié la spécification du modèle pour prendre en compte la relation entre la productivité d’un médecin et son expérience. J’estime l’équation de revenu en utilisant des données de panel asymétrique et en corrigeant le caractère non-aléatoire des observations manquantes à l’aide d’un modèle de sélection. Les résultats suggèrent que le profil de productivité est une fonction croissante et concave de l’expérience. Par ailleurs, ce profil est robuste à l’utilisation de l’expérience effective (la quantité de service produit) comme variable de contrôle et aussi à la suppression d’hypothèse paramétrique. De plus, si l’expérience du médecin augmente d’une année, il augmente la production de services de 1003 dollar CAN. J’ai utilisé les paramètres estimés du modèle pour calculer le ratio de remplacement : le nombre de médecins inexpérimentés qu’il faut pour remplacer un médecin expérimenté. Ce ratio de remplacement est de 1,2.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This study discusses the importance of establishing trust in post-acquisition integration context and how the use of e-channels facilitates or inhibits this process. The objective of this study is to analyze how the use of electronic communication channels influences the post-acquisition integration process in terms of trust establishment and overall integration efficiency, developing a framework as a result. Three sub-objectives are introduced: to find out the building blocks of trust in M&A’s, to analyse how the use of e-channels influence the process of trust establishment in post-acquisition integration context, and to define the consequences trust and use of e-channels have for the process. The theoretical background of the study includes literature and theories relating to trust establishment in post-acquisition integration context and how the use of e-channels influences the process of trust development on a general level. The empirical research is conducted as a single case study, based on key informant interviews. The interview data was collected between October 2015 and January 2016. Altogether nine interviews were realised; six with representatives from the acquiring firm and three with target firm members. Thematic analysis was selected as the main method for analysing and processing the qualitative data. This study finds that trust has an essential role in post-acquisition integration context, facilitating the integration process in various different ways. Hence, identifying the different building blocks of trust is important in order for members of the organisations to be better able establish and maintain trust. In today’s international business, the role of electronic communication channels has also increased in importance significantly and it was confirmed that these pose both challenges and possibilities for the development of interpersonal trust. One of the most important underlying factors influencing the trust levels via e-communication channels is the level of user’s comfort in using the different e-channels. Without sufficient and meaningful training, the communication conducted via these channels in inhibited in a number of ways. Hence, understanding the defining characteristics of e-communication together with the risks and opportunities related to the use of these can have far-reaching consequences for the post-acquisition integration process as a whole. The framework based on the findings and existing theory introduces the most central factors influencing the trust establishment together with the positive and negative consequences these have for the integration process. Moreover, organizational level consistency and the existence of shared guidelines on appropriate selection of communication channels according to the nature of the task at hand are seen as important

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’un des problèmes importants en apprentissage automatique est de déterminer la complexité du modèle à apprendre. Une trop grande complexité mène au surapprentissage, ce qui correspond à trouver des structures qui n’existent pas réellement dans les données, tandis qu’une trop faible complexité mène au sous-apprentissage, c’est-à-dire que l’expressivité du modèle est insuffisante pour capturer l’ensemble des structures présentes dans les données. Pour certains modèles probabilistes, la complexité du modèle se traduit par l’introduction d’une ou plusieurs variables cachées dont le rôle est d’expliquer le processus génératif des données. Il existe diverses approches permettant d’identifier le nombre approprié de variables cachées d’un modèle. Cette thèse s’intéresse aux méthodes Bayésiennes nonparamétriques permettant de déterminer le nombre de variables cachées à utiliser ainsi que leur dimensionnalité. La popularisation des statistiques Bayésiennes nonparamétriques au sein de la communauté de l’apprentissage automatique est assez récente. Leur principal attrait vient du fait qu’elles offrent des modèles hautement flexibles et dont la complexité s’ajuste proportionnellement à la quantité de données disponibles. Au cours des dernières années, la recherche sur les méthodes d’apprentissage Bayésiennes nonparamétriques a porté sur trois aspects principaux : la construction de nouveaux modèles, le développement d’algorithmes d’inférence et les applications. Cette thèse présente nos contributions à ces trois sujets de recherches dans le contexte d’apprentissage de modèles à variables cachées. Dans un premier temps, nous introduisons le Pitman-Yor process mixture of Gaussians, un modèle permettant l’apprentissage de mélanges infinis de Gaussiennes. Nous présentons aussi un algorithme d’inférence permettant de découvrir les composantes cachées du modèle que nous évaluons sur deux applications concrètes de robotique. Nos résultats démontrent que l’approche proposée surpasse en performance et en flexibilité les approches classiques d’apprentissage. Dans un deuxième temps, nous proposons l’extended cascading Indian buffet process, un modèle servant de distribution de probabilité a priori sur l’espace des graphes dirigés acycliques. Dans le contexte de réseaux Bayésien, ce prior permet d’identifier à la fois la présence de variables cachées et la structure du réseau parmi celles-ci. Un algorithme d’inférence Monte Carlo par chaîne de Markov est utilisé pour l’évaluation sur des problèmes d’identification de structures et d’estimation de densités. Dans un dernier temps, nous proposons le Indian chefs process, un modèle plus général que l’extended cascading Indian buffet process servant à l’apprentissage de graphes et d’ordres. L’avantage du nouveau modèle est qu’il admet les connections entres les variables observables et qu’il prend en compte l’ordre des variables. Nous présentons un algorithme d’inférence Monte Carlo par chaîne de Markov avec saut réversible permettant l’apprentissage conjoint de graphes et d’ordres. L’évaluation est faite sur des problèmes d’estimations de densité et de test d’indépendance. Ce modèle est le premier modèle Bayésien nonparamétrique permettant d’apprendre des réseaux Bayésiens disposant d’une structure complètement arbitraire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Hexagonal Resonant Triad patterns are shown to exist as stable solutions of a particular type of nonlinear field where no cubic field nonlinearity is present. The zero ‘dc’ Fourier mode is shown to stabilize these patterns produced by a pure quadratic field nonlinearity. Closed form solutions and stability results are obtained near the critical point, complimented by numerical studies far from the critical point. These results are obtained using a neural field based on the Helmholtzian operator. Constraints on structure and parameters for a general pure quadratic neural field which supports hexagonal patterns are obtained.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A large class of computational problems are characterised by frequent synchronisation, and computational requirements which change as a function of time. When such a problem is solved on a message passing multiprocessor machine [5], the combination of these characteristics leads to system performance which deteriorate in time. As the communication performance of parallel hardware steadily improves so load balance becomes a dominant factor in obtaining high parallel efficiency. Performance can be improved with periodic redistribution of computational load; however, redistribution can sometimes be very costly. We study the issue of deciding when to invoke a global load re-balancing mechanism. Such a decision policy must actively weigh the costs of remapping against the performance benefits, and should be general enough to apply automatically to a wide range of computations. This paper discusses a generic strategy for Dynamic Load Balancing (DLB) in unstructured mesh computational mechanics applications. The strategy is intended to handle varying levels of load changes throughout the run. The major issues involved in a generic dynamic load balancing scheme will be investigated together with techniques to automate the implementation of a dynamic load balancing mechanism within the Computer Aided Parallelisation Tools (CAPTools) environment, which is a semi-automatic tool for parallelisation of mesh based FORTRAN codes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The purposes of the present multistudy were to develop and provide initial construct validity for measures based on the model of parental involvement in sport (Study 1) and examine structural relationships among the constructs of the model (Study 2). In Study 1 (nparents = 342, nathletes = 223), a confirmatory factor analysis was used to verify the psychometric properties of the measures. Content and construct validity were evaluated, as well individual and composite reliability. Multi-group analysis with two independent samples provided evidence of factorial invariance. In Study 2 (nparents = 754, nathletes = 438), structural equation modeling analysis supported the hypothesised model in which athletes’ perceptions of parents’ behaviours mediated the relationship between parents’ reported behaviours and the athletes’ psychological variables conducive to their achievement in sport. The findings provide support for the parental involvement in sport model and demonstrate the role of perceptions of parents’ behaviours on young athletes’ cognitions in sport.