837 resultados para Statistiques policières


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les personnes atteintes de démence sévère, résidant dans un centre d’hébergement et de soins de longue durée (CHSLD) et approchant la fin de leur vie, ne reçoivent pas systématiquement des soins palliatifs, malgré que ce niveau de soins soit le plus approprié. La plupart de ces personnes reçoivent également un grand nombre de médicaments dont les effets indésirables peuvent contribuer à des souffrances évitables. Une approche axée sur les soins palliatifs serait possiblement associée à une réduction de la charge médicamenteuse et, du même coup, à une prescription plus appropriée. Les objectifs de ce projet de recherche étaient de décrire l’usage des médicaments chez les résidents atteints de démence sévère en CHSLD, de comparer leur usage de médicaments à des critères de pertinence et d’évaluer si la mise en œuvre d’une approche axée sur les soins palliatifs était associée aux médicaments prescrits. Cette étude décrit l’usage des médicaments chez 215 sujets atteints de démence sévère et en fin de vie qui ont participé à une étude d’intervention quasi expérimentale menée dans quatre CHSLD du Québec sur la mise en œuvre d’une approche axée sur les soins palliatifs. L’utilisation des médicaments a été comparée à trois listes de critères pertinents publiés, soit ceux de Holmes, Rancourt et Kröger, en utilisant des statistiques descriptives. Les analyses sur l’usage de 412 médicaments différents chez 120 sujets du groupe expérimental et 95 sujets du groupe témoin ont montré que cette approche axée sur les soins palliatifs n’est pas associée à une prescription plus appropriée des médicaments chez ces personnes particulièrement vulnérables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le domaine des centres d’appels, l’affectation d’agents au service à la clientèle efficaces et satisfaits représente une activité cruciale pour toute direction dédiée aux ressources humaines de ces unités d’affaires. Or, pour parvenir à prendre de bonnes décisions d’embauche et de rejet, des instruments de mesure et d’évaluation des compétences sont souvent mis à contribution. À cet effet, les tests de jugement situationnel (TJS) sont de plus en plus utilisés pour la sélection du personnel. L’objet de cette thèse est donc de vérifier l’efficacité relative des différentes méthodes d’élaboration des grilles de correction des TJS. En effet, jusqu’à présent, trois méthodes ont été privilégiées par les concepteurs de tests (Weekley, Ployhart, & Holtz, 2006) : (1) l’approche rationnelle ou théorique (2) l’approche empirique et (3) le recours à des experts. La possibilité qu’une combinaison de ces différentes approches puisse conduire à de meilleurs résultats est également explorée. Pour y parvenir, le résultat total obtenu à un TJS a été mis en lien avec une évaluation du rendement global effectuée par un supérieur immédiat en y appliquant huit grilles de correction différentes. Au total, un échantillon de 312 employés œuvrant dans des emplois de téléopérateurs au sein d’une grande institution financière québécoise ont participé à cette recherche. Dans l’ensemble, les résultats indiquent qu’une approche empirique permet généralement d’obtenir de meilleures statistiques descriptives en termes de distribution et de dispersion des scores pour un processus de sélection. Cependant, des analyses corrélationnelles indiquent qu’une approche multiple ou méthode hybride, basée sur une intégration des informations fournies par différentes sources d’informations (empirique, théorique et basé sur les experts) pour l’élaboration d’une grille de correction d’un TJS, permet de mieux prédire le rendement des employés (r=0,247**) comparativement à l’utilisation de la théorie pour définir les attentes (r=0,162**), le recours à des experts de contenu œuvrant dans le domaine de pratique (r=0,164**) ou l’utilisation d’une approche empirique (r=0,154*). Mots clés : Test de jugement situationnel, grilles de correction, validité critériée, centre d’appels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO: Desde 1976 que as Forças Armadas desenvolvem acções de prevenção do consumo de drogas e álcool. Na década de 80 foi criada capacidade laboratorial e deu-se início a um programa de rastreios toxicológicos. No quinquénio 2001 a 2005, as proporções de resultados positivos, associando todos os tipos de rastreio, variaram entre 3,7% e 1,5%. De Outubro de 2006 a Julho de 2007 realizou-se um estudo analítico transversal, para estimar a prevalência do consumo de drogas (canabinóides, opiáceos, cocaína e anfetaminas) num dos Ramos das Forças Armadas, com base nos despistes realizados pelo seu laboratório. Foi utilizada uma amostra aleatória simples de 1039 militares, profissionais (QP) e contratados (RC), no activo e de ambos os sexos. Desde a nomeação dos militares a rastrear, passando pela cadeia de custódia das amostras até à obtenção do resultado foi utilizado apoio informático específico. O processo de pesquisa utilizou duas técnicas de triagem por imunoensaio e tecnologia de confirmação por GC/MS, de acordo com as recomendações europeias, permitindo estabelecer uma metodologia standard para organizações e empresas. A prevalência estimada, de consumidores de droga, foi de 3,8/1.000, para um erro de 0,37%. O número de casos registado (4) não permitiu a utilização de testes estatísticos que conduzissem à identificação de características determinantes da positividade, mas não deixou de revelar aspectos inesperados. A observação de séries de casos e a realização regular de estudos epidemiológicos, que ajudem a redefinir grupos alvo e a perceber a dimensão, as determinantes e as consequências do consumo de drogas é sugerida, em conclusão.--------------------------------------- RÉSUMÉ: Depuis 1976, les Forces Armées mettent au point des mesures visant à prévenir la consommation de drogues et d'alcool. En 1980, fut créé capacité laboratoriel et ont ensuite commencé un programme de dépistage toxicologique. Au cours des cinq années allant de 2001 à 2005, les proportions de consommateurs, impliquant tous les types de dépistage, allaient de 3,7% à 1,5 %. D'octobre 2006 à juillet 2007, une étude analytique transversale a été organisée pour évaluer la prévalence de l’usage de drogues (cannabis, opiacés, cocaïne et amphétamines) dans une branche de les Forces Armées, basée sur les dépistages faites par un laboratoire militaire, à l'aide d'un échantillon aléatoire de 1039 militaires, professionnels (QP) et sous contract (RC), à l’actif et des deux sexes. Tout au long du procès, de la nomination des donneurs, en passant par la chaine de garde des échantillons, jusqu’à obtention du résultat, il fut employé un appui informatique sécurisé. Le processus de recherche employa deux techniques de tri par imunoessay et la technologie de confirmation GC/MS, selon les recommandations européennes, permettant d'établir une méthodologie standard pour les organisations et les entreprises. La prévalence estimée fut de 3,8/1.000 pour une marge d’erreur de 0,37%. Le nombre de cas enregistrés (4) n'autorise pas l'utilisation de testes statistiques de menant à l'identification de caractéristiques déterminant de la positivité, mais il permet à révéler des aspects inattendus. L'observation de séries de cas et la tenue régulière d’études épidémiologiques, qui contribuent à redéfinir les groupes cibles et de comprendre l'ampleur, les déterminants et les conséquences de l'usage de drogues, est suggéré, en fin de compte.--------------------------------------- ABSTRACT: Since 1976, the Armed Forces, have been developing measures to prevent the use of drugs and alcohol. In 1980, was created laboratory facility which then started a program of toxicological screenings. In the five years running from 2001 to 2005, the proportions of consumers, involving all types of screening, ranged from 3,7% to 1,5%. From October 2006 to July 2007, a cross-sectional study was held to estimate the prevalence of drug use (cannabinoids, opiates, cocaine and amphetamines) in one branch of the Portuguese Armed Forces, based on laboratory screenings, using a random sample of 1039 military, professional (QP) and enlisted (RC), active-duty and of both sexes. Specific computer support was used all the way, from the appointment, including the chain of custody of samples, to the obtaining of the result. The process of search used two techniques for sorting by immunoassay and confirmation technology GC/MS, according to European recommendations, allowing to establish a standard methodology for organizations and companies. The estimated prevalence of drug users was 3.8/1.000 for a 0.37% error (95% confidence interval). The number of cases registered (4) does not permit use of statistical testing leading to the identification of characteristics weighing in the establishing to extrapolate for the population, but it allows revealing unexpected aspects. The observation of series of cases and the regular holding of epidemiological studies, which help redefine target groups and to understand the extent, the determinants and consequences of drug use, is suggested, in conclusion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese de doutoramento em Línguas e Literaturas Românicas, Literatura Românica Comparada

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé de thèseLe syndrome de PFAPA est une maladie fébrile récurrente décrite pour la première fois en 1987 par Marshall et col. Elle est caractérisée par une fièvre périodique, une stomatite aphteuse, une pharyngite et des adénopathies. Ce syndrome débute dans les premières années de vie et est connu pour disparaître spontanément en principe avant l'adolescence. Hormis un traitement de prednisone en début de crise, aucun traitement n'a pu montrer une efficacité thérapeutique ou curative.L'origine et l'étiologie de cette maladie sont encore inconnues à ce jour et le diagnostic reste un diagnostic d'exclusion qui repose sur des critères définis par différents groupes depuis 1987. Dans le cadre du Working Party periodic fever de la Société Européenne de Rhumatologie pédiatrique (PreS), un groupe a été établi et celui-ci a mis en place un registre de patients atteints de PFAPA afin d'analyser cette maladie et de mieux définir les critères diagnostic. Le Dr Michael Hofer a été nommé chairman de ce groupe et a introduit rapidement les patients romands dans cet outil de travail.L'introduction des patients romands dans la base de données ainsi créée, nous a suggéré une susceptibilité familiale qui nous a poussés à investiguer ce point de manière plus approfondie. Nous avons donc regroupé tous les patients lausannois et ceux de collègues bordelais ayant un diagnostic avéré de PFAPA. Nous avons ensuite interrogé, au cours d'un entretien téléphonique, les familles de ces enfants grâce à un questionnaire standardisé. Celui-ci a été testé et validé sur des patients sains d'une consultation de pédiatrie générale.Nous avons ensuite réunie toutes ces informations et séparés les patients en deux groupes AF+ (anamnèse familiale positive pour une fièvre récurrente) et AF- (anamnèse familiale négative pour une fièvre récurrente). Nous avons établi des comparaisons entre les 2 différents groupes en reprenant les caractéristiques de ces patients depuis le registre PFAPA dans lequel ils sont tous inclus. Les analyses ont été contrôlées et validées par le centre d'épidémiologie clinique grâce aux méthodes statistiques reconnues.Les résultats obtenus et qui sont détaillés dans l'article, permettent de suspecter une origine familiale et par là même, potentiellement génétique, à cette maladie d'étiologie inconnue. Jusqu'à présent aucune prépondérance familiale n'avait pu être mise en évidence dans les autres études sur le sujet. Pourtant cette maladie fait partie du groupe des fièvres récurrentes qui ont pour beaucoup déjà un diagnostic génétique.Notre étude ouvre donc des perspectives non seulement de recherche sur l'éventuelle cause génétique mais pourrait également permettre une meilleure compréhension de la maladie, de ses diverses présentations ainsi que par la suite de nouvelles possibilités thérapeutiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper studies seemingly unrelated linear models with integrated regressors and stationary errors. By adding leads and lags of the first differences of the regressors and estimating this augmented dynamic regression model by feasible generalized least squares using the long-run covariance matrix, we obtain an efficient estimator of the cointegrating vector that has a limiting mixed normal distribution. Simulation results suggest that this new estimator compares favorably with others already proposed in the literature. We apply these new estimators to the testing of purchasing power parity (PPP) among the G-7 countries. The test based on the efficient estimates rejects the PPP hypothesis for most countries.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Modern business cycle theory involves developing models that explain stylized facts. For this strategy to be successful, these facts should be well established. In this paper, we focus on the stylized facts of international business cycles. We use the generalized method of moments and quarterly data from nineteen industrialized countries to estimate pairwise cross-country and within-country correlations of macroeconomic aggregates. We calculate standard errors of the statistics for our unique panel of data and test hypotheses about the relative sizes of these correlations. We find a lower cross-country correlation of all aggregates and especially of consumption than in previous studies. The cross-country correlations of consumption, output and Solow residuals are not significantly different from one another over the whole sample, but there are significant differences in the post-1973 subsample.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the context of multivariate linear regression (MLR) models, it is well known that commonly employed asymptotic test criteria are seriously biased towards overrejection. In this paper, we propose a general method for constructing exact tests of possibly nonlinear hypotheses on the coefficients of MLR systems. For the case of uniform linear hypotheses, we present exact distributional invariance results concerning several standard test criteria. These include Wilks' likelihood ratio (LR) criterion as well as trace and maximum root criteria. The normality assumption is not necessary for most of the results to hold. Implications for inference are two-fold. First, invariance to nuisance parameters entails that the technique of Monte Carlo tests can be applied on all these statistics to obtain exact tests of uniform linear hypotheses. Second, the invariance property of the latter statistic is exploited to derive general nuisance-parameter-free bounds on the distribution of the LR statistic for arbitrary hypotheses. Even though it may be difficult to compute these bounds analytically, they can easily be simulated, hence yielding exact bounds Monte Carlo tests. Illustrative simulation experiments show that the bounds are sufficiently tight to provide conclusive results with a high probability. Our findings illustrate the value of the bounds as a tool to be used in conjunction with more traditional simulation-based test methods (e.g., the parametric bootstrap) which may be applied when the bounds are not conclusive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proposes finite-sample procedures for testing the SURE specification in multi-equation regression models, i.e. whether the disturbances in different equations are contemporaneously uncorrelated or not. We apply the technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] to obtain exact tests based on standard LR and LM zero correlation tests. We also suggest a MC quasi-LR (QLR) test based on feasible generalized least squares (FGLS). We show that the latter statistics are pivotal under the null, which provides the justification for applying MC tests. Furthermore, we extend the exact independence test proposed by Harvey and Phillips (1982) to the multi-equation framework. Specifically, we introduce several induced tests based on a set of simultaneous Harvey/Phillips-type tests and suggest a simulation-based solution to the associated combination problem. The properties of the proposed tests are studied in a Monte Carlo experiment which shows that standard asymptotic tests exhibit important size distortions, while MC tests achieve complete size control and display good power. Moreover, MC-QLR tests performed best in terms of power, a result of interest from the point of view of simulation-based tests. The power of the MC induced tests improves appreciably in comparison to standard Bonferroni tests and, in certain cases, outperforms the likelihood-based MC tests. The tests are applied to data used by Fischer (1993) to analyze the macroeconomic determinants of growth.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we develop finite-sample inference procedures for stationary and nonstationary autoregressive (AR) models. The method is based on special properties of Markov processes and a split-sample technique. The results on Markovian processes (intercalary independence and truncation) only require the existence of conditional densities. They are proved for possibly nonstationary and/or non-Gaussian multivariate Markov processes. In the context of a linear regression model with AR(1) errors, we show how these results can be used to simplify the distributional properties of the model by conditioning a subset of the data on the remaining observations. This transformation leads to a new model which has the form of a two-sided autoregression to which standard classical linear regression inference techniques can be applied. We show how to derive tests and confidence sets for the mean and/or autoregressive parameters of the model. We also develop a test on the order of an autoregression. We show that a combination of subsample-based inferences can improve the performance of the procedure. An application to U.S. domestic investment data illustrates the method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce texte, nous revoyons certains développements récents de l’économétrie qui peuvent être intéressants pour des chercheurs dans des domaines autres que l’économie et nous soulignons l’éclairage particulier que l’économétrie peut jeter sur certains thèmes généraux de méthodologie et de philosophie des sciences, tels la falsifiabilité comme critère du caractère scientifique d’une théorie (Popper), la sous-détermination des théories par les données (Quine) et l’instrumentalisme. En particulier, nous soulignons le contraste entre deux styles de modélisation - l’approche parcimonieuse et l’approche statistico-descriptive - et nous discutons les liens entre la théorie des tests statistiques et la philosophie des sciences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper assesses the empirical performance of an intertemporal option pricing model with latent variables which generalizes the Hull-White stochastic volatility formula. Using this generalized formula in an ad-hoc fashion to extract two implicit parameters and forecast next day S&P 500 option prices, we obtain similar pricing errors than with implied volatility alone as in the Hull-White case. When we specialize this model to an equilibrium recursive utility model, we show through simulations that option prices are more informative than stock prices about the structural parameters of the model. We also show that a simple method of moments with a panel of option prices provides good estimates of the parameters of the model. This lays the ground for an empirical assessment of this equilibrium model with S&P 500 option prices in terms of pricing errors.