27 resultados para Veterinary instruments and apparatus

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

We discuss statistical inference problems associated with identification and testability in econometrics, and we emphasize the common nature of the two issues. After reviewing the relevant statistical notions, we consider in turn inference in nonparametric models and recent developments on weakly identified models (or weak instruments). We point out that many hypotheses, for which test procedures are commonly proposed, are not testable at all, while some frequently used econometric methods are fundamentally inappropriate for the models considered. Such situations lead to ill-defined statistical problems and are often associated with a misguided use of asymptotic distributional results. Concerning nonparametric hypotheses, we discuss three basic problems for which such difficulties occur: (1) testing a mean (or a moment) under (too) weak distributional assumptions; (2) inference under heteroskedasticity of unknown form; (3) inference in dynamic models with an unlimited number of parameters. Concerning weakly identified models, we stress that valid inference should be based on proper pivotal functions —a condition not satisfied by standard Wald-type methods based on standard errors — and we discuss recent developments in this field, mainly from the viewpoint of building valid tests and confidence sets. The techniques discussed include alternative proposed statistics, bounds, projection, split-sampling, conditioning, Monte Carlo tests. The possibility of deriving a finite-sample distributional theory, robustness to the presence of weak instruments, and robustness to the specification of a model for endogenous explanatory variables are stressed as important criteria assessing alternative procedures.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

It is well known that standard asymptotic theory is not valid or is extremely unreliable in models with identification problems or weak instruments [Dufour (1997, Econometrica), Staiger and Stock (1997, Econometrica), Wang and Zivot (1998, Econometrica), Stock and Wright (2000, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. One possible way out consists here in using a variant of the Anderson-Rubin (1949, Ann. Math. Stat.) procedure. The latter, however, allows one to build exact tests and confidence sets only for the full vector of the coefficients of the endogenous explanatory variables in a structural equation, which in general does not allow for individual coefficients. This problem may in principle be overcome by using projection techniques [Dufour (1997, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. AR-types are emphasized because they are robust to both weak instruments and instrument exclusion. However, these techniques can be implemented only by using costly numerical techniques. In this paper, we provide a complete analytic solution to the problem of building projection-based confidence sets from Anderson-Rubin-type confidence sets. The latter involves the geometric properties of “quadrics” and can be viewed as an extension of usual confidence intervals and ellipsoids. Only least squares techniques are required for building the confidence intervals. We also study by simulation how “conservative” projection-based confidence sets are. Finally, we illustrate the methods proposed by applying them to three different examples: the relationship between trade and growth in a cross-section of countries, returns to education, and a study of production functions in the U.S. economy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The article sets out the concept of a State-to-State human transfer agreement of which extradition and deportation are specialised forms. Asylum sharing agreements are other variations which the article explores in more detail. Human transfer agreements always affect at least the right to liberty and the freedom of movement, but other rights will also be at issue to some extent. The article shows how human rights obligations limit State discretion in asylum sharing agreements and considers how past and present asylum sharing arrangements in Europe and North America deal with these limits, if at all. The article suggests changes in the way asylum sharing agreements are drafted: for example, providing for a treaty committee would allow existing agreements to better conform to international human rights instruments and would facilitate State compliance to their human rights obligations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse propose une ethnographie de la gestion de la population rom en Albanie, saisie sur deux périodes historiques : communisme et postcommunisme. L’analyse porte sur la façon dont divers instruments de gestion des populations en tant que techniques de pouvoir, sont mises en œuvre ; comment une population donnée devient-elle un sujet politique ? Quels sont les effets d’une telle gestion sur les populations en général et sur les populations roms en particulier ? Cette approche, une approche foucaldienne, replace ainsi au centre de l’analyse empirique les politiques, les pratiques et les discours concernant les Roms en Albanie et essaye de saisir les effets qu’ils produisent sur cette population. Cette thèse part de ces éléments pour interroger plus largement les transformations sociétales dans l’Albanie postcommuniste. Ce travail s’inscrit dans le champ de l’anthropologie politique et conjugue à la fois une anthropologie de l’État et une anthropologie de la violence. Il s’articule autour de trois parties. La première porte sur la contextualisation de cette thèse, du point de vue conceptuel, méthodologique et théorique. La deuxième partie propose une analyse des relations que l’État a entretenues avec les Roms pendant la période communiste, phase durant laquelle la population rom a été exposée à diverses mesures administratives visant sa normalisation, à travers une sédentarisation forcée et d’autres mesures coercitives. La troisième partie, précédée par un intermède sur la période de la transition, interroge la relation entre l’État, la violence, la mobilité et la gestion de la population rom en Albanie depuis la chute du communisme. L’analyse se fait à partir d’un cas spécifique, celui des familles roms déplacées et en déplacement aux alentours de Tirana ; une mobilité forcée notamment par peu d’opportunités de sortir de la précarité pour plusieurs familles roms, mais aussi une mobilité induite par les politiques, les pratiques et les discours étatiques, notamment par leur non-action. Au fur et à mesure que l’analyse des pratiques et des discours – complétée par une ethnographie des documents d’archives et dans les quartiers et les campements roms – s’approfondit pendant les deux périodes historiques, elle dévoile de nombreuses – mais différentes – contradictions et controverses au sein du dispositif, lesquelles produisent à leur tour discrimination, exclusion, violence, indifférence et abandon.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’intérêt porté à l’évaluation du risque de récidive chez les délinquants ayant une déficience intellectuelle (DI) a notablement augmenté depuis les 10 dernières années. D’ailleurs, certains croient que les instruments utilisés pour mesurer le risque chez les auteurs d’infractions sexuelles neurotypiques peuvent s’appliquer aux auteurs d’infractions sexuelles ayant une DI tandis que d’autres appuient l’idée d’utiliser et de développer des mesures actuarielles propres à ces individus. Trois objectifs ont été posés pour tenter d’éclaircir ces deux visions, soit 1) Comparer les taux de récidive entre les deux groupes d’auteurs d’infractions sexuelles (ayant une DI et neurotypiques), en plus de déterminer lequel récidive plus rapidement sur une courte période de temps, 2) Analyser la validité prédictive de huit instruments actuariels (et de la PCL-R) auprès d’un échantillon d’auteurs d’infractions sexuelles ayant une DI et 3) Analyser la composition des instruments par domaines (Knight et Thornton, 2007). L’échantillon est composé de 550 auteurs d’infractions sexuelles dont 54 ont une DI. Les résultats suggèrent que les deux groupes d’auteurs d’infractions sexuelles (neurotypiques et ayant une DI) présentent des taux de récidive similaires. Un nombre restreint d’instruments semblent par contre efficaces chez les auteurs d’infractions sexuelles ayant une DI. De ce fait, le SVR-20 s’est révélé avoir une validité prédictive pour la récidive sexuelle, le RMC, le RMV et le MnSOST-R pour la récidive violente et le VRAG pour la récidive non violente. Il est toutefois justifié de se questionner sur la manière d’évaluer le risque chez cette clientèle particulière. L’analyse de la composition des instruments semble importante puisque certains domaines pourraient prédire différemment la récidive chez les auteurs d’infractions sexuelles ayant une DI. Une grande partie des facteurs pouvant être utiles dans la prédiction de la récidive ne semblent toujours pas avoir été identifiés, repoussant ainsi la création d’instruments propres aux délinquants ayant une DI.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper studies monetary policy in an economy where the central banker's preferences are asymmetric around optimal inflation. In particular, positive deviations from the optimum can be weighted more, or less, severely than negative deviations in the policy maker's loss function. It is shown that under asymmetric preferences, uncertainty can induce a prudent behavior on the part of the central banker. Since the prudence motive can be large enough to override the inflation bias, optimal monetary policy could be implemented even in the absence of rules, reputation, or contractual mechanisms. For certain parameter values, a deflationary bias can arise in equilibrium.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recent work shows that a low correlation between the instruments and the included variables leads to serious inference problems. We extend the local-to-zero analysis of models with weak instruments to models with estimated instruments and regressors and with higher-order dependence between instruments and disturbances. This makes this framework applicable to linear models with expectation variables that are estimated non-parametrically. Two examples of such models are the risk-return trade-off in finance and the impact of inflation uncertainty on real economic activity. Results show that inference based on Lagrange Multiplier (LM) tests is more robust to weak instruments than Wald-based inference. Using LM confidence intervals leads us to conclude that no statistically significant risk premium is present in returns on the S&P 500 index, excess holding yields between 6-month and 3-month Treasury bills, or in yen-dollar spot returns.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce rapport s'inscrit dans la problematique soulevée par l'insistance des milieux financiers américains et du Trésor américain à libéraliser et à globaliser les mouvements internationaux de capitaux. Dans cette perspective, il tente de répondre à trois questions, à savoir 1) est-ce que la finance internationale en général et les institutions monétaires et financières nationales et internationales sont sources d'instabilité financière et économique pour les pays? 2) est-il possible d'éviter que les bénéfices découlant de l'accès accru aux marchés internationaux des capitaux soient diminués et même renversés par des crises monétaires et financières internationales et nationales et, comme corollaire, 3) est-ce que le systême actuel des monnaies nationales est dépassé ?

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper derives optimal monetary policy rules in setups where certainty equivalence does not hold because either central bank preferences are not quadratic, and/or the aggregate supply relation is nonlinear. Analytical results show that these features lead to sign and size asymmetries, and nonlinearities in the policy rule. Reduced-form estimates indicate that US monetary policy can be characterized by a nonlinear policy rule after 1983, but not before 1979. This finding is consistent with the view that the Fed's inflation preferences during the Volcker-Greenspan regime differ considerably from the ones during the Burns-Miller regime.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les mesures de contrôle de la contamination croisée sont principalement concentrées dans la salle opératoire dentaire alors que les articles transférés entre la clinique et le laboratoire dentaire et les instruments de laboratoire ont reçu peu d’attention. Cette étude vise à documenter l’application des mesures d’asepsie sur ces articles par les professionnels du domaine dentaire ainsi que leurs perceptions entourant ces mesures. Un questionnaire autoadministré et anonyme a été envoyé à un échantillon aléatoire des dentistes, denturologistes et directeurs de laboratoire dentaire qui étaient inscrits aux listes des ordres professionnels en juin 2008 dans la province de Québec. Des 1100 questionnaires envoyés, 376 ont été retournés remplis. Presque trois quarts (72,1 %) des répondants affirment faire l’asepsie des instruments de laboratoire et 74,9 %, la désinfection des articles transférés mais avec des pourcentages variables selon le groupe d’articles (empreintes, prothèses, etc.). Seulement 9,1 % de professionnels identifient de façon générale les articles désinfectés avant l’envoi. Plus de la moitié des professionnels (51,4 %) trouvent qu’ils n’ont pas assez d’information sur l’asepsie des articles transférés et 62,4 %, qu’elle est difficile à appliquer. Cette étude est la première réalisée auprès des trois groupes de professionnels et la première à étudier leurs perceptions entourant l’asepsie des articles transférés et de l’instrumentation de laboratoire. Nous avons démontré que l’application des mesures d’asepsie à ces articles par les professionnels du domaine dentaire n’est pas toujours conforme aux normes proposées et qu’il existe un besoin de renforcer leur application, surtout en ce qui a trait aux articles transférés.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’importance de la problématique des vaches laitières non gestantes avec multiples inséminations (› 3) communément appelées « Repeat Breeder » (RB), au Québec, repose sur deux facteurs: son incidence et son impact économique. Actuellement, l’incidence du syndrome RB au Québec est de ± 25% (Rapport annuel, juin 2008, www.dsahr.ca). Les pertes monétaires associées à ce problème proviennent des frais vétérinaires et d’insémination, de la diminution de productivité ainsi que des pertes en lien avec la réforme involontaire. Afin d’avoir de meilleures connaissances sur ce syndrome, nous devons connaître les facteurs de risques généraux impliqués et ensuite explorer la condition individuelle de ces vaches problèmes. Dans la première partie de ce mémoire, une banque de données informatisées répertoriant 418 383 lactations fut analysée. L’objectif de ce projet de recherche était d’évaluer l’impact des problèmes reproducteurs post-partum et l’effet du nombre de lactations comme facteurs de risques de la vache Repeat Breeder. L’analyse a permis d’établir la dystocie comme étant la condition ayant le plus de conséquences sur la fertilité future. D’autres facteurs de risques à savoir le nombre de lactations influencent le pronostic reproducteur. La deuxième partie de ce mémoire consistait à explorer, à l’aide d’outils cliniques, la condition individuelle des vaches RB. Une étude cohorte fut menée sur des vaches Holstein en fin de période d’attente volontaire au jour 7 du cycle oestral. Les tests cliniques étudiés furent la vaginoscopie, l’examen transrectal, l’ultrasonographie du système reproducteur, la présence d’estérases leucocytaires, la bactériologie et la biochimie du liquide utérin, la cytologie endométriale et le profil de progestérone sérique. Les résultats de ces tests cliniques dévoilent que l’examen bactériologique du liquide utérin est révélateur du statut reproducteur futur.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’évolution rapide des technologies de détection et de caractérisation des exoplanètes depuis le début des années 1990 permet de croire que de nouveaux instruments du type Terrestrial Planet Finder (TPF) pourront prendre les premiers spectres d’exoplanètes semblables à la Terre d’ici une ou deux décennies. Dans ce contexte, l’étude du spectre de la seule planète habitée connue, la Terre, est essentielle pour concevoir ces instruments et analyser leurs résultats. Cette recherche présente les spectres de la Terre dans le visible (390-900 nm), acquis lors de 8 nuits d’observation étalées sur plus d’un an. Ces spectres ont été obtenus en observant la lumière cendrée de la Lune avec le télescope de 1.6 m de l’Observatoire du Mont-Mégantic (OMM). La surface de la Lune réfléchissant de manière diffuse la lumière provenant d’une portion de la Terre, ces spectres sont non résolus spatialement. L’évolution de ces spectres en fonction de la lumière réfléchie à différentes phases de Terre est analogue à celle du spectre d’une exoplanète, dont la phase change selon sa position autour de l’étoile. L'eau, l'oxygène et l'ozone de l’atmosphère, détectés dans tous nos spectres, sont des biomarqueurs dont la présence suggère l’habitabilité de la planète et/ou la présence d’une activité biologique. Le Vegetation Red Edge (VRE), une autre biosignature spectrale, dû aux organismes photosynthétiques à la surface, est caractérisé par l’augmentation de la réflectivité autour de 700 nm. Pour les spectres de 5 nuits, cette augmentation a été évaluée entre -5 et 15% ±~5%, après que les contributions de la diffusion de Rayleigh, des aérosols et d’une large bande moléculaire de l’ozone aient été enlevées. Les valeurs mesurées sont cohérentes avec la présence de végétation dans la phase de la Terre contribuant au spectre, mais s’étendent sur une plage de variations plus large que celles trouvées dans la littérature (0-10%). Cela pourrait s’expliquer par des choix faits lors de la réduction des données et du calcul du VRE, ou encore par la présence d’autres éléments de surface ou de l’atmosphère dont la contribution spectrale autour de 700 nm serait variable.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Depuis quelques décennies, l'intérêt pour l’étude de la fonction d’évaluation s’est diversifié pour approfondir les principes théoriques (Jenkinson, 1922; Schellenberg, 1956; Samuels, 1992; Cook, 1992b; Eastwood, 1992b; Duranti, 1994; Couture, 1999), les stratégies (Booms, 1972; Samuels, 1986; Cook, 1992b; Eastwood, 1992b; Couture, 1999) et les dispositifs de leur processus d’application (Ham, 1984; Boles & Young, 1991; Cook, 2001a, 2001b). Mais, toutes ces contributions n'ont pas encore étudié la nature des résultats de l'évaluation que sont les archives définitives. Du point de vue patrimonial, l’absence d’études sur la définition et la mesure des qualités des archives définitives ne permet pas de vérifier si ces archives constituent un patrimoine documentaire significatif. Sur le plan administratif, l’état actuel de la pratique de l'évaluation n'a pas encore investi dans l'examen méticuleux de la nature de ses résultats. Au plan économique, le manque de méthodes et d'outils pour la mesure des qualités des archives ne permet pas de juger si ces archives valent l’investissement matériel, technique, financier et humain que leur conservation implique. Du point de vue professionnel, l’absence de méthodes et d’instruments d’évaluation des qualités des archives ne permet pas aux professionnels d’appuyer leur décision en matière d’évaluation des archives. Afin de remédier à cette situation, notre recherche vise à définir et à mesurer les qualités des archives définitives issues de l’évaluation. Pour ce faire, nous privilégions une méthodologie quantitative de nature descriptive, appropriée lorsqu’il s’agit d’étudier un sujet peu abordé (Fortin, 2006) tel que l'opérationnalisation des qualités des archives définitives. La stratégie de la recherche a comporté deux phases. La phase conceptuelle a permis d’identifier et de définir quatre qualités soit l’« Unicité », la « Preuve crédible », l’« Exploitabilité » et la « Représentativité ». La phase empirique consistait à vérifier la mesurabilité, à titre d’exemple, des variables découlant de deux des quatre dimensions de qualité dans le contexte des archives définitives, soit la « Preuve crédible » et l’« Exploitabilité ». Le mode de collecte des données réside dans l’application d’une grille de mesure conçue spécialement aux fins de cette étude. La réalisation de la collecte de données qui s’est déroulée à Bibliothèque et Archives nationales du Québec a permis l’opérationnalisation de 10 indicateurs spécifiques sur 13 appartenant à deux dimensions de qualité : la « Preuve crédible » et l’« Exploitabilité » des archives définitives. Ainsi, trois indicateurs spécifiques sur l’ensemble de 13 sont restés sans mesures à cause d’une certaine faiblesse liée à leur mesure que nous avons pu identifier et vérifier lors des pré-tests de la recherche. Ces trois indicateurs spécifiques sont le « Créateur » dans le cadre de la dimension de la « Preuve crédible », ainsi que la « Compréhensibilité » et la « Repérabilité » dans le cadre de la dimension de l’« Exploitabilité ». Les mesures obtenues pour les 10 indicateurs ont mené à l’identification des avantages et des points à améliorer concernant différentes variables liées au créateur, au service de conservation ou encore à l’état et à la nature du support. Cibler l’amélioration d’un produit ou d’un service représente, comme démontré dans la revue de la littérature, le but ultime d’une étude sur les dimensions de qualité. Trois types de contributions découlent de cette recherche. Au plan théorique, cette recherche offre un cadre conceptuel qui permet de définir le concept de qualité des archives définitives dans une perspective d’évaluation archivistique. Au plan méthodologique, elle propose une méthode de mesure des qualités applicables aux archives définitives ainsi que les instruments et le guide qui expliquent sa réalisation. Au plan professionnel, d'une part, elle permet d’évaluer les résultats de l’exercice de l’évaluation archivistique; d'autre part, elle offre aux professionnels non seulement une grille de mesure des qualités des archives définitives déjà testée, mais aussi le guide de son application.