214 resultados para Ajustement structurel


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le présent mémoire s’est intéressé à la contribution respective de la gravité des traumas vécus en enfance, des traits de la personnalité, du fonctionnement réflexif et de l’ajustement conjugal des survivants, à la sensibilité et à la négativité (i.e., hostilité et intrusion) des pratiques parentales adoptées et à la prédiction de la désorganisation de l’attachement de leur enfant à 17 mois. Dans cette perspective, 100 mères ayant vécu des mauvais traitements en enfance et de faible statut socio-économique ont été recrutées à l’hôpital Rosemont-Maisonneuve de Montréal à l’aide du Parental Bonding Instrument. Des analyses corrélationnelles menées sur l’ensemble des variables ont permis de mettre en évidence des associations significatives entre la sensibilité maternelle et l’ajustement conjugal et le FR-G ainsi qu’entre les comportements maternels négatifs et la gravité du trauma subi en enfance, le FR-G et la désorganisation de l’attachement de l’enfant. De plus, les variables corrélées à la désorganisation de l’attachement à 17 mois ont été incluses dans un modèle de régression logistique hiérarchique afin de tester leur contribution à sa prédiction. Les résultats indiquent qu’un modèle significatif de prédiction de l’organisation de l’attachement de l’enfant inclut le FR-T et l’insensibilité maternelle et explique environ 43 % de la variance de cette dernière. Selon ce modèle, l’augmentation de 1 point de FR-T diminue de 1,7 fois le risque que l’attachement de l’enfant soit désorganisé et l’augmentation de 1 de l’indice d’insensibilité maternelle augmente de 1,4 fois ce même risque. Ces résultats s’inscrivent dans le raffinement de la compréhension des pratiques maternelles sensibles et négatives dans un contexte d’historique de trauma en enfance ainsi que de la désorganisation de l’attachement de l’enfant et ils sont discutés en fonction de la littérature à ce sujet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les recherches récapitulées dans cette thèse de doctorat ont porté sur les causes de l’organisation spatiale des végétations périodiques. Ces structures paysagères aux motifs réguliers, tachetés, tigrés ou labyrinthiques, d’échelle décamétrique à hectométrique, couvrant des étendues considérables sur au moins trois continents, constituent un cas d’école dans l’étude des processus endogènes présidant à l’hétérogénéité du couvert végétal. Ces structures prennent place sur un substrat homogène, mis à part la rétroaction du couvert lui-même, et sont marquées par des écotones abrupts et la persistance d’une proportion considérable de sol nu. Plusieurs modèles ont mis en avant l’existence possible d’un phénomène d’auto-organisation du couvert, qui verrait une structure d’ensemble émerger des interactions locales entre individus. Ces modèles se basent sur le jeu simultané de la consommation de la ressource (compétition) et de l’amélioration de l’un ou l’autre des éléments du bilan de la même ressource par le couvert (facilitation). La condition à l’existence d’une structure d’ensemble spatialement périodique et stable réside dans une différence entre la portée de la compétition (plus grande) et celle de la facilitation. L’apparition de ces structures est modulée par le taux de croissance biologique, qui est le reflet des contraintes extérieures telles que l’aridité, le pâturage ou la coupe de bois. Le modus operandi des interactions spatiales supposées entre individus reste largement à préciser.

Nos recherches ont été menées au sud-ouest de la République du Niger, à l’intérieur et dans les environs du parc Régional du W. Trois axes ont été explorés :(i) Une étude de la dépendance spatiale entre la structure de la végétation (biovolumes cartographiés) et les paramètres du milieu abiotique (relief, sol), sur base d’analyses spectrales et cross-spectrales par transformée de Fourier (1D et 2D). (ii) Une étude diachronique (1956, 1975 et 1996) à large échelle (3000 km²) de l’influence de l’aridité et des pressions d’origine anthropique sur l’auto-organisation des végétations périodiques, basée sur la caractérisation de la structure spatiale des paysages sur photos aériennes via la transformée de Fourier en 2D. (iii) Trois études portant sur les interactions spatiales entre individus :En premier lieu, via l’excavation des systèmes racinaires (air pulsé) ;Ensuite, par un suivi spatio-temporel du bilan hydrique du sol (blocs de gypse) ;Enfin, via le marquage de la ressource par du deutérium.

Nous avons ainsi pu établir que les végétations périodiques constituent bien un mode d’auto-organisation pouvant survenir sur substrat homogène et modulé par les contraintes climatiques et anthropiques. Un ajustement rapide entre l’organisation des végétations périodiques et le climat a pu être montrée en zone protégée. La superficie et l’organisation des végétations périodiques y ont tour à tour progressé et régressé en fonction d’épisodes secs ou humides. Par contre, en dehors de l’aire protégée, la possibilité d’une restauration du couvert semble fortement liée au taux d’exploitation des ressources végétales. Ces résultats ont d’importantes implications quant à la compréhension des interactions entre climat et écosystèmes et à l’évaluation de leurs capacités de charge. La caractérisation de la structure spatiale des végétations arides, notamment par la transformée de Fourier d’images HR, devrait être généralisée comme outil de monitoring de l’état de ces écosystèmes. Nos études portant sur les modes d’interactions spatiales ont permis de confirmer l’existence d’une facilitation à courte portée du couvert végétal sur la ressource. Cependant, cette facilitation ne semble pas s’exercer sur le terme du bilan hydrique traditionnellement avancé, à savoir l’infiltration, mais plutôt sur le taux d’évaporation (deux fois moindre à l’ombre des canopées). Ce mécanisme exclut l’existence de transferts diffusifs souterrains entre sols nu et fourrés. Des transferts inverses semblent d’ailleurs montrés par le marquage isotopique. L’étude du bilan hydrique et la cartographie du micro-relief, ainsi que la profondeur fortement réduite de la zone d’exploitation racinaire, jettent de sérieux doutes quant au rôle communément admis des transferts d’eau par ruissellement/diffusion de surface en tant que processus clé dans la compétition à distance entre les plantes. L’alternative réside dans l’existence d’une compétition racinaire de portée supérieure aux canopées. Cette hypothèse trouve une confirmation tant par les rhizosphères excavées, superficielles et étendues, que dans le marquage isotopique, montrant des contaminations d’arbustes situés à plus de 15 m de la zone d’apport. De même, l’étude du bilan hydrique met en évidence les influences simultanées et contradictoires (facilitation/compétition) des ligneux sur l’évapotranspiration.

/

This PhD thesis gathers results of a research dealing with the causes of the spatial organisation of periodic vegetations. These landscape structures, featuring regular spotted, labyrinthine or banded patterns of decametric to hectometric scale, and extending over considerable areas on at least three continents, constitute a perfect study case to approach endogenous processes leading to vegetation heterogeneities. These patterns occur over homogeneous substratum, except for vegetation’s own feedbacks, and are marked by sharp ecotones and the persistence of a considerable amount of bare soil. A number of models suggested a possible case of self-organized patterning, in which the general structure would emerge from local interactions between individuals. Those models rest on the interplay of competitive and facilitative effects, relating to soil water consumption and to soil water budget enhancement by vegetation. A general necessary condition for pattern formation to occur is that negative interactions (competition) have a larger range than positive interactions (facilitation). Moreover, all models agree with the idea that patterning occurs when vegetation growth decreases, for instance as a result of reduced water availability, domestic grazing or wood cutting, therefore viewing patterns as a self-organised response to environmental constraints. However the modus operandi of the spatial interactions between individual plants remains largely to be specified.

We carried out a field research in South-West Niger, within and around the W Regional Park. Three research lines were explored: (i) The study of the spatial dependency between the vegetation pattern (mapped biovolumes) and the factors of the abiotic environment (soil, relief), on the basis of spectral and cross-spectral analyses with Fourier transform (1D and 2D). (ii) A broad scale diachronic study (1956, 1975, 1996) of the influence of aridity and human induced pressures on the vegetation self-patterning, based on the characterisation of patterns on high resolution remote sensing data via 2D Fourier transform. (iii) Three different approaches of the spatial interactions between individuals: via root systems excavation with pulsed air; via the monitoring in space and time of the soil water budget (gypsum blocks method); and via water resource labelling with deuterated water.

We could establish that periodic vegetations are indeed the result of a self-organisation process, occurring in homogeneous substratum conditions and modulated by climate and human constraints. A rapid adjustment between vegetation patterning and climate could be observed in protected zones. The area and patterning of the periodic vegetations successively progressed and regressed, following drier or wetter climate conditions. On the other hand, outside protected areas, the restoration ability of vegetation appeared to depend on the degree of vegetation resource exploitation. These results have important implications regarding the study of vegetation-climate interactions and the evaluation of ecosystems’ carrying capacities. Spatial pattern characterisation in arid vegetations using Fourier transform of HR remote sensing data should be generalised for the monitoring of those ecosystems. Our studies dealing with spatial interaction mechanisms confirmed the existence of a short range facilitation of the cover on water resource. However, this facilitation does not seem to act through the commonly accepted infiltration component, but rather on the evaporative rate (twice less within thickets). This mechanism excludes underground diffusive transfers between bare ground and vegetation. Inverse transfers were even shown by deuterium labelling. Water budget study and micro-elevation mapping, along with consistent soil shallowness, together cast serious doubts on the traditional mechanism of run-off/diffusion of surface water as a key process of the long range competition between plants. An alternative explanation lies in long range root competition. This hypothesis find support as well in the excavated root systems, shallow and wide, as in isotopic labelling, showing contaminations of shrubs located up to 15 m of the irrigated area. Water budget study also evidenced simultaneous contradictory effects (facilitation/competition) of shrubs on evapotranspiration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : La présente étude vise à déterminer quels sont les facteurs permettant de valider de nouvelles échelles de personnalité spécifiques à la relation intra-couple construites sur la base de profils de personnalité en auto- et hétéro-évaluation. Pour ce faire, nous avons défini des critères sociologiques (par exemple âge, niveau socioprofessionnel, nombre de relations passées), des critères psychologiques (satisfaction conjugale) et des critères biologiques (distance génétique et préférence d'odeurs) afin de vérifier s'ils sont susceptibles de valider les six échelles de personnalité intra-couples inédites que nous avons construites dans le cadre de cette recherche de doctorat. Notre échantillon se compose de 106 couples mariés et de 60 jeunes couples non mariés, qui ont chacun complété le test de personnalité L.A. B. E. L. (F Gendre & R. Capel), l'Échelle d'Ajustement Dyadique (Spanier, 1976) ainsi qu'un test génétique pour une partie d'entre eux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Décrire les patients d'une structure gériatrique offrant des hospitalisations de courte durée, dans un contexte ambulatoire, pour des situations gériatriques courantes dans le canton de Genève (Suisse). Mesurer les performances de cette structure en termes de qualité des soins et de coûts. Méthodes : Des données relatives au profil des 100 premiers patients ont été collectées (huit mois), ainsi qu'aux prestations, aux ressources et aux effets (réadmissions, décès, satisfaction, complications) de manière à mesurer différents indicateurs de qualité et de coûts. Les valeurs observées ont été systématiquement comparées aux valeurs attendues, calculées à partir du profil des patients. Résultats : Des critères d'admission ont été fixés pour exclure les situations dans lesquelles d'autres structures offrent des soins mieux adaptés. La spécificité de cette structure intermédiaire a été d'assurer une continuité des soins et d'organiser d'emblée le retour à domicile par des prestations de liaison ambulatoire. La faible occurrence des réadmissions potentiellement évitables, une bonne satisfaction des patients, l'absence de décès prématurés et le faible nombre de complications suggèrent que les soins médicaux et infirmiers ont été délivrés avec une bonne qualité. Le coût s'est révélé nettement plus économique que des séjours hospitaliers après ajustement pour la lourdeur des cas. Conclusion : L'expérience-pilote a démontré la faisabilité et l'utilité d'une unité d'hébergement et d'hospitalisation de court séjour en toute sécurité. Le suivi du patient par le médecin traitant assure une continuité des soins et évite la perte d'information lors des transitions ainsi que les examens non pertinents. INTRODUCTION: To describe patients admitted to a geriatric institution, providing short-term hospitalizations in the context of ambulatory care in the canton of Geneva. To measure the performances of this structure in terms of quality ofcare and costs. METHOD: Data related to the clinical,functioning and participation profiles of the first 100 patients were collected. Data related to effects (readmission, deaths, satisfaction, complications), services and resources were also documented over an 8-month period to measure various quality and costindicators. Observed values were systematically compared to expected values, adjusted for case mix. RESULTS: Explicit criteria were proposed to focus on the suitable patients, excluding situations in which other structures were considered to be more appropriate. The specificity of this intermediate structure was to immediately organize, upon discharge, outpatient services at home. The low rate of potentially avoidable readmissions, the high patient satisfaction scores, the absence of premature death and the low number of iatrogenic complications suggest that medical and nursing care delivered reflect a good quality of services. The cost was significantly lower than expected, after adjusting for case mix. CONCLUSION: The pilot experience showed that a short-stay hospitalization unit was feasible with acceptable security conditions. The attending physician's knowledge of the patients allowed this system tofocus on essential issues without proposing inappropriate services.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The focus of the paper is the nonparametric estimation of an instrumental regression function P defined by conditional moment restrictions stemming from a structural econometric model : E[Y-P(Z)|W]=0 and involving endogenous variables Y and Z and instruments W. The function P is the solution of an ill-posed inverse problem and we propose an estimation procedure based on Tikhonov regularization. The paper analyses identification and overidentification of this model and presents asymptotic properties of the estimated nonparametric instrumental regression function.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In a recent paper, Bai and Perron (1998) considered theoretical issues related to the limiting distribution of estimators and test statistics in the linear model with multiple structural changes. In this companion paper, we consider practical issues for the empirical applications of the procedures. We first address the problem of estimation of the break dates and present an efficient algorithm to obtain global minimizers of the sum of squared residuals. This algorithm is based on the principle of dynamic programming and requires at most least-squares operations of order O(T 2) for any number of breaks. Our method can be applied to both pure and partial structural-change models. Secondly, we consider the problem of forming confidence intervals for the break dates under various hypotheses about the structure of the data and the errors across segments. Third, we address the issue of testing for structural changes under very general conditions on the data and the errors. Fourth, we address the issue of estimating the number of breaks. We present simulation results pertaining to the behavior of the estimators and tests in finite samples. Finally, a few empirical applications are presented to illustrate the usefulness of the procedures. All methods discussed are implemented in a GAUSS program available upon request for non-profit academic use.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We extend the class of M-tests for a unit root analyzed by Perron and Ng (1996) and Ng and Perron (1997) to the case where a change in the trend function is allowed to occur at an unknown time. These tests M(GLS) adopt the GLS detrending approach of Dufour and King (1991) and Elliott, Rothenberg and Stock (1996) (ERS). Following Perron (1989), we consider two models : one allowing for a change in slope and the other for both a change in intercept and slope. We derive the asymptotic distribution of the tests as well as that of the feasible point optimal tests PT(GLS) suggested by ERS. The asymptotic critical values of the tests are tabulated. Also, we compute the non-centrality parameter used for the local GLS detrending that permits the tests to have 50% asymptotic power at that value. We show that the M(GLS) and PT(GLS) tests have an asymptotic power function close to the power envelope. An extensive simulation study analyzes the size and power in finite samples under various methods to select the truncation lag for the autoregressive spectral density estimator. An empirical application is also provided.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We propose finite sample tests and confidence sets for models with unobserved and generated regressors as well as various models estimated by instrumental variables methods. The validity of the procedures is unaffected by the presence of identification problems or \"weak instruments\", so no detection of such problems is required. We study two distinct approaches for various models considered by Pagan (1984). The first one is an instrument substitution method which generalizes an approach proposed by Anderson and Rubin (1949) and Fuller (1987) for different (although related) problems, while the second one is based on splitting the sample. The instrument substitution method uses the instruments directly, instead of generated regressors, in order to test hypotheses about the \"structural parameters\" of interest and build confidence sets. The second approach relies on \"generated regressors\", which allows a gain in degrees of freedom, and a sample split technique. For inference about general possibly nonlinear transformations of model parameters, projection techniques are proposed. A distributional theory is obtained under the assumptions of Gaussian errors and strictly exogenous regressors. We show that the various tests and confidence sets proposed are (locally) \"asymptotically valid\" under much weaker assumptions. The properties of the tests proposed are examined in simulation experiments. In general, they outperform the usual asymptotic inference methods in terms of both reliability and power. Finally, the techniques suggested are applied to a model of Tobin’s q and to a model of academic performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The GARCH and Stochastic Volatility paradigms are often brought into conflict as two competitive views of the appropriate conditional variance concept : conditional variance given past values of the same series or conditional variance given a larger past information (including possibly unobservable state variables). The main thesis of this paper is that, since in general the econometrician has no idea about something like a structural level of disaggregation, a well-written volatility model should be specified in such a way that one is always allowed to reduce the information set without invalidating the model. To this respect, the debate between observable past information (in the GARCH spirit) versus unobservable conditioning information (in the state-space spirit) is irrelevant. In this paper, we stress a square-root autoregressive stochastic volatility (SR-SARV) model which remains true to the GARCH paradigm of ARMA dynamics for squared innovations but weakens the GARCH structure in order to obtain required robustness properties with respect to various kinds of aggregation. It is shown that the lack of robustness of the usual GARCH setting is due to two very restrictive assumptions : perfect linear correlation between squared innovations and conditional variance on the one hand and linear relationship between the conditional variance of the future conditional variance and the squared conditional variance on the other hand. By relaxing these assumptions, thanks to a state-space setting, we obtain aggregation results without renouncing to the conditional variance concept (and related leverage effects), as it is the case for the recently suggested weak GARCH model which gets aggregation results by replacing conditional expectations by linear projections on symmetric past innovations. Moreover, unlike the weak GARCH literature, we are able to define multivariate models, including higher order dynamics and risk premiums (in the spirit of GARCH (p,p) and GARCH in mean) and to derive conditional moment restrictions well suited for statistical inference. Finally, we are able to characterize the exact relationships between our SR-SARV models (including higher order dynamics, leverage effect and in-mean effect), usual GARCH models and continuous time stochastic volatility models, so that previous results about aggregation of weak GARCH and continuous time GARCH modeling can be recovered in our framework.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

It is well known that standard asymptotic theory is not valid or is extremely unreliable in models with identification problems or weak instruments [Dufour (1997, Econometrica), Staiger and Stock (1997, Econometrica), Wang and Zivot (1998, Econometrica), Stock and Wright (2000, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. One possible way out consists here in using a variant of the Anderson-Rubin (1949, Ann. Math. Stat.) procedure. The latter, however, allows one to build exact tests and confidence sets only for the full vector of the coefficients of the endogenous explanatory variables in a structural equation, which in general does not allow for individual coefficients. This problem may in principle be overcome by using projection techniques [Dufour (1997, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. AR-types are emphasized because they are robust to both weak instruments and instrument exclusion. However, these techniques can be implemented only by using costly numerical techniques. In this paper, we provide a complete analytic solution to the problem of building projection-based confidence sets from Anderson-Rubin-type confidence sets. The latter involves the geometric properties of “quadrics” and can be viewed as an extension of usual confidence intervals and ellipsoids. Only least squares techniques are required for building the confidence intervals. We also study by simulation how “conservative” projection-based confidence sets are. Finally, we illustrate the methods proposed by applying them to three different examples: the relationship between trade and growth in a cross-section of countries, returns to education, and a study of production functions in the U.S. economy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We discuss statistical inference problems associated with identification and testability in econometrics, and we emphasize the common nature of the two issues. After reviewing the relevant statistical notions, we consider in turn inference in nonparametric models and recent developments on weakly identified models (or weak instruments). We point out that many hypotheses, for which test procedures are commonly proposed, are not testable at all, while some frequently used econometric methods are fundamentally inappropriate for the models considered. Such situations lead to ill-defined statistical problems and are often associated with a misguided use of asymptotic distributional results. Concerning nonparametric hypotheses, we discuss three basic problems for which such difficulties occur: (1) testing a mean (or a moment) under (too) weak distributional assumptions; (2) inference under heteroskedasticity of unknown form; (3) inference in dynamic models with an unlimited number of parameters. Concerning weakly identified models, we stress that valid inference should be based on proper pivotal functions —a condition not satisfied by standard Wald-type methods based on standard errors — and we discuss recent developments in this field, mainly from the viewpoint of building valid tests and confidence sets. The techniques discussed include alternative proposed statistics, bounds, projection, split-sampling, conditioning, Monte Carlo tests. The possibility of deriving a finite-sample distributional theory, robustness to the presence of weak instruments, and robustness to the specification of a model for endogenous explanatory variables are stressed as important criteria assessing alternative procedures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non-indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce rapport de recherche porte sur une étude s’intéressant au transfert des connaissances tacites chez les gestionnaires, c’est-à-dire le partage de ces connaissances et leur utilisation informelle, durant une situation de coordination dans un service municipal. La thèse est articulée autour des questions suivantes : Quelles sont les situations de coordination vécues par les gestionnaires municipaux? Quelles sont les sources de connaissances tacites partagées et utilisées? Quelles sont les relations de connaissances mobilisées de façon informelle lors du transfert des connaissances tacites? Quels sont les facteurs encourageant ou inhibant le transfert informel des connaissances tacites? À partir d’un modèle basé sur une approche situationnelle (Taylor, 1989 et 1991), nous avons revu la documentation touchant nos questions de recherche. Nous avons défini notamment la récursivité des connaissances et le réseau de connaissances, de même que présenté le modèle de la conversion des connaissances (Nonaka, 1994) et celui de l’actualisation de soi (St-Arnaud, 1996). Nous avons questionné 22 répondants à l’aide d’instruments de mesure qui combinent les techniques de l’incident critique, de l’entrevue cognitive et réflexive, le questionnement sur les réseaux organisationnels et l’observation participante. Tels des filets, ces instruments ont permis de traquer et d’obtenir des données d’une grande richesse sur les connaissances tacites et les comportements informels durant le transfert de connaissances en situation de coordination. Ces données ont été analysées selon une approche méthodologique essentiellement qualitative combinant l’analyse de contenu, la schématisation heuristique et l’analyse des réseaux sociaux. Nos résultats montrent que la complexité d’une situation de coordination conditionne le choix des mécanismes de coordination. De plus, les sources de connaissances sont, du point de vue individuel, le gestionnaire et ses artefacts, de même que son réseau personnel avec ses propres artefacts. Du point de vue collectif, ces sources sont réifiées dans le réseau de connaissances. Les connaissances clés d’une situation de coordination sont celles sur le réseau organisationnel, le contexte, les expériences en gestion et en situation complexe de coordination, la capacité de communiquer, de négocier, d’innover et celle d’attirer l’attention. Individuellement, les gestionnaires privilégient l’actualisation de soi, l’autoformation et la formation contextualisée et, collectivement, la coprésence dans l’action, le réseautage et l’accompagnement. Cette étude fournit un modèle valide du transfert contextualisé des connaissances qui est un cas de coordination complexe d’activités en gestion des connaissances. Ce transfert est concomitant à d’autres situations de coordination. La nature tacite des connaissances prévaut, de même que le mode informel, les médias personnels et les mécanismes d’ajustement mutuel. Les connaissances tacites sont principalement transférées au début des processus de gestion de projet et continuellement durant la rétroaction et le suivi des résultats. Quant aux connaissances explicites, les gestionnaires les utilisent principalement comme un symbole à la fin des processus de gestion de projet. Parmi les personnes et les groupes de personnes d’une situation de transfert contextualisé des connaissances, 10 % jouent des rôles clés, soit ceux d’experts et d’intermédiaires de personnes et d’artefacts. Les personnes en périphérie possèdent un potentiel de structuration, c’est-à-dire de connexité, pour assurer la continuité du réseau de connaissances organisationnel. Notre étude a élargi le modèle général de la complexité d’une situation (Bystrom, 1999; Choo, 2006; Taylor, 1986 et 1991), la théorie de la coordination (Malone et Crowston, 1994), le modèle de la conversion des connaissances (Nonaka, 1994), celui de l’actualisation de soi (St-Arnaud, 1996) et la théorie des réseaux de connaissances (Monge et Contractor, 2003). Notre modèle réaffirme la concomitance de ces modèles généraux selon une approche constructiviste (Giddens, 1987) où la dualité du structurel et la compétence des acteurs sont confirmées et enrichies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un résumé en anglais est également disponible. Le présent document a été présenté pour l'obtention du diplôme de Maîtrise en droit. Le ménoire a été accepté et classé parmi les 5% de la discipline.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des études supérieures En vue de l'obtention du grade de Maîtrise en droit Option recherche (LL.M)"