1000 resultados para Analyses en composantes principales


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les histoires d'attachement à compléter de Bretherton et Ridgeway (1990) constituent un moyen d'évaluer les narratifs d'enfants dès l'âge de 3 ans. Dans le présent article, nous présentons un Q-sort permettant de coder ces productions enfantines. Des scores à 4 dimensions d'attachement (sécurité, désactivation, hyperactivation, désorganisation) peuvent être obtenus grâce à une comparaison des réponses du sujet à celles de prototypes. Par ailleurs, une analyse en composantes principales a permis de définir 6 échelles, correspondant chacune à un aspect spécifique du jeu. Certains aspects des narratifs semblent influencés par le sexe et l'âge de l'enfant, mais non par son QI. Des exemples d'application du Q-sort sont présentés, notamment pour l'étude de la transmission intergénérationnelle des stratégies d'attachement ou pour l'étude de l'implication des représentations et des capacités narratives en matière de psychopathologie. Bretherton and Ridgeway's (1990) attachment story completion task allows for the assessment of child narratives as early as 3 years of age. In the present article, we present a Q-sort for the coding of these child productions. Scores on 4 attachment dimensions (security, deactivation, hyperactivation, disorganization) can be computed by comparing participants' responses to those of each prototype. Following a principal components analysis, 6 scales have been defined, each one corresponding to some specific aspects of child play. Certain aspects of child narratives seem to be influenced by gender and age, but not by IQ. Examples of possible applications of the Q-sort are presented, such as its use in the study of intergenerational transmission of attachment strategies or the study of the role of representations and narrative competence in psychopathology.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we introduce a new approach for volatility modeling in discrete and continuous time. We follow the stochastic volatility literature by assuming that the variance is a function of a state variable. However, instead of assuming that the loading function is ad hoc (e.g., exponential or affine), we assume that it is a linear combination of the eigenfunctions of the conditional expectation (resp. infinitesimal generator) operator associated to the state variable in discrete (resp. continuous) time. Special examples are the popular log-normal and square-root models where the eigenfunctions are the Hermite and Laguerre polynomials respectively. The eigenfunction approach has at least six advantages: i) it is general since any square integrable function may be written as a linear combination of the eigenfunctions; ii) the orthogonality of the eigenfunctions leads to the traditional interpretations of the linear principal components analysis; iii) the implied dynamics of the variance and squared return processes are ARMA and, hence, simple for forecasting and inference purposes; (iv) more importantly, this generates fat tails for the variance and returns processes; v) in contrast to popular models, the variance of the variance is a flexible function of the variance; vi) these models are closed under temporal aggregation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La fibrillation auriculaire est le trouble du rythme le plus fréquent chez l'homme. Elle conduit souvent à de graves complications telles que l'insuffisance cardiaque et les accidents vasculaires cérébraux. Un mécanisme neurogène de la fibrillation auriculaire mis en évidence. L'induction de tachyarythmie par stimulation du nerf médiastinal a été proposée comme modèle pour étudier la fibrillation auriculaire neurogène. Dans cette thèse, nous avons étudié l'activité des neurones cardiaques intrinsèques et leurs interactions à l'intérieur des plexus ganglionnaires de l'oreillette droite dans un modèle canin de la fibrillation auriculaire neurogène. Ces activités ont été enregistrées par un réseau multicanal de microélectrodes empalé dans le plexus ganglionnaire de l'oreillette droite. L'enregistrement de l'activité neuronale a été effectué continument sur une période de près de 4 heures comprenant différentes interventions vasculaires (occlusion de l'aorte, de la veine cave inférieure, puis de l'artère coronaire descendante antérieure gauche), des stimuli mécaniques (toucher de l'oreillette ou du ventricule) et électriques (stimulation du nerf vague ou des ganglions stellaires) ainsi que des épisodes induits de fibrillation auriculaire. L'identification et la classification neuronale ont été effectuées en utilisant l'analyse en composantes principales et le partitionnement de données (cluster analysis) dans le logiciel Spike2. Une nouvelle méthode basée sur l'analyse en composante principale est proposée pour annuler l'activité auriculaire superposée sur le signal neuronal et ainsi augmenter la précision de l'identification de la réponse neuronale et de la classification. En se basant sur la réponse neuronale, nous avons défini des sous-types de neurones (afférent, efférent et les neurones des circuits locaux). Leur activité liée à différents facteurs de stress nous ont permis de fournir une description plus détaillée du système nerveux cardiaque intrinsèque. La majorité des neurones enregistrés ont réagi à des épisodes de fibrillation auriculaire en devenant plus actifs. Cette hyperactivité des neurones cardiaques intrinsèques suggère que le contrôle de cette activité pourrait aider à prévenir la fibrillation auriculaire neurogène. Puisque la stimulation à basse intensité du nerf vague affaiblit l'activité neuronale cardiaque intrinsèque (en particulier pour les neurones afférents et convergents des circuits locaux), nous avons examiné si cette intervention pouvait être appliquée comme thérapie pour la fibrillation auriculaire. Nos résultats montrent que la stimulation du nerf vague droit a été en mesure d'atténuer la fibrillation auriculaire dans 12 des 16 cas malgré un effet pro-arythmique défavorable dans 1 des 16 cas. L'action protective a diminué au fil du temps et est devenue inefficace après ~ 40 minutes après 3 minutes de stimulation du nerf vague.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Citrullus lanatus (Thunb.) Matsumura and Nakai (Cucurbitaceae) is an important cucurbit crop worldwide. Global production of watermelon is about 90 million metric tonnes per annum, making it among the top five most consumed fresh fruits. The objective of this study was to evaluate seed variability in different segregating populations, and determine heritability of traits of watermelon. Interspecific crosses were made between two cultivars of C. lanatus (Bebu and Wlêwlê Small Seeds (WSS) were performed at Research Station of Nangui Abrogoua University in Abidjan, Côte d’Ivoire. There was wide variability between parental, F1, BC1 (first generation of back-crossing) and F2 seeds. Seeds of all hybrid populations were intermediate versus those of the parents. Also, crossing did not affect F1 and F2 seed characters, but affected those of BC1 because of maternal effects. Thus, back-crossing on Bebu cultivar produced seeds which looked like those of Bebu; while back-crossing on WSS cultivar produced seeds similar to those of WSS. Principal Component Analysis (PCA) and individuals repartitioning revealed that Bebu and WSS cultivars were genetically distinct and showed three main groups: two groups from each parental line and one from a recombinant line (hybrids). F2 population had a wide individual’s dispersion, and contained seeds of all other populations. High heritability was observed for all evaluated characters.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sorghum ( Sorghum bicolor L. Moench) is an economic and staple crop in sub-Saharan Africa. The genetic diversity in its germplasm is an invaluable aid for its crop improvement. The objective of this study was to assess the existing genetic diversity among sorghum landraces in the southwestern highlands of Uganda. A total of 47 sorghum landraces, collected from southwestern highlands of Uganda, were characterised using 12 qualitative and 13 quantitative traits. The study was conducted at Kachwekano Research Farm in Kabale District, at an altitude of 2,223 m above sea level, during growing season of December 2014 to August 2015. Panicle shape and compactness were the most varied qualitative traits. Grain yield (1.23 to 11.31 t ha-1) and plant height (144.7 to 351.6 cm) were among quantitative traits that showed high variability. Days to 50% flowering (115 to 130 days) showed the least variability. Results of UPGMA cluster analysis generated a dendrogram with three clusters. Panicle weight, leaf width, stem girth, exertion length, peduncle length, panicle shape and compactness, glume colour and threshability were major traits responsible for the observed clustering (P<0.001). Principal Component Analysis revealed the largest variation contributors.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse est organisée en trois chapitres. Les deux premiers s'intéressent à l'évaluation, par des méthodes d'estimations, de l'effet causal ou de l'effet d'un traitement, dans un environnement riche en données. Le dernier chapitre se rapporte à l'économie de l'éducation. Plus précisément dans ce chapitre j'évalue l'effet de la spécialisation au secondaire sur le choix de filière à l'université et la performance. Dans le premier chapitre, j'étudie l'estimation efficace d'un paramètre de dimension finie dans un modèle linéaire où le nombre d'instruments peut être très grand ou infini. L'utilisation d'un grand nombre de conditions de moments améliore l'efficacité asymptotique des estimateurs par variables instrumentales, mais accroit le biais. Je propose une version régularisée de l'estimateur LIML basée sur trois méthodes de régularisations différentes, Tikhonov, Landweber Fridman, et composantes principales, qui réduisent le biais. Le deuxième chapitre étend les travaux précédents, en permettant la présence d'un grand nombre d'instruments faibles. Le problème des instruments faibles est la consequence d'un très faible paramètre de concentration. Afin d'augmenter la taille du paramètre de concentration, je propose d'augmenter le nombre d'instruments. Je montre par la suite que les estimateurs 2SLS et LIML régularisés sont convergents et asymptotiquement normaux. Le troisième chapitre de cette thèse analyse l'effet de la spécialisation au secondaire sur le choix de filière à l'université. En utilisant des données américaines, j'évalue la relation entre la performance à l'université et les différents types de cours suivis pendant les études secondaires. Les résultats suggèrent que les étudiants choisissent les filières dans lesquelles ils ont acquis plus de compétences au secondaire. Cependant, on a une relation en U entre la diversification et la performance à l'université, suggérant une tension entre la spécialisation et la diversification. Le compromis sous-jacent est évalué par l'estimation d'un modèle structurel de l'acquisition du capital humain au secondaire et de choix de filière. Des analyses contrefactuelles impliquent qu'un cours de plus en matière quantitative augmente les inscriptions dans les filières scientifiques et technologiques de 4 points de pourcentage.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans le cadre de l’évaluation pré-chirurgicale de patients épileptiques, il est impératif de déterminer la spécialisation hémisphérique du langage, ainsi que de localiser les aires du langage au sein de cet hémisphère. De nouvelles méthodes d’évaluation non- invasives doivent être mises au point afin de diminuer les risques associés aux méthodes plus invasives telles que le test à l’amobarbital intracarotidien (TAI). L’objectif principal de cette thèse est donc de développer un protocole d’évaluation pré-chirurgicale alternatif et non-invasif à l’aide de la magnétoencéphalographie (MEG) pour la latéralisation et la localisation du langage, incluant la mémoire verbale qui serait éventuellement accessible à une population pédiatrique francophone épileptique. L’article 1 présente une recension de la littérature résumant les différentes études en MEG ayant pour objectif l’évaluation pré-chirurgicale du langage. Trente-sept articles en MEG ont été analysés pour déterminer quelles tâches permettaient d’obtenir les meilleurs résultats de latéralisation intrahémisphérique et de localisation du langage pour l’évaluation du langage réceptif et expressif chez des sujets neurologiquement sains et épileptiques. Parmi les tests retenus, l’épreuve de reconnaissance de mots permet d’évaluer le langage réceptif et la mémoire verbale, tandis que des épreuves de fluence verbale telles que la génération de verbes permettent d’évaluer le langage expressif de façon à obtenir de très bons résultats. L’article 2 a permis de valider un protocole auprès de sujets neurologiquement sains à l’aide des épreuves identifiées dans l’article 1. Le protocole utilisé comprend une tâche de langage réceptif et de mémoire verbale (une épreuve de reconnaissance de mots) et une tâche de langage expressif (une épreuve de fluence verbale). Suite à la validation du protocole à l’aide d’analyses par composantes principales, les épreuves ont été administrées à un groupe de patients épileptiques. Les index de latéralité et les analyses de sources i révèlent que la MEG permet de localiser et de latéraliser les fonctions langagières et pourrait donc être utilisée comme méthode d'évaluation du langage lors de l'évaluation pré- chirurgicale auprès de patients épileptiques. Toutefois, alors que l’épreuve de mémoire verbale a permis d’obtenir les meilleurs résultats auprès de l’ensemble des participants, l’épreuve de fluence verbale n’a fourni des informations supplémentaires que chez un seul patient et chez aucun participant neurologiquement sain. En résumé, les deux articles de cette thèse démontrent le potentiel clinique de la MEG pour l’évaluation pré-chirurgicale de patients souffrant d’une épilepsie réfractaire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Combining theories on social trust and social capital with sociopsychological approaches and applying contextual analyses to Swiss and European survey data, this thesis examines under what circumstances generalised trust, often understood as public good, may not benefit everyone, but instead amplify inequality. The empirical investigation focuses on the Swiss context, but considers different scales of analysis. Two broader questions are addressed. First, might generalised trust imply more or less narrow visions of community and solidarity in different contexts? Applying nonlinear principal component analysis to aggregate indicators, Study 1 explores inclusive and exclusive types of social capital in Europe, measured as regional configurations of generalised trust, civic participation and attitudes towards diversity. Study 2 employs multilevel models to examine how generalised trust, as an individual predisposition and an aggregate climate at the level of Swiss cantons, is linked to equality- directed collective action intention versus radical right support. Second, might high-trust climates impact negatively on disadvantaged members of society, precisely because they reflect a normative discourse of social harmony that impedes recognition of inequality? Study 3 compares how climates of generalised trust at the level of Swiss micro-regions and subjective perceptions of neighbourhood cohesion moderate the negative relationship between socio-economic disadvantage and mental health. Overall, demonstrating beneficial, as well as counterintuitive effects of social trust, this thesis proposes a critical and contextualised approach to the sources and dynamics of social cohesion in democratic societies. -- Cette thèse combine des théories sur le capital social et la confiance sociale avec des approches psychosociales et s'appuie sur des analyses contextuelles de données d'enquêtes suisses et européennes, afin d'étudier dans quelles circonstances la confiance généralisée, souvent présentée comme un bien public, pourrait ne pas bénéficier à tout le monde, mais amplifier les inégalités. Les études empiriques, centrées sur le contexte suisse, intègrent différentes échelles d'analyse et investiguent deux questions principales. Premièrement, la confiance généralisée implique-t-elle des visions plus ou moins restrictives de la communauté et de la solidarité selon le contexte? Dans l'étude 1, une analyse à composantes principales non-linéaire sur des indicateurs agrégés permet d'explorer des types de capital social inclusif et exclusif en Europe, mesurés par des configurations régionales de confiance généralisée, de participation civique, et d'attitudes envers la diversité. L'étude 2 utilise des modèles multiniveaux afin d'analyser comment la confiance généralisée, en tant que prédisposition individuelle et climat agrégé au niveau des cantons suisses, est associée à l'intention de participer à des actions collectives en faveur de l'égalité ou, au contraire, à l'intention de voter pour la droite radicale. Deuxièmement, des climats de haute confiance peuvent-ils avoir un impact négatif sur des membres désavantagés de la société, précisément parce qu'ils reflètent un discours normatif d'harmonie sociale qui empêche la reconnaissance des inégalités? L'étude 3 analyse comment des climats de confiance au niveau des micro-régions suisses et la perception subjective de faire partie d'un environnement cohésif modèrent la relation négative entre le désavantage socio-économique et la santé mentale. En démontrant des effets bénéfiques mais aussi contre-intuitifs de la confiance sociale, cette thèse propose une approche critique et contextualisée des sources et dynamiques de la cohésion sociale dans les sociétés démocratiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les Technologies de l’Information et de la Communication (TIC) sont de plus en plus présentes dans toutes les sphères de la société y compris dans l’éducation. Pour favoriser des usages effectifs de ces technologies par des enseignants dans les salles de classe, il devient pertinent de s’intéresser aux usages qu’en font certains formateurs et futurs enseignants dans le cadre de la formation initiale. Ainsi, dans le contexte de la formation initiale des enseignants en Côte d’Ivoire à l’ENS d’Abidjan, l’objectif général de la présente thèse est de documenter les usages et la compétence TIC. Pour répondre à ces préoccupations, une étude qualitative exploratoire a été réalisée à l’Ecole normale supérieure (ENS) d’Abidjan en Côte d’Ivoire. Les entrevues individuelles semi-dirigées avec des formateurs (n = 9) et des futurs enseignants (n = 15) ont été analysées, en adoptant une approche méthodologique basée essentiellement sur l’analyse du contenu. Les résultats sont présentés sous forme d’articles scientifiques. La thèse tente ainsi de décrire des usages des TIC par des futurs enseignants, de dresser un profil des formateurs usagers des TIC dans le cadre de la formation initiale à l’ENS d’Abidjan. Elle veut aussi examiner les usages des TIC par des futurs enseignants, en formation initiale, pour certaines des composantes de la compétence TIC. Les résultats obtenus permettent de dresser une typologie des usages des TIC par des futurs enseignants dans le cadre de leurs activités d’apprentissage. Pour ce qui est des formateurs, trois profils d’usagers ont été dressés : 1. Les usagers de bas niveau qui font usage des TIC uniquement pour la recherche et la production de documents ; 2. Les usagers de niveau moyen qui, en plus de la recherche et la production de documents, utilisent les outils électroniques de communication dans leurs pratiques professionnelles, et font souvent usage des TIC dans leur classe ; 3. Les usagers de bon niveau qui, en plus de faire usage des outils de communication dans leurs pratiques professionnelles et d’intégrer les TIC dans leurs pratiques en classe, disposent de pages Web à but éducatif. Par ailleurs, l’analyse des discours des futurs enseignants sur les usages des TIC laisse percevoir que la compétence TIC se révèle de façon inégale à travers quatre de ses composantes. En effet, même s’ils n’ont pas une posture critique face aux TIC, ces futurs enseignants ont une conscience de leurs avantages dans le cadre de leur formation. Ainsi, ils utilisent les TIC pour communiquer, rechercher les informations, les interpréter afin de résoudre un problème, se constituer un réseau d’échanges et de formation continue. Même si l’intégration des TIC dans la formation initiale des enseignants en Côte d’Ivoire n’est pas encore effective, des formateurs et des futurs enseignants en font usage dans le cadre de la formation.