968 resultados para statistical analysis


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Ce mémoire consiste en une analyse des stratégies de l’offre et de la demande de l’industrie québécoise de la production télévisuelle francophone pour la jeunesse et plus précisément, pour l’auditoire des 12-17 ans. Cette industrie tendrait à investir davantage dans l’importation que dans la production d’émissions pour cet auditoire, dû à la faible écoute de ses productions par leur auditoire cible. Afin de mieux saisir les enjeux politiques, économiques et sociaux qui entourent l’industrie de la production télévisuelle pour la jeunesse, nous proposons d’explorer et de comparer l’offre télévisuelle destinée aux 12-17 ans et leur consommation télévisuelle. Cette analyse quantitative et statistique de l’offre et de la consommation se fait en trois étapes : (i) l’analyse de la structure de réception (émissions à succès, écoute des filles et des garçons, temps passé à l’écoute), (ii) l’analyse de la structure de programmation (mode de diffusion, genres télévisuels, origine des émissions, thématiques des émissions), et (iii) l’analyse de la structure thématique (thématiques associées aux épisodes et des personnages). De ces analyses, divers constats apparaissent. Tout d’abord, les jeunes consomment ce que les télédiffuseurs diffusent à leur intention, malgré l’accès limité à cette offre. De plus, plusieurs tactiques semblent être mises en œuvre afin de rentabiliser la diffusion de ces émissions, principalement la rediffusion. Finalement, ces émissions destinées aux adolescents se distinguent de celles offertes au grand public, non seulement par le public qu’elles tentent de rejoindre, mais aussi par les thématiques qu’elles abordent et la manière dont elles les abordent.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dans les dernières décennies, le présumé déclin de la compétence scripturale des élèves québécois a soulevé les passions. Force est d’admettre que leurs compétences sont lacunaires : tant les rapports du ministère de l’Éducation (Jalbert, 2006; Ouellet, 1984) que les études scientifiques ou gouvernementales (Bureau, 1985; Groupe DIEPE, 1995; Roberge, 1984) révèlent leur incapacité à s’approprier l’écriture. Les TIC pourraient bien faire partie de la solution : on sait pertinemment qu’elles favorisent la réussite scolaire dans certains contextes (Barayktar, 2001; Christmann & Badgett, 2003; Waxman, Lin, & Michko, 2003). Toutefois, modifient-elles le processus scriptural au point d’en faciliter l’apprentissage? Cette question constitue le cœur de l’actuel projet de recherche. Les modèles du processus d’écriture comme celui de Hayes et Flower (Flower & Hayes, 1981; Hayes, 1995; Hayes & Flower, 1980) rappellent que les TIC font partie du contexte de production; à ce titre, elles influencent autant la qualité des textes que les processus cognitifs et la motivation. Elles libèrent notamment des ressources cognitives, puisqu’elles prennent en charge certaines opérations, comme la calligraphie (Daiute, 1983). Partant, le scripteur peut se concentrer davantage sur des tâches plus complexes. Des méta-analyses (Bangert-Drowns, 1993; Goldberg, Russell, & Cook, 2003) attestent que le traitement de texte exerce un effet minime, mais statistiquement significatif sur la qualité de l’écriture. Toutefois, il est associé à des révisions en surface (Faigley & Witte, 1981; Figueredo & Varnhagen, 2006). Rares sont les projets de recherche qui explorent simultanément l’impact du traitement de texte sur plusieurs dimensions du processus scriptural; plus rares encore sont les travaux qui se sont intéressés à ce sujet depuis les années 1990. Pour pallier ce manque, cette thèse de doctorat vise à 1) mesurer l’effet des TIC sur la qualité de l’écriture; 2) décrire l’impact des TIC sur les processus cognitifs de révision et de traduction; 3) mesurer l’impact des TIC sur la motivation à écrire. Pour y arriver, nous recourons à une méthodologie mixte. D’une part, un devis de recherche quasi expérimental nous permet de comparer les scripteurs technologiques aux scripteurs traditionnels; d’autre part, une approche qualitative nous laisse accéder aux pensées et aux perceptions des utilisateurs de l’ordinateur. Les trois articles qui constituent le cœur de cette thèse rapportent les résultats relatifs à chacun des objectifs spécifiques de recherche. Dans le premier texte, nous avons mesuré les effets du traitement de texte sur la compétence scripturale. L’analyse statistique des données colligées nous a permis de dégager une amélioration des performances, strictement en orthographe d’usage. En comparaison, les élèves du groupe témoin se sont améliorés davantage en cohérence textuelle et ont mieux performé en orthographe grammaticale. Le deuxième article propose de faire la lumière sur ces résultats. Nous y étudions donc l’impact des TIC sur le processus cognitif de révision. Ce volet, basé sur une approche qualitative, recourt largement à l’observation vidéographiée. Nous y mettons d’abord en évidence le grand nombre d’erreurs commises lors des séances d’écriture technologiques; nous faisons également ressortir la sous-utilisation du vérificateur linguistique, qui pose peu de diagnostics appropriés ou qui est souvent ignoré des scripteurs. Toutefois, malgré cette sous-utilisation du traitement de texte, des entrevues de groupe font état de perceptions positives à l’égard des TIC; on leur prête des vertus certaines et elles sont jugées motivantes. Ce phénomène constitue le cœur du dernier article, au cours duquel nous tâchons de mesurer l’impact du mode d’écriture sur la motivation à écrire. Nous menons ce volet dans une perspective quantitative. La motivation des participants a été mesurée avec une échelle de motivation. L’analyse statistique des données montre que les élèves technologiques sont motivés intrinsèquement par les technologies, tandis que leurs pairs du groupe témoin sont amotivés. Lors du chapitre conclusif, nous mettons ces résultats en relation, tentant d’expliquer globalement l’impact des TIC dans le processus scriptural. Au terme de notre thèse, nous formulons des recommandations destinées aux praticiens et aux décideurs engagés dans le système éducatif.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les calculs statistiques ont été effectués à l'aide du logiciel SPSS.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les référentiels de compétences et la formation professionnelle des enseignants sont devenus des sujets qui suscitent beaucoup d’intérêt de la part de plusieurs chercheurs en éducation, dont Paquay (1994), Perrenoud (2001) et Berchoud (2007). La présente étude est une recherche-développement qui se donne pour objectif principal de concevoir et d’élaborer un référentiel de compétences pour les futurs enseignants de français langue étrangère (FLE). Pour y parvenir, notre démarche générale consistait à partir de l’analyse des référentiels de formation des enseignants ainsi que des standards de performance que nous pouvions déjà trouver partout dans le monde. Cette analyse nous a amenée à repérer les points communs et, par la suite, à les synthétiser pour trouver les éléments pertinents qui pourraient nous inspirer pour une première ébauche de notre référentiel. Ainsi, nous avons dressé une liste des domaines de performance nécessaires à la formation des futurs enseignants que nous avons repérés dans les écrits. Pour enrichir cette liste, nous avons mené des consultations auprès de quelques experts en Égypte où le français est enseigné comme deuxième langue étrangère dans les écoles publiques. Et, à l’aide de trois outils de recherche, les entrevues individuelles, le focus-group et le questionnaire, nous avons pu développer et valider des standards de performance pertinents à chacun des domaines identifiés ainsi que des indicateurs pour chaque standard. L’analyse statistique des données recueillies nous a permis d’en faire une description globale, de confirmer des points de convergence de façon significative, et aussi de repérer des éléments sujets à discussion. Ainsi, nous sommes parvenue à élaborer un référentiel qui comprend trois composantes principales : les domaines de performance, les standards et les indicateurs. Ce référentiel contient vingt standards de performance essentiels à la formation des futurs enseignants de FLE. Les standards sont regroupés sous six catégories appelées domaines : compétence linguistique, communication, processus d’enseignement, gestion de classe, évaluation et professionnalité. Le référentiel comprend aussi soixante-trois indicateurs reliés aux standards retenus. Le résultat de notre recherche est donc ce référentiel de compétences destiné aux futurs enseignants de FLE et dont les éléments ont été validés en Égypte. Nous croyons que cet outil servira, d’une part, de cadre de référence pour les professeurs des facultés d’éducation surtout lors du choix de contenu de leurs cours et, d’autre part, comme un guide pour les futurs enseignants qui leur permettra de s’autoévaluer et de se situer par rapport aux différents standards de performance identifiés dans ce référentiel.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cette thèse porte sur les phénomènes critiques survenant dans les modèles bidimensionnels sur réseau. Les résultats sont l'objet de deux articles : le premier porte sur la mesure d'exposants critiques décrivant des objets géométriques du réseau et, le second, sur la construction d'idempotents projetant sur des modules indécomposables de l'algèbre de Temperley-Lieb pour la chaîne de spins XXZ. Le premier article présente des expériences numériques Monte Carlo effectuées pour une famille de modèles de boucles en phase diluée. Baptisés "dilute loop models (DLM)", ceux-ci sont inspirés du modèle O(n) introduit par Nienhuis (1990). La famille est étiquetée par les entiers relativement premiers p et p' ainsi que par un paramètre d'anisotropie. Dans la limite thermodynamique, il est pressenti que le modèle DLM(p,p') soit décrit par une théorie logarithmique des champs conformes de charge centrale c(\kappa)=13-6(\kappa+1/\kappa), où \kappa=p/p' est lié à la fugacité du gaz de boucles \beta=-2\cos\pi/\kappa, pour toute valeur du paramètre d'anisotropie. Les mesures portent sur les exposants critiques représentant la loi d'échelle des objets géométriques suivants : l'interface, le périmètre externe et les liens rouges. L'algorithme Metropolis-Hastings employé, pour lequel nous avons introduit de nombreuses améliorations spécifiques aux modèles dilués, est détaillé. Un traitement statistique rigoureux des données permet des extrapolations coïncidant avec les prédictions théoriques à trois ou quatre chiffres significatifs, malgré des courbes d'extrapolation aux pentes abruptes. Le deuxième article porte sur la décomposition de l'espace de Hilbert \otimes^nC^2 sur lequel la chaîne XXZ de n spins 1/2 agit. La version étudiée ici (Pasquier et Saleur (1990)) est décrite par un hamiltonien H_{XXZ}(q) dépendant d'un paramètre q\in C^\times et s'exprimant comme une somme d'éléments de l'algèbre de Temperley-Lieb TL_n(q). Comme pour les modèles dilués, le spectre de la limite continue de H_{XXZ}(q) semble relié aux théories des champs conformes, le paramètre q déterminant la charge centrale. Les idempotents primitifs de End_{TL_n}\otimes^nC^2 sont obtenus, pour tout q, en termes d'éléments de l'algèbre quantique U_qsl_2 (ou d'une extension) par la dualité de Schur-Weyl quantique. Ces idempotents permettent de construire explicitement les TL_n-modules indécomposables de \otimes^nC^2. Ceux-ci sont tous irréductibles, sauf si q est une racine de l'unité. Cette exception est traitée séparément du cas où q est générique. Les problèmes résolus par ces articles nécessitent une grande variété de résultats et d'outils. Pour cette raison, la thèse comporte plusieurs chapitres préparatoires. Sa structure est la suivante. Le premier chapitre introduit certains concepts communs aux deux articles, notamment une description des phénomènes critiques et de la théorie des champs conformes. Le deuxième chapitre aborde brièvement la question des champs logarithmiques, l'évolution de Schramm-Loewner ainsi que l'algorithme de Metropolis-Hastings. Ces sujets sont nécessaires à la lecture de l'article "Geometric Exponents of Dilute Loop Models" au chapitre 3. Le quatrième chapitre présente les outils algébriques utilisés dans le deuxième article, "The idempotents of the TL_n-module \otimes^nC^2 in terms of elements of U_qsl_2", constituant le chapitre 5. La thèse conclut par un résumé des résultats importants et la proposition d'avenues de recherche qui en découlent.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

On s’intéresse aux impacts des pesticides sur la microflore des plantes surtout dans le contexte des légumes contaminés par des agents pathogènes. Le but de cette étude est d'évaluer l'impact de certains pesticides sur la persistance de micro-organismes indicateurs et pathogènes. En laboratoire, la persistance d’E. coli et de Salmonella en présence de quatre pesticides (Ripcord 400EC, Copper 53W, Bioprotec CAF, Serenade MAX) a été étudiée. Les plaques de Pétrifilm et le milieu sélectif XLD sont utilisés pour énumérer les populations d’E. coli et de Salmonella. Il a été démontré que le Serenade MAX favorisait la croissance microbienne, le Bioprotec CAF et le Ripcord 400EC soutenaient la survie microbienne et le Copper 53W inhibait la croissance, à la fois d’E. coli et de Salmonella. En conditions terrain, Ripcord 400EC, Copper 53W, Bioprotec CAF ont été étudiés sur une culture de brocoli irriguée avec de l'eau expérimentalement contaminée par E. coli. Dans tous les traitements, un impact de l’irrigation a été observé sur les populations de levures et de moisissures (diminution) et les bactéries aérobies totales (augmentation). Une prévalence supérieure d’E. coli a été observée dans les parcelles traitées avec le Bioprotec CAF comparativement aux traitements au Copper 53W, ce qui est en accord avec les résultats observés lors de l'essai en laboratoire. Cependant, l'analyse statistique n'a montré aucune différence significative entre les traitements appliqués. Les effets directs des pesticides sur les micro-organismes sont confirmés dans des conditions de laboratoire mais demeurent méconnus dans les conditions expérimentales au champ.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L'analyse en composantes indépendantes (ACI) est une méthode d'analyse statistique qui consiste à exprimer les données observées (mélanges de sources) en une transformation linéaire de variables latentes (sources) supposées non gaussiennes et mutuellement indépendantes. Dans certaines applications, on suppose que les mélanges de sources peuvent être groupés de façon à ce que ceux appartenant au même groupe soient fonction des mêmes sources. Ceci implique que les coefficients de chacune des colonnes de la matrice de mélange peuvent être regroupés selon ces mêmes groupes et que tous les coefficients de certains de ces groupes soient nuls. En d'autres mots, on suppose que la matrice de mélange est éparse par groupe. Cette hypothèse facilite l'interprétation et améliore la précision du modèle d'ACI. Dans cette optique, nous proposons de résoudre le problème d'ACI avec une matrice de mélange éparse par groupe à l'aide d'une méthode basée sur le LASSO par groupe adaptatif, lequel pénalise la norme 1 des groupes de coefficients avec des poids adaptatifs. Dans ce mémoire, nous soulignons l'utilité de notre méthode lors d'applications en imagerie cérébrale, plus précisément en imagerie par résonance magnétique. Lors de simulations, nous illustrons par un exemple l'efficacité de notre méthode à réduire vers zéro les groupes de coefficients non-significatifs au sein de la matrice de mélange. Nous montrons aussi que la précision de la méthode proposée est supérieure à celle de l'estimateur du maximum de la vraisemblance pénalisée par le LASSO adaptatif dans le cas où la matrice de mélange est éparse par groupe.