207 resultados para Logiciel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’annonce d’un diagnostic de cancer a un impact important sur l’individu. En se basant sur des informations sociales, environnementales et personnelles, celui-ci tentera de se représenter la maladie. Cette représentation constitue une grille d’informations cognitives et émotionnelles servant à donner un sens à la maladie et y réagir. Le modèle d’autorégulation de Leventhal propose qu’en fonction de sa représentation de la maladie, un individu mettra de l’avant différentes stratégies d’adaptation; ultimement, ces stratégies auront un impact sur l’issue de la maladie dont le niveau de bien-être. La présente recherche propose de considérer l’avenue tant hédonique qu’eudémonique du bien-être, en y incluant le bien-être subjectif, correspondant aux affects positifs et négatifs et à la satisfaction de vie et le bien-être psychologique correspondant à un état d’épanouissement personnel. L’étude a pour objectif principal de documenter les liens entre les dimensions cognitives et émotionnelles de la représentation de la maladie et les dimensions du bien-être subjectif (avenue hédonique) et le bien-être psychologique (avenue eudémonique). Plus précisément, les hypothèses postulent qu’une représentation plus positive de la maladie a pour effet d’augmenter le bien-être subjectif et psychologique. Les hypothèses postulent que la dimension de la représentation émotionnelle de la maladie joue un rôle médiateur entre les dimensions cognitives de la représentation de la maladie et le bien-être subjectif et psychologique. Pour atteindre ces objectifs, 70 participants âgés entre 31 et 75 ans ayant été atteints de cancer dans les cinq dernières années ont été recrutés. Les données ont été recueillies à l’aide de questionnaires autorapportés : un questionnaire sociodémographique, les versions francophones du Revised Illness Perception Questionnaire (IPQ-R : Moss-Morris et al., 2002), du Positive and Negative Affect Scale (PANAS ; Watson, Clark, & Tellegen, 1988), du Satisfaction with Life Scale (Diener, Emmons, Larsen, & Griffin, 1985) et du The Scales of Psychological Well-Being (Ryff & Essex, 1992). Des analyses statistiques de régressions multiples et de médiation ont été réalisées à l’aide du logiciel Statistical Package for Social Sciences (SPSS). Les résultats indiquent que seulement certaines dimensions de la représentation de la maladie exercent un effet unique sur le bien-être subjectif et/ou psychologique soit le contrôle personnel perçu, la représentation émotionnelle de la maladie, les conséquences perçues de la maladie et le cours aigu/chronique de la maladie. La représentation émotionnelle de la maladie semble exercer un effet médiateur complet entre certaines dimensions cognitives de la représentation de la maladie et les niveaux de bien-être. C’est le cas pour l’identité, le cours aigu/chronique de la maladie, le cours cyclique de la maladie, les conséquences perçues de la maladie et l’efficacité perçue du traitement, lorsque mis en lien avec les affects négatifs. C’est aussi le cas pour l’identité et le cours cyclique de la maladie, lorsque mis en lien avec la satisfaction de vie, et pour le cours cyclique de la maladie et les conséquences perçues de la maladie, lorsque mis en lien avec le bien-être psychologique. Les affects positifs associés au volet affectif du bien-être subjectif ne sont pas affectés par la représentation de la maladie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le dimensionnement basé sur la performance (DBP), dans une approche déterministe, caractérise les objectifs de performance par rapport aux niveaux de performance souhaités. Les objectifs de performance sont alors associés à l'état d'endommagement et au niveau de risque sismique établis. Malgré cette approche rationnelle, son application est encore difficile. De ce fait, des outils fiables pour la capture de l'évolution, de la distribution et de la quantification de l'endommagement sont nécessaires. De plus, tous les phénomènes liés à la non-linéarité (matériaux et déformations) doivent également être pris en considération. Ainsi, cette recherche montre comment la mécanique de l'endommagement pourrait contribuer à résoudre cette problématique avec une adaptation de la théorie du champ de compression modifiée et d'autres théories complémentaires. La formulation proposée adaptée pour des charges monotones, cycliques et de type pushover permet de considérer les effets non linéaires liés au cisaillement couplé avec les mécanismes de flexion et de charge axiale. Cette formulation est spécialement appliquée à l'analyse non linéaire des éléments structuraux en béton soumis aux effets de cisaillement non égligeables. Cette nouvelle approche mise en œuvre dans EfiCoS (programme d'éléments finis basé sur la mécanique de l'endommagement), y compris les critères de modélisation, sont également présentés ici. Des calibrations de cette nouvelle approche en comparant les prédictions avec des données expérimentales ont été réalisées pour les murs de refend en béton armé ainsi que pour des poutres et des piliers de pont où les effets de cisaillement doivent être pris en considération. Cette nouvelle version améliorée du logiciel EFiCoS a démontrée être capable d'évaluer avec précision les paramètres associés à la performance globale tels que les déplacements, la résistance du système, les effets liés à la réponse cyclique et la quantification, l'évolution et la distribution de l'endommagement. Des résultats remarquables ont également été obtenus en référence à la détection appropriée des états limites d'ingénierie tels que la fissuration, les déformations unitaires, l'éclatement de l'enrobage, l'écrasement du noyau, la plastification locale des barres d'armature et la dégradation du système, entre autres. Comme un outil pratique d'application du DBP, des relations entre les indices d'endommagement prédits et les niveaux de performance ont été obtenus et exprimés sous forme de graphiques et de tableaux. Ces graphiques ont été développés en fonction du déplacement relatif et de la ductilité de déplacement. Un tableau particulier a été développé pour relier les états limites d'ingénierie, l'endommagement, le déplacement relatif et les niveaux de performance traditionnels. Les résultats ont démontré une excellente correspondance avec les données expérimentales, faisant de la formulation proposée et de la nouvelle version d'EfiCoS des outils puissants pour l'application de la méthodologie du DBP, dans une approche déterministe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche porte sur le thème de l’accompagnement du développement de l’identité professionnelle pour le nouveau personnel enseignant en techniques humaines. Plus précisément, nous voulons mesurer l’impact d’un projet novateur, soit la création d’un groupe de soutien en période d’insertion professionnelle. La problématique s’articule principalement autour du fait que, dans les trois techniques humaines ciblées, les nouveaux professeurs et professeures sont embauchés d’abord et avant tout pour leurs compétences disciplinaires. À leur arrivée au collégial, leur emploi est précaire et leurs tâches morcelées. Malgré le fait qu’ils débutent dans un état d’urgence, cette transition professionnelle semble être laissée pour compte ainsi que le soutien psychologique. Ce contexte, qui favorise l’isolement, influence parfois la motivation à s’engager dans leur deuxième carrière. Au cégep de Sainte-Foy, il n’existe pas de mentorat départemental ni d’accompagnement spécifique. Seul le programme d’accueil et d’intégration offre une série d’activités obligatoires. Le cadre de référence présente deux classifications des besoins du nouveau personnel enseignant au collégial au regard des travaux de Raymond (2001) et Caplan, Clough, Ellis et Muncey (2009). La recension des écrits nous a également permis de distinguer l’insertion, l’identité et le développement professionnels. Les différents dispositifs d’insertion pédagogique des nouveaux enseignants ont également fait l’objet d’une recherche documentaire. Ces assises théoriques ont guidé le choix du développement de notre groupe de soutien sous l’angle d’une communauté d’apprentissage favorisant l’interaction entre pairs. Cet essai poursuit trois objectifs : 1) concevoir le processus d’accompagnement et la trousse éducative pour le groupe de soutien, 2) valider le processus d’accompagnement et la trousse éducative auprès d’un groupe de nouveaux professeurs et professeures provenant des trois techniques humaines et 3) analyser le point de vue de professeurs et professeures par rapport au processus d’accompagnement et à la trousse éducative proposés. Nos objectifs de recherche nécessitaient une méthodologie appropriée. Celleci repose sur une approche méthodologique qualitative, une posture épistémologique interprétative et une recherche de type recherche développement. Dix participantes ont pris part au processus d’accompagnement proposé soit : des entrevues individuelles semi-dirigées et des rencontres de groupe. Les données ont été recueillies grâce à des entrevues semi-dirigées, des rencontres de groupe de discussion, des autoévaluations des participantes ainsi qu’un questionnaire d’évaluation finale. La triangulation des méthodes de collecte de données a été utilisée afin d’assurer la rigueur de nos travaux. L’analyse de contenu s’est faite par l’entremise du logiciel Transana qui a aidé à la transcription des enregistrements, au codage et à la production de rapports synthèse. La dimension éthique a été au coeur de nos préoccupations et nous avons d’ailleurs pris plusieurs précautions à cet effet. Les données obtenues nous ont permis de répondre à notre question de recherche en démontrant que la création du groupe de soutien a eu des retombées positives sur le nouveau personnel enseignant en techniques humaines. Ce nouveau dispositif d’accompagnement a permis de raffiner la classification des besoins de notre cadre de référence. Les catégories émergentes ont révélé des spécificités propres à la deuxième carrière. La formule du groupe de soutien telle que mise à l’essai a, pour sa part, été fortement appréciée des participantes autant pour son fonctionnement que pour son contenu. L’ensemble de ce processus a bonifié la représentation de l’identité professionnelle de Gohier et al. (2001). Les données obtenues nous ont également permis de valider notre cadre d’intervention et de dégager des éléments favorisant la transférabilité des résultats obtenus. Nous pensons d’ailleurs que le groupe de soutien constitue une avenue pertinente et essentielle au sein de la communauté collégiale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous avons élaboré comme objectif principal de cet essai la formalisation des connaissances lors du processus de développement de nouveaux produits qui pourra par la suite être intégrée dans un logiciel de système expert et implanté dans une entreprise de haute technologie. Suite à une revue de la littérature sur laquelle s'appuie le développement de cet essai, notre démarche pour formaliser les connaissances s'est effectuée par des entrevues semi-structurées pour étudier en détail le fonctionnement de l'entreprise lors du développement d'un nouveau produit. Après avoir identifier le modèle utilisé chez Systèmes d'Informatique Philips Ltée, nous avons déterminer les points précis dans le processus de développement d'un nouveau produit où sont prises les décisions, par qui ou par quel comité et à l'aide de quelles informations. Ceci a été suivi par l'identification de six phases dans leur modèle lors du développement de nouveaux produits. Nous avons par la suite formaliser les connaissances en des règles de production pour représenter ces six phases et tout ceci a été fait grâce à la collaboration des experts du département de marketing et de recherche et développement. Suite à ceci, nous avons étudiés divers projets de développement de nouveaux produits sur le marché (matériels et logiciels) afin d'ajouter d'autres règles à notre modèle. Pour mieux visualiser ces connaissances, nous avons développé un prototype de système expert avec le logiciel GURU, prototype qui représente les deux premières phases de notre modèle. Nous souhaitons que notre prototype de démonstration soit poursuivi jusqu'à l'implantation complète du système expert et ceci avec la possibilité de modifications liées à la vie de l'entreprise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Régime des Prêts et bourses donne lieu à de nombreuses révisions annuellement par un grand nombre de candidats désireux d'obtenir plus du Gouvernement. Ces nombreuses demandes de révision sont parfois incomplètes, injustifiées, mal documentées et, parfois, elles ne sont même pas présentées, faute d'information. Le projet «Un système expert pour les Prêts et Bourses» tente de résoudre une partie du problème en offrant aux candidats et aux conseillers en milieux scolaires un outil qui permettrait à tous de pouvoir déterminer, facilement et exactement, le montant d'aide espéré. De plus, le prototype présenté explique au candidat les démarches à suivre et les documents nécessaires à une demande de révision si les résultats de son analyse ne correspondent pas avec ceux emmagasinés à Québec. Le prototype utilise les plus récents développements dans le domaine des logiciels commercial sur micro-ordinateurs dans les domaines suivants: bases de données et systèmes experts. Grâce à un mariage de programmation conventionnelle et de règles d'expertise, le système permet de définir rapidement la situation d'un candidat et de lui indiquer exactement ce à quoi il peut s'attendre du gouvernement. Le prototype a atteint ses objectifs principaux et il est fonctionnel. Son sort, en fonction des perfectionnements qu'il nécessite, est maintenant lié aux développements technologiques dans le domaine du matériel et du logiciel. La volonté des intervenants du milieu à mettre à la disposition des candidats un système avant-gardiste, première pierre d'un ensemble intégré de gestion des Prêts et Bourses, influencera aussi son utilisation future. Chose certaine, il est maintenant pensable de mettre au point des applications pratiques relativement complexes grâce à la technologie des systèmes experts et des bases de données et ce, sur micro-ordinateurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De plus en plus, la capacité de justifier les investissements devient une obligation qui incombe aux gestionnaires responsables de la formation. Dans le domaine de l'informatique utilisateur, cette responsabilité revêt une grande importance puisque les sommes investies en formation sont considérables. La présente étude répond donc aux besoins de ces gestionnaires par le développement d'outils leur permettant d'évaluer l'impact de la formation sur le personnel. De nombreuses informations de gestion leur sont ainsi transmises afin de faciliter la prise de décision à un niveau organisationnel. Dans un premier temps, notre outil d'évaluation des apprentissages leur permet de mesurer les connaissances et habiletés des apprenants au terme de la formation. Par la suite, notre outil d'évaluation et de suivi du transfert des apprentissages leur permet à la fois de mesurer et de qualifier l'utilisation de ces connaissances et habilités dans le contexte de travail. De plus, il leur permet d'identifier les principales raisons qui viennent expliquer ce transfert. Finalement, il est à noter que les outils présentés dans cet ouvrage ont été développés à l'aide de l'approche par compétences et s'adressent spécifiquement à une formation portant sur l'utilisation d'un logiciel de traitement de texte par des secrétaires. Toutefois, ces outils peuvent être adaptés à tout autre type de formation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail de thèse présente deux grands axes. Le premier axe, touche les traitements du bois dans le but principal de réduire les variations dimensionnelles et d’améliorer la résistance à l’attaque des champignons lignivores. Le second axe quant à lui, touche l’aspect environnemental du traitement acide citrique-glycérol. Ce dernier a pour but principal de démontrer que le prolongement de la durée de vie en service du produit lambris traité, compense les impacts environnementaux causés par ce traitement. Dans le premier axe, deux traitements ont été réalisés sur deux essences de pin (Pinus strobus L. et Pinus contorta D.). Un traitement à l’anhydride maléique et un autre traitement avec une solution d’acide citrique – glycérol brute (AC-G). Dans le premier cas, les effets de deux paramètres (la durée de séchage et la température d’estérification) sur les résultats des essais de stabilité dimensionnelle, de résistance à la dégradation fongique et de vieillissement accéléré ont été évalués. Trois niveaux de durée de séchage après imprégnation (12 h, 18 h et 24 h) et trois niveaux de température d’estérification (140 °C, 160 °C et 180 °C) ont été considérés. Dans le second cas, après identification du meilleur catalyseur (HCl) et du meilleur ratio acide citrique – glycérol (3/1) pendant les essais préliminaires, les performances de ce traitement sur la stabilité dimensionnelle, la résistance à la pourriture fongique, la dureté de surface et l’adhérence des couches de revêtement de peinture sur la surface du substrat bois ont été analysées. Les résultats obtenus ont été appuyés par une suite d’analyses qualitatives et quantitatives pour mieux comprendre et expliquer. Les analyses qualitatives sont : (i) la spectroscopie infrarouge à transformée de Fourier (IRTF) et (ii) la microscopie électronique à balayage (MEB) tandis que la quantitative, l’analyse par perte de masse a été faite par pesée. Dans le second axe, une analyse des impacts environnementaux du traitement AC-G a été effectuée par le biais du logiciel SimaPro v8. La base de données Ecoinvent v3 et la méthode d’analyse d’impact Impact 2002+ ont été utilisées dans cette partie du travail de thèse. Sur la base des résultats du second traitement (AC-G) et des travaux disponibles dans la littérature, nous avons estimé, une durée de vie en service des lambris traités. Les différents scénarios de la durée de vie du lambris traité mis sur pied par rapport à celle offerte aujourd’hui par l’industrie, nous permettent de modéliser les impacts environnementaux du traitement. A cette fin, l’analyse de cycle de vie (ACV) a été utilisée comme outil de conception. En conclusion, les paramètres, durée de séchage et température d’estérification influencent les résultats obtenus dans le cas du traitement du bois à l’anhydride maléique. La combinaison 24 h de séchage et 180 °C, température d’estérification, représente les paramètres qui offrent les meilleurs résultats de stabilité dimensionnelle, de résistance à la dégradation fongique et de vieillissement accéléré. Le traitement AC-G améliore la stabilité dimensionnelle, la résistance à la dégradation fongique et la dureté de surface des échantillons. Cependant, le traitement réduit l’adhérence des couches de peinture. Les impacts environnementaux produits par le traitement AC-G sont majoritairement liés à la consommation de la ressource énergie (électricité). Le traitement prolonge la durée de vie en service du lambris traité et il a été mis en évidence que le scénario de durée de vie qui permettrait que le lambris traité puisse se présenter comme un produit à faible impact environnemental par rapport au lambris non traité est celui d’une durée de vie de 55 ans.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les logiciels actuels sont de grandes tailles, complexes et critiques. Le besoin de qualité exige beaucoup de tests, ce qui consomme de grandes quantités de ressources durant le développement et la maintenance de ces systèmes. Différentes techniques permettent de réduire les coûts liés aux activités de test. Notre travail s’inscrit dans ce cadre, est a pour objectif d’orienter l’effort de test vers les composants logiciels les plus à risque à l’aide de certains attributs du code source. À travers plusieurs démarches empiriques menées sur de grands logiciels open source, développés avec la technologie orientée objet, nous avons identifié et étudié les métriques qui caractérisent l’effort de test unitaire sous certains angles. Nous avons aussi étudié les liens entre cet effort de test et les métriques des classes logicielles en incluant les indicateurs de qualité. Les indicateurs de qualité sont une métrique synthétique, que nous avons introduite dans nos travaux antérieurs, qui capture le flux de contrôle ainsi que différentes caractéristiques du logiciel. Nous avons exploré plusieurs techniques permettant d’orienter l’effort de test vers des composants à risque à partir de ces attributs de code source, en utilisant des algorithmes d’apprentissage automatique. En regroupant les métriques logicielles en familles, nous avons proposé une approche basée sur l’analyse du risque des classes logicielles. Les résultats que nous avons obtenus montrent les liens entre l’effort de test unitaire et les attributs de code source incluant les indicateurs de qualité, et suggèrent la possibilité d’orienter l’effort de test à l’aide des métriques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis les dernières années, on assiste à une croissance du taux de chômage. Le nombre de chercheurs d'emploi ne cesse d'augmenter et beaucoup d'entre eux sont confrontés à de longues périodes sans emploi. D'après un récent rapport publié par le Développement des ressources humaines Canada, le taux de chômage a affiché une moyenne de 12.2% au Québec en 1994. Le nombre de chercheurs d'emploi augmente considérablement et ceux-ci proviennent de différents domaines d'activités d'emploi. Plusieurs de ces personnes ont besoin de support pour réintégrer le marché du travail. Des organismes d'aide à l'employabilité permettent à cette clientèle d'identifier des objectifs pour faciliter leur insertion. Afin de bien répondre aux besoins des chercheurs d'emploi par des moyens rapides et utiles, un logiciel a été conçu par Dominique Clavier, chercheur et clinicien Français. Ce logiciel s'appelle le Copilote insertion. Il permet aux usagers d'avoir un diagnostic complet des difficultés à trouver un emploi. Ce diagnostic donne aussi des recommandations conformes à la situation de la personne. Étant donné que cet outil a été d'abord conçu pour les Européens, on peut s'attendre que les énoncés formulés dans le Copilote présentent des difficultés pour les québécois. L'objet de cet essai est de ressortir les problèmes de compréhension pour ensuite faire l'adaptation culturelle du Copilote insertion. Dans le premier chapitre de cet ouvrage, nous nous attarderons à définir les enjeux du travail et la notion de l'employabilité. Nous aborderons par la suite deux modèles qui traitent des stratégies d'insertion : celui de Dominique Clavier auteur du logiciel Copilote insertion et celui de Jacques Limoges auteur du Trèfle chanceux. Il sera question par la suite de l'intégration de ces deux approches et de l'adaptation culturelle de ce logiciel. Le deuxième chapitre présentera la méthodologie qui indiquera la conduite de l'expérimentation auprès d'un échantillon de chercheurs d'emploi québécois. Un dernier chapitre permettra, suite à l'analyse des données, de présenter les résultats et de proposer des correctifs pour la refonte des énoncés du Copilote insertion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

D’abord, nous présentons les principes physiques nous permettant de modéliser et comprendre le phénomène de propagation linéaire des impulsions lumineuses dans un milieu homogène, dans les guides d’ondes planaires et enfin dans les fibres optiques microstructurées. Ensuite, nous faisons une analyse mathématique rigoureuse des équations linéaires de propagation et posons le problème comme celui de la recherche de valeurs propres d’opérateurs auto-adjoints dans un espace de Hilbert. On verra que ces résultats théoriques s’appliquent aux équations simulées dans le logiciel Comsol Multiphysics. Enfin, nous recensons et proposons différentes façons de prédire les valeurs de dispersion chromatique et d’atténuation dans les fibres microstructurées à coeur suspendu en utilisant les notions et équations discutés dans les deux premiers chapitres. Le choix de la géométrie, du matériau et de la longueur d’onde de la lumière transmise sont parmi les variables étudiées numériquement. Nous ferons également un exemple détaillé d’utilisation du logiciel Comsol Multiphysics pour construire un modèle de fibre optique microstructurée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La caractérisation détaillée de vastes territoires pose un défi de taille et est souvent limitée par les ressources disponibles et le temps. Les travaux de cette maîtrise s’incorporent au projet ParaChute qui porte sur le développement d’une Méthode québécoise d’Évaluation du Danger des Chutes de Pierres (MEDCP) le long d’infrastructures linéaires. Pour optimiser l’utilisation des ressources et du temps, une méthode partiellement automatisée facilitant la planification des travaux de terrain a été développée. Elle se base principalement sur la modélisation des trajectoires de chutes de pierres 3D pour mieux cibler les falaises naturelles potentiellement problématiques. Des outils d’automatisation ont été développés afin de permettre la réalisation des modélisations sur de vastes territoires. Les secteurs où l’infrastructure a le plus de potentiel d’être atteinte par d’éventuelles chutes de pierres sont identifiés à partir des portions de l’infrastructure les plus traversées par les trajectoires simulées. La méthode a été appliquée le long du chemin de fer de la compagnie ArcelorMittal Infrastructures Canada. Le secteur couvert par l’étude débute à une dizaine de kilomètres au nord de Port-Cartier (Québec) et s’étend sur 260 km jusqu’au nord des monts Groulx. La topographie obtenue de levés LiDAR aéroportés est utilisée afin de modéliser les trajectoires en 3D à l’aide du logiciel Rockyfor3D. Dans ce mémoire, une approche facilitant la caractérisation des chutes de pierres le long d’un tracé linéaire est présentée. Des études de trajectoires préliminaires sont réalisées avant les travaux sur le terrain. Les informations tirées de ces modélisations permettent de cibler les secteurs potentiellement problématiques et d’éliminer ceux qui ne sont pas susceptibles de générer des chutes de pierres avec le potentiel d’atteindre les éléments à risque le long de l’infrastructure linéaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Afin d’améliorer nos pratiques agricoles dans le contexte d’une agriculture durable, plusieurs agents de lutte biologique (ALB) ont été développés, testés et sont maintenant utilisés dans le monde pour combattre les pertes de rendements causées par les maladies. Blumeria graminis f. sp. hordei ( Bgh) est l’agent pathogène responsable du blanc de l’orge et peut réduire les rendements de cette culture jusqu’à 40%. Un champignon épiphyte, Pseudozyma flocculosa, a été découvert et identifié en 1987 en association étroite avec le blanc du trèfle. Les chercheurs ont alors remarqué que ce champignon exhibait une forte activité antagoniste contre le blanc en détruisant les structures de l’agent pathogène. Suite à d’autres travaux, il est apparu que ce comportement antagoniste était dirigé contre tous les membres des Erysiphales et semblait lié à la synthèse d’un glycolipide antifongique soit la flocculosine. Toutefois, on n’est toujours pas parvenus à associer l’efficacité de l’ALB avec la production de ce glycolipide. Ces observations suggèrent que d’autres facteurs seraient impliqués lorsque les deux protagonistes, l’ALB et le blanc, sont en contact. L’objectif principal de ce projet était donc de chercher d’autres mécanismes moléculaires pouvant expliquer l’interaction P. flocculosa-blanc et orge, en faisant une analyse transcriptomique complète des trois protagonistes en même temps. L’interaction tripartite a été échantillonnée à différents temps suivant l’inoculation de P. flocculosa sur des feuilles d’orge présentant déjà une intensité de blanc d’environ 50%. Les échantillons de feuilles prélevés ont ensuite été utilisés pour l’extraction de l’ARN qui ont été ensuite transformés en ADNc pour la préparation des librairies. Cinq répliquats ont été effectués pour chaque temps et le tout a été séquencé à l’aide de séquençage par synthèse Illumina HiSeq. Les séquences obtenues (reads) ont ensuite été analysées à l’aide du logiciel CLC Genomics Workbench. Brièvement, les séquences obtenues ont été cartographiées sur les trois génomes de référence. Suite à la cartographie, les analyses d’expression ont été conduites et les gènes exprimés de façon différentielle ont été recherchés. Cette étape a été conduite en portant une attention particulière aux gènes codant pour un groupe de protéines appelées CSEP pour “candidate secreted effector proteins” qui seraient possiblement impliquées dans l’interaction tripartite. Parmi les protéines exprimées de façon différentielle en présence du blanc ou en absence de ce dernier, nous avons pu constater que certaines CSEP étaient fortement exprimées en présence du blanc. Ces résultats sont prometteurs et nous offrent une piste certaine pour l’élucidation des mécanismes impliqués dans cette interaction tripartite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le logiciel SysML (Système Mastery Learning) est le prototype d'un logiciel pour enseignants qui désirent implanter le Mastery Learning dans leurs cours. Appartenant à la famille des APO (Applications Pédagogiques de l'Ordinateur), ce logiciel de GPAQ (Génie Pédagogique Assisté par Ordinateur) vient répondre à des besoins d'encadrement et d'assistance formulés par les enseignants qui utilisent le Mastery Learning. Ce projet de recherche et de développement visait à produire un logiciel pour assister et encadrer les enseignants dans le processus de planification et de conception d'une stratégie instrumentée d'évaluation formative. Le but de SysML est de réduire la perte de temps lors de la conception des instruments et à rendre ces instruments de meilleure qualité. Le logiciel SysML a été développé suite à une analyse du problème et des besoins des enseignants et est basé sur des modèles pédagogiques éprouvés. Le logiciel est programmé dans l'environnement HyperCard sur ordinateur Macintosh . SysML a été expérimenté par une conseillère pédagogique et trois enseignants du réseau collégial. Les commentaires des expérimentateurs, recueillis lors des entrevues, sont positifs et nous indiquent qu'un tel logiciel serait bienvenu dans le monde de l'éducation. Par ailleurs, SysML ne serait pas limité aux utilisateurs du Mastery Learning mais serait ouvert aux enseignants qui veulent organiser, planifier un cours et une stratégie d'évaluation. L'essentiel du projet de recherche a été la production du logiciel. Tout le travail de recherche est dans le logiciel, ce document n'est que le rapport accompagnateur. On peut avoir une démonstration du fonctionnement du logiciel en s'adressant à l'auteur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En 1983, un « nouveau » type de logiciels que nous avons appelé « idéateur » est apparu sur le marché de la micro-informatique. Ces logiciels combinent les facilités du traitement de textes avec l'utilisation particulière du « chaînage » de texte. Ce chaînage permet entre autre les manipulations suivantes du texte; classer, mettre en ordre prioritaire, sous-catégoriser des ensembles, lancer les items au hasard, effacer, déplacer ou copier un ou des items, etc. (Pour plus de détails, voir le chapitre 1.2 et les annexes 1 à 3). Après une étude pour situer le cadre de notre recherche (voir le chapitre II) et la traduction du logiciel MaxThink, nous avons introduit cet idéateur dans une classe de français correctif, de niveau collégial. Nous avons choisis ces sujets parce ces étudiant-e-s se servaient déjà de l'ordinateur à l'intérieur des cours et qu'ils (elles) avaient intérêt (pensions-nous) à utiliser l’idéateur pour améliorer leur français. Tous ces sujets ont eu à suivre le cours sur la manipulation de MaxThink. Un design expérimental de catégorie « semi-contrôlée » a été mis en place pour isoler l'influence des trois instruments servant à la composition ; l'idéateur (MaxThink), un traitement de texte traditionnel (Editexte) et le crayon/papier. Le pré-test et le post-test consistant à composer sur un thème déterminé était à chaque fois précédé d'un brainstorming afin de générer une liste d'idées". Par la suite, les textes ont été soumis à trois juges qui ont eu à coter la cohérence globale individuelle pré-test/post-test et la cohérence de groupe au pré-test ainsi qu'au post-test. Deux analyses statistiques non-paramétriques utiles pour un nombre restreint de sujets (trois sous-groupes de quatre sujets) ont été utilisées: analyse de variance (formule KRUSKAL-WALLIS) et analyse des probabilités d'occurrence des distributions (formule HODGES-LEHMANN). En conclusion, nos recommandations tiennent compte de l'analyse statistique des résultats et des commentaires des étudiant-e-s.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comme en témoignent les publications et les préoccupations des acteurs éducatifs, la réussite scolaire est un enjeu social. Les facteurs individuels, familiaux, scolaires et sociaux de la réussite scolaire ont été abondamment étudiés. Toutefois, la recension des écrits permet de constater d’une part, qu’il y a encore peu d’écrits de manière générale sur les élèves qui réussissent à l’école en particulier les écrits sur leur expérience scolaire; d’autre part, il existe relativement peu d’écrits sur la réussite scolaire en milieu défavorisé en relation avec les activités et les discours des bons élèves du secondaire. Cette recherche vise à comprendre la réussite scolaire en milieu socioéconomique défavorisé par la description des actions et des discours des élèves qui réussissent en classe de 3e secondaire en contexte haïtien. L’ethnométhodologie, courant sociologique qui vise la compréhension des actions quotidiennes des individus et de leurs discours offre un autre regard dans l’étude du phénomène de la réussite scolaire. En effet, l’expérience scolaire au quotidien des élèves performants reste peu connue. Sur le plan méthodologique, cette recherche empirique menée dans un collège secondaire privé catholique au Nord-Ouest d’Haïti privilégie une approche exploratoire. Il s’agit d’une recherche qualitative qui repose sur des observations directes des élèves à l’école et en dehors de l’école, sur des entretiens semi-dirigés avec un échantillon de douze élèves inscrits en classe de 3e secondaire et sur leurs journaux individuels tenus lors de la collecte des données. L’analyse inductive générale des données et le logiciel NVivo 9.0 ont été retenus pour la stratégie d’analyse des données. Selon les données analysées, la réussite scolaire se construit seul et avec les autres. Les résultats mettent en évidence des liens entre les ressources externes utilisées par les participants, leurs attitudes et leurs processus mentaux et la réussite scolaire. La recherche permet d’identifier cinq facteurs de la réussite scolaire. Une vue d’ensemble des résultats est proposée et représente le modèle théorique de la réussite scolaire des élèves haïtiens étudiés. Par la suite, des apports généraux et des implications pratiques sont énoncés ; des questionnements et une hypothèse interprétative sont soulevés et des pistes pour d’autres recherches sont suggérées.