928 resultados para Maintenance du logiciel


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Il est essentiel pour chaque organisme d’avoir la possibilité de réguler ses fonctions afin de permettre sa survie et d’améliorer sa capacité de se reproduire en divers habitats. Avec l’information disponible, il semble que les organismes consacrent une partie assez importante de leur matériel génétique à des fonctions de régulation. On peut envisager que certains mécanismes de régulation ont persisté dans le temps parce qu’ils remplissent bien leurs rôles. Les premières études sur les procaryotes ont indiqué qu’il y avait peu de mécanismes de régulation exerçant le contrôle des gènes, mais il a été démontré par la suite qu’une variété de ces mécanismes est utilisée pour la régulation de gènes et d’opérons. En particulier, les opérons bactériens impliqués dans la biosynthèse des acides aminés, l’ARNt synthétase, la dégradation des acides aminés, les protéines ribosomales et l’ARN ribosomal font l’objet d’un contrôle par l’atténuation de la transcription. Ce mécanisme d’atténuation de la transcription diffère d’autres mécanismes pour la génération de deux structures différentes de l’ARNm, où l’une de ces structures réprime le gène en aval, et l’autre permet de continuer la transcription/traduction. Dans le cadre de cette recherche, nous nous sommes intéressé au mécanisme d’atténuation de la transcription chez les procaryotes où aucune molécule ne semble intervenir comme facteur de régulation, en me concentrant sur la régulation des opérons bactériens. Le but principal de ce travail est de présenter une nouvelle méthode de recherche des riborégulateurs qui combine la recherche traditionnelle des riborégulateurs avec la recherche structurale. En incorporant l’étude du repliement de l’ARNm, nous pouvons mieux identifier les atténuateurs répondant à ce type de mécanisme d’atténuation. Ce mémoire est divisé en quatre chapitres. Le premier chapitre présente une revue de la littérature sur l’ARN et un survol sur les mécanismes de régulation de l’expression génétique chez les procaryotes. Les chapitres 2 et 3 sont consacrés à la méthodologie utilisée dans cette recherche et à l’implémentation du logiciel TA-Search. Enfin, le chapitre 4 expose les conclusions et les applications potentielles de la méthode.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Objectif : Récemment, un nouvel appareil issu de la technologie du Forsus™ et visant à corriger les malocclusions de classe III a été mis sur le marché et se popularise dans la pratique orthodontique : le Tandem Forsus Maxillary Corrector (TFMC). L’objectif de la présente étude est de mesurer les effets squelettiques, l’influence réelle sur la croissance, et les effets dento-alvéolaires du port du TFMC. Matériel et méthodes : 14 patients présentant une malocclusion de classe III (âge moyen de 9 ans 6 mois) traités par le même orthodontiste ont participé à cette étude prospective. Le groupe consiste en 10 garçons et 4 filles. Le Tandem Forsus Maxillary Corrector est porté de 12 à 14 heures par jour jusqu’à l’obtention d’une surcorrection du surplomb horizontal et une relation dentaire de classe I. Le traitement est généralement d’une durée de 8 à 9 mois. Des radiographies céphalométriques latérales prises avant (T1) et après (T2) le traitement ont été analysées afin de déterminer les changements dentaires et squelettiques. Les résultats ont été comparés à un groupe contrôle composé de 42 enfants provenant du Centre de croissance de l’Université de Montréal. Les radiographies ont été tracées et analysées de manière aveugle à l’aide du logiciel Dolphin Imaging (ver 11.0, Patterson Dental, Chatsworth, California). L’erreur sur la méthode a été évaluée avec la formule de Dahlberg, le coefficient de corrélation intra-classe et l’indice de Bland-Altman. L’effet du traitement a été évalué à l’aide du test t pour échantillons appariés. L’effet de la croissance pour le groupe contrôle a été calculé à l’aide d’un test t pour échantillons indépendants. Résultats : L’utilisation du TFMC produit un mouvement antérieur et une rotation antihoraire du maxillaire. De plus, il procline les incisives supérieures et rétrocline les incisives inférieures. Une rotation antihoraire du plan occlusal contribue aussi à la correction de la malocclusion de classe III. Par contre, le TFMC ne semble pas avoir pour effet de restreindre la croissance mandibulaire. Conclusion : La présente étude tend à démontrer que le port de l’appareil TFMC a un effet orthopédique et dento-alvéolaire significatif lors du traitement correctif des malocclusions modérées de classe III.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En Grande-Bretagne et en Amérique du Nord, la police est une institution publique qui suscite de nombreux travaux académiques. En France, elle est perçue comme un objet sale jusqu’aux travaux de Montjardet. En Suisse, la police est le reflet de la structure fédérale du pays. A travers un cadre réglementaire et légal, chaque canton a organisé sa police. Ainsi, le canton de Vaud s’est doté d’une police cantonale et de polices municipales dont le fonctionnement se fonde sur la proximité. Seules la police cantonale et celle de Lausanne disposent d’une compétence maximale. Bien que la police de proximité soit bien documentée au niveau légal, il n’existe pas de recherche compréhensive sur le fonctionnement de cet ensemble de principes policiers. Ce manque de connaissance pratique est problématique car le canton a entrepris une réforme policière qui est entrée en vigueur au 1er Janvier 2012. Dans ses pratiques liées à l’information, la police de proximité semble s’inspirer de deux modèles incompatibles que sont la police de communauté et l’intelligence led policing. C’est pourquoi, dans cette recherche, nous souhaitons comprendre comment les modèles théoriques trouvent à s’appliquer dans la pratique de la police de proximité. Nous avons opté pour une démarche qualitative semi-dirigée en réalisant 23 entretiens avec des policiers vaudois. L’analyse thématique a été réalisée à l’aide du logiciel Atlas Ti. Trois résultats ont retenu notre attention. Tout d’abord, notre analyse a permis de clarifier la notion de proximité par rapport à celle de communauté tout en tenant compte des particularismes locaux de redevabilité. Ensuite, nous avons identifié les divers circuits de l’information et mis en évidence les divergences dans le vocabulaire lié à l’analyse criminelle. Enfin, il apparaît que la police vaudoise se positionne comme une interface qui coordonne les partenaires susceptibles de résoudre les problèmes de la population.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Nous nous intéressons, dans le cadre de cette recherche, à l’accès à l’internet des personnes malvoyantes. Plusieurs types d’outils destinés à ce public sont disponibles sur le marché, comme les lecteurs et les agrandisseurs d’écran, en fonction de l’acuité visuelle de la personne. Bien que ces outils soient utiles et régulièrement utilisés, les malvoyants (ainsi que les aveugles) évoquent souvent leur aspect frustrant. Plusieurs raisons sont citées, comme le manque d’organisation spatiale du contenu lu avec les lecteurs d’écran ou le fait de ne solliciter qu’un seul sens. La présente recherche consiste à adapter pour les malvoyants un système en développement le TactoWeb (Petit, 2013) qui permet une exploration audio-tactile du Web. TactoWeb a été conçu pour les handicapés ayant une cécité complète et n’offre donc aucune propriété visuelle. Nous proposons ici une adaptation du système pour les handicapés n’ayant qu’une déficience visuelle partielle. Nous espérons fournir à cette population des outils performants qui leur permettront de naviguer sur l’internet de façon efficace et agréable. En effet, grâce à une exploration non-linéaire (qui devrait améliorer l’orientation spatiale) et une interface multimodale (qui sollicite la vue, l’ouïe et le toucher), nous pensons réduire fortement le sentiment de frustration qu’évoquent les malvoyants. Nous avons posé l’hypothèse qu’une exploration non-linéaire et trimodale d’un site internet avec TactoColor est plus satisfaisante et efficace qu’une exploration non-linéaire bimodale avec TactoWeb (sans retour visuel). TactoColor a été adapté pour les malvoyants en ajoutant des indices visuels traduisant les composantes de la page (liens, menus, boutons) qui devraient rendre l’exploration plus aisée. Pour vérifier notre hypothèse, les deux versions du logiciel ont été évaluées par des malvoyants. Ainsi, les participants ont commencé soit avec TactoWeb, soit avec TactoColor afin de ne pas favoriser une des versions. La qualité de la navigation, son efficacité et son efficience ont été analysées en se basant sur le temps nécessaire à l’accomplissement d’une tâche, ainsi que la facilité ou la difficulté évoquée par le participant. Aussi, à la fin de chaque session, nous avons demandé leur avis aux participants, grâce à un questionnaire d’évaluation, ce qui nous a permis d’avoir leur retour sur notre logiciel après leur brève expérience. Tous ces relevés nous ont permis de déterminer que l’ajout des couleurs entraine une exploration plus rapide des pages web et une meilleure orientation spatiale. Par contre les performances très différentes des participants ne permettent pas de dire si la présence des couleurs facilite la complétion des tâches.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues. Lorsque les logiciels évoluent, leurs architectures ont tendance à se dégrader et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. En effet, les architectures de ces logiciels deviennent plus complexes et plus difficiles à maintenir à cause des nombreuses dépendances entre les artefacts. Par conséquent, les développeurs doivent comprendre les dépendances entre les artefacts des logiciels pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent la dégradation des architectures des logiciels. D'une part, le maintien d'un logiciel sans la compréhension des les dépendances entre ses artefacts peut conduire à l'introduction de défauts. D'autre part, lorsque les développeurs manquent de connaissances sur l'impact de leurs activités de maintenance, ils peuvent introduire des défauts de conception, qui ont un impact négatif sur l'évolution du logiciel. Ainsi, les développeurs ont besoin de mécanismes pour comprendre comment le changement d'un artefact impacte le reste du logiciel. Dans cette thèse, nous proposons trois contributions principales : La spécification de deux nouveaux patrons de changement et leurs utilisations pour fournir aux développeurs des informations utiles concernant les dépendances de co-changement. La spécification de la relation entre les patrons d'évolutions des artefacts et les fautes. La découverte de la relation entre les dépendances des anti-patrons et la prédisposition des différentes composantes d'un logiciel aux fautes.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les systèmes logiciels sont devenus de plus en plus répondus et importants dans notre société. Ainsi, il y a un besoin constant de logiciels de haute qualité. Pour améliorer la qualité de logiciels, l’une des techniques les plus utilisées est le refactoring qui sert à améliorer la structure d'un programme tout en préservant son comportement externe. Le refactoring promet, s'il est appliqué convenablement, à améliorer la compréhensibilité, la maintenabilité et l'extensibilité du logiciel tout en améliorant la productivité des programmeurs. En général, le refactoring pourra s’appliquer au niveau de spécification, conception ou code. Cette thèse porte sur l'automatisation de processus de recommandation de refactoring, au niveau code, s’appliquant en deux étapes principales: 1) la détection des fragments de code qui devraient être améliorés (e.g., les défauts de conception), et 2) l'identification des solutions de refactoring à appliquer. Pour la première étape, nous traduisons des régularités qui peuvent être trouvés dans des exemples de défauts de conception. Nous utilisons un algorithme génétique pour générer automatiquement des règles de détection à partir des exemples de défauts. Pour la deuxième étape, nous introduisons une approche se basant sur une recherche heuristique. Le processus consiste à trouver la séquence optimale d'opérations de refactoring permettant d'améliorer la qualité du logiciel en minimisant le nombre de défauts tout en priorisant les instances les plus critiques. De plus, nous explorons d'autres objectifs à optimiser: le nombre de changements requis pour appliquer la solution de refactoring, la préservation de la sémantique, et la consistance avec l’historique de changements. Ainsi, réduire le nombre de changements permets de garder autant que possible avec la conception initiale. La préservation de la sémantique assure que le programme restructuré est sémantiquement cohérent. De plus, nous utilisons l'historique de changement pour suggérer de nouveaux refactorings dans des contextes similaires. En outre, nous introduisons une approche multi-objective pour améliorer les attributs de qualité du logiciel (la flexibilité, la maintenabilité, etc.), fixer les « mauvaises » pratiques de conception (défauts de conception), tout en introduisant les « bonnes » pratiques de conception (patrons de conception).

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Des évidences expérimentales récentes indiquent que les ARN changent de structures au fil du temps, parfois très rapidement, et que ces changements sont nécessaires à leurs activités biochimiques. La structure de ces ARN est donc dynamique. Ces mêmes évidences notent également que les structures clés impliquées sont prédites par le logiciel de prédiction de structure secondaire MC-Fold. En comparant les prédictions de structures du logiciel MC-Fold, nous avons constaté un lien clair entre les structures presque optimales (en termes de stabilité prédites par ce logiciel) et les variations d’activités biochimiques conséquentes à des changements ponctuels dans la séquence. Nous avons comparé les séquences d’ARN du point de vue de leurs structures dynamiques afin d’investiguer la similarité de leurs fonctions biologiques. Ceci a nécessité une accélération notable du logiciel MC-Fold. L’approche algorithmique est décrite au chapitre 1. Au chapitre 2 nous classons les impacts de légères variations de séquences des microARN sur la fonction naturelle de ceux-ci. Au chapitre 3 nous identifions des fenêtres dans de longs ARN dont les structures dynamiques occupent possiblement des rôles dans les désordres du spectre autistique et dans la polarisation des œufs de certains batraciens (Xenopus spp.).

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La coexistence des services de francisation au Québec pour les personnes immigrantes adultes a fait l'objet de divers enjeux liés notamment au passage des apprenants d'un lieu de formation à un autre (Québec, MICC, 2011a). Dans le but de répondre à ces enjeux et d’harmoniser l'offre de services gouvernementaux en matière de francisation des adultes, le ministère de l'Immigration et des Communautés culturelles (MICC) a élaboré en collaboration avec le ministère de l'Éducation, du Loisir et du Sport (MELS), une innovation pédagogique, soit un référentiel commun québécois composé de deux instruments : l’Échelle québécoise des niveaux de compétence en français des personnes immigrantes adultes et le Programme-cadre de français pour les personnes immigrantes adultes au Québec. Le but de notre étude était de mieux comprendre l'implantation du référentiel commun québécois, de faire état des représentations du personnel enseignant en francisation vis-à-vis de cette innovation pédagogique et d’identifier les principaux facteurs qui structurent son implantation. Pour atteindre ces objectifs de recherche, nous avons mené une étude qualitative dans laquelle nous nous sommes appuyée sur le modèle d'implantation de Vince-Whitman (2009) qui identifie douze facteurs facilitant l’implantation d’une politique et d’une pratique. Nous avons accédé aux représentations de douze enseignantes et enseignants en francisation qui œuvrent au MICC et au MELS lors d’entretiens de groupe en leur permettant de s'exprimer sur leurs pratiques pédagogiques et sur leurs impressions du référentiel commun québécois. À l’aide du logiciel QSF NVivo 8, nous avons analysé le contenu des propos de nos participants de recherche. Nos résultats démontrent que le manque appréhendé de ressources – humaines, matérielles et financières, et un manque de temps, de formation et de collaboration professionnelle pourraient représenter des obstacles et nuire à une éventuelle implantation du référentiel commun québécois. À la lumière de ces résultats, nous proposons un cadre de référence composé de sept facteurs d’implantation d’une innovation pédagogique afin de mieux rendre compte d’une réalité spécifique et contemporaine, celle de l'implantation du référentiel commun québécois pour la francisation des immigrants adultes scolarisés. Les écrits scientifiques et nos résultats de recherche démontrent que de diverses formes de soutien, principalement du matériel pédagogique approprié et suffisant, peuvent constituer un facteur-clé dans la réussite de l’implantation d’une innovation pédagogique.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Depuis 20 ans, les demandes adressées au Programme d’Aide aux Membres du Barreau (PAMBA) sont en constante progression, passant de 120 demandes traitées annuellement en 1996, comparativement à 1 157 demandes en 2016 (PAMBA, 2006, 2016). Ces demandes concernaient notamment la dépression, l’anxiété, le stress, la toxicomanie et l’alcoolisme. En plus de ces problématiques, il s’avère que les avocats présenteraient une proportion plus élevée de dépression, d’alcoolisme, de toxicomanie et de suicide que les autres professionnels (Hill, 1998). Parallèlement, les modèles actuels en stress professionnel (Bakker & Demerouti, 2007; Demerouti, Bakker, Nachreiner, & Schaufeli, 2001; Karasek, 1979; Karasek & Theorell, 1990; Siegrist, 1996) parviennent difficilement à cerner la complexité des déterminants de la détresse psychologique au travail chez les professions issues de l’économie du savoir dont font partie les avocats. En effet, les modèles traditionnels en stress professionnel évacuent les conditions et les contraintes propres aux professions règlementées. De plus, très peu d’études ont été réalisées chez les avocats, et aucune n’a été menée au Québec. Ce mémoire a pour but principal d’identifier les facteurs de risque et de protection qui influencent le stress et la détresse psychologique chez les avocats membres du Barreau du Québec. Ainsi, la présente recherche qualitative de type descriptive et exploratoire a permis de cartographier les facteurs de risque et de protection au stress et à la détresse psychologique, de cartographier les manifestations physiques, psychologiques et comportementales découlant du stress et de la détresse et finalement, de préciser les déterminants susceptibles d’influencer la détresse psychologique chez les avocats du Québec à partir d’un modèle conceptuel de départ inspiré du modèle de Marchand (2004). Pour ce faire, 22 entrevues semi-dirigées ont été menées en Estrie et dans le Grand Montréal auprès de femmes et d’hommes provenant du secteur public ou privé. Une analyse du contenu thématique des données s’inspirant de méthodes propres à la théorisation ancrée fut réalisée à l’aide du logiciel QDA Miner. Prenant appui sur le modèle théorique général d’analyse de la santé mentale de Marchand (2004), l’analyse des résultats a permis d’identifier et de classer hiérarchiquement 158 facteurs de risque et de protection selon les niveaux macro, micro et méso. Il en ressort que la culture professionnelle (macro) de même que les demandes psychologiques, émotionnelles et contractuelles (méso) sont les catégories ayant le plus d’importance dans l’explication du stress et de la détresse psychologique chez les avocats du Québec. Ainsi, la culture professionnelle a principalement trait à la compétitivité dans le milieu juridique et aux impératifs professionnels liés à la performance. Les demandes psychologiques concernent particulièrement la surcharge de travail et d’urgences de même que la complexité des dossiers, alors que les demandes émotionnelles ont trait notamment à la charge émotive importante envers le client et à la difficulté d’établir un détachement personnel vis-à-vis des dossiers traités. Enfin, les demandes contractuelles sont le type de demandes comportant le plus de facteurs (13), dont la majorité constitue des facteurs de risque pour la santé mentale des praticiens interrogés. Elles concernent principalement les longues heures de travail, les heures facturables et la facturation ainsi que la méthode d’évaluation de rendement se basant principalement sur les objectifs d’heures facturables dans le secteur privé. Il est également ressorti que le genre et le secteur de pratique (privé ou publique) influenceraient les stress et la détresse psychologique. Enfin, les retombées théoriques et pratiques, les limites de cette étude de même que les avenues de recherches futures concluent le présent mémoire.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Cette recherche porte sur le thème de l’accompagnement du développement de l’identité professionnelle pour le nouveau personnel enseignant en techniques humaines. Plus précisément, nous voulons mesurer l’impact d’un projet novateur, soit la création d’un groupe de soutien en période d’insertion professionnelle. La problématique s’articule principalement autour du fait que, dans les trois techniques humaines ciblées, les nouveaux professeurs et professeures sont embauchés d’abord et avant tout pour leurs compétences disciplinaires. À leur arrivée au collégial, leur emploi est précaire et leurs tâches morcelées. Malgré le fait qu’ils débutent dans un état d’urgence, cette transition professionnelle semble être laissée pour compte ainsi que le soutien psychologique. Ce contexte, qui favorise l’isolement, influence parfois la motivation à s’engager dans leur deuxième carrière. Au cégep de Sainte-Foy, il n’existe pas de mentorat départemental ni d’accompagnement spécifique. Seul le programme d’accueil et d’intégration offre une série d’activités obligatoires. Le cadre de référence présente deux classifications des besoins du nouveau personnel enseignant au collégial au regard des travaux de Raymond (2001) et Caplan, Clough, Ellis et Muncey (2009). La recension des écrits nous a également permis de distinguer l’insertion, l’identité et le développement professionnels. Les différents dispositifs d’insertion pédagogique des nouveaux enseignants ont également fait l’objet d’une recherche documentaire. Ces assises théoriques ont guidé le choix du développement de notre groupe de soutien sous l’angle d’une communauté d’apprentissage favorisant l’interaction entre pairs. Cet essai poursuit trois objectifs : 1) concevoir le processus d’accompagnement et la trousse éducative pour le groupe de soutien, 2) valider le processus d’accompagnement et la trousse éducative auprès d’un groupe de nouveaux professeurs et professeures provenant des trois techniques humaines et 3) analyser le point de vue de professeurs et professeures par rapport au processus d’accompagnement et à la trousse éducative proposés. Nos objectifs de recherche nécessitaient une méthodologie appropriée. Celleci repose sur une approche méthodologique qualitative, une posture épistémologique interprétative et une recherche de type recherche développement. Dix participantes ont pris part au processus d’accompagnement proposé soit : des entrevues individuelles semi-dirigées et des rencontres de groupe. Les données ont été recueillies grâce à des entrevues semi-dirigées, des rencontres de groupe de discussion, des autoévaluations des participantes ainsi qu’un questionnaire d’évaluation finale. La triangulation des méthodes de collecte de données a été utilisée afin d’assurer la rigueur de nos travaux. L’analyse de contenu s’est faite par l’entremise du logiciel Transana qui a aidé à la transcription des enregistrements, au codage et à la production de rapports synthèse. La dimension éthique a été au coeur de nos préoccupations et nous avons d’ailleurs pris plusieurs précautions à cet effet. Les données obtenues nous ont permis de répondre à notre question de recherche en démontrant que la création du groupe de soutien a eu des retombées positives sur le nouveau personnel enseignant en techniques humaines. Ce nouveau dispositif d’accompagnement a permis de raffiner la classification des besoins de notre cadre de référence. Les catégories émergentes ont révélé des spécificités propres à la deuxième carrière. La formule du groupe de soutien telle que mise à l’essai a, pour sa part, été fortement appréciée des participantes autant pour son fonctionnement que pour son contenu. L’ensemble de ce processus a bonifié la représentation de l’identité professionnelle de Gohier et al. (2001). Les données obtenues nous ont également permis de valider notre cadre d’intervention et de dégager des éléments favorisant la transférabilité des résultats obtenus. Nous pensons d’ailleurs que le groupe de soutien constitue une avenue pertinente et essentielle au sein de la communauté collégiale.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Le Régime des Prêts et bourses donne lieu à de nombreuses révisions annuellement par un grand nombre de candidats désireux d'obtenir plus du Gouvernement. Ces nombreuses demandes de révision sont parfois incomplètes, injustifiées, mal documentées et, parfois, elles ne sont même pas présentées, faute d'information. Le projet «Un système expert pour les Prêts et Bourses» tente de résoudre une partie du problème en offrant aux candidats et aux conseillers en milieux scolaires un outil qui permettrait à tous de pouvoir déterminer, facilement et exactement, le montant d'aide espéré. De plus, le prototype présenté explique au candidat les démarches à suivre et les documents nécessaires à une demande de révision si les résultats de son analyse ne correspondent pas avec ceux emmagasinés à Québec. Le prototype utilise les plus récents développements dans le domaine des logiciels commercial sur micro-ordinateurs dans les domaines suivants: bases de données et systèmes experts. Grâce à un mariage de programmation conventionnelle et de règles d'expertise, le système permet de définir rapidement la situation d'un candidat et de lui indiquer exactement ce à quoi il peut s'attendre du gouvernement. Le prototype a atteint ses objectifs principaux et il est fonctionnel. Son sort, en fonction des perfectionnements qu'il nécessite, est maintenant lié aux développements technologiques dans le domaine du matériel et du logiciel. La volonté des intervenants du milieu à mettre à la disposition des candidats un système avant-gardiste, première pierre d'un ensemble intégré de gestion des Prêts et Bourses, influencera aussi son utilisation future. Chose certaine, il est maintenant pensable de mettre au point des applications pratiques relativement complexes grâce à la technologie des systèmes experts et des bases de données et ce, sur micro-ordinateurs.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Ce travail de thèse présente deux grands axes. Le premier axe, touche les traitements du bois dans le but principal de réduire les variations dimensionnelles et d’améliorer la résistance à l’attaque des champignons lignivores. Le second axe quant à lui, touche l’aspect environnemental du traitement acide citrique-glycérol. Ce dernier a pour but principal de démontrer que le prolongement de la durée de vie en service du produit lambris traité, compense les impacts environnementaux causés par ce traitement. Dans le premier axe, deux traitements ont été réalisés sur deux essences de pin (Pinus strobus L. et Pinus contorta D.). Un traitement à l’anhydride maléique et un autre traitement avec une solution d’acide citrique – glycérol brute (AC-G). Dans le premier cas, les effets de deux paramètres (la durée de séchage et la température d’estérification) sur les résultats des essais de stabilité dimensionnelle, de résistance à la dégradation fongique et de vieillissement accéléré ont été évalués. Trois niveaux de durée de séchage après imprégnation (12 h, 18 h et 24 h) et trois niveaux de température d’estérification (140 °C, 160 °C et 180 °C) ont été considérés. Dans le second cas, après identification du meilleur catalyseur (HCl) et du meilleur ratio acide citrique – glycérol (3/1) pendant les essais préliminaires, les performances de ce traitement sur la stabilité dimensionnelle, la résistance à la pourriture fongique, la dureté de surface et l’adhérence des couches de revêtement de peinture sur la surface du substrat bois ont été analysées. Les résultats obtenus ont été appuyés par une suite d’analyses qualitatives et quantitatives pour mieux comprendre et expliquer. Les analyses qualitatives sont : (i) la spectroscopie infrarouge à transformée de Fourier (IRTF) et (ii) la microscopie électronique à balayage (MEB) tandis que la quantitative, l’analyse par perte de masse a été faite par pesée. Dans le second axe, une analyse des impacts environnementaux du traitement AC-G a été effectuée par le biais du logiciel SimaPro v8. La base de données Ecoinvent v3 et la méthode d’analyse d’impact Impact 2002+ ont été utilisées dans cette partie du travail de thèse. Sur la base des résultats du second traitement (AC-G) et des travaux disponibles dans la littérature, nous avons estimé, une durée de vie en service des lambris traités. Les différents scénarios de la durée de vie du lambris traité mis sur pied par rapport à celle offerte aujourd’hui par l’industrie, nous permettent de modéliser les impacts environnementaux du traitement. A cette fin, l’analyse de cycle de vie (ACV) a été utilisée comme outil de conception. En conclusion, les paramètres, durée de séchage et température d’estérification influencent les résultats obtenus dans le cas du traitement du bois à l’anhydride maléique. La combinaison 24 h de séchage et 180 °C, température d’estérification, représente les paramètres qui offrent les meilleurs résultats de stabilité dimensionnelle, de résistance à la dégradation fongique et de vieillissement accéléré. Le traitement AC-G améliore la stabilité dimensionnelle, la résistance à la dégradation fongique et la dureté de surface des échantillons. Cependant, le traitement réduit l’adhérence des couches de peinture. Les impacts environnementaux produits par le traitement AC-G sont majoritairement liés à la consommation de la ressource énergie (électricité). Le traitement prolonge la durée de vie en service du lambris traité et il a été mis en évidence que le scénario de durée de vie qui permettrait que le lambris traité puisse se présenter comme un produit à faible impact environnemental par rapport au lambris non traité est celui d’une durée de vie de 55 ans.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les logiciels actuels sont de grandes tailles, complexes et critiques. Le besoin de qualité exige beaucoup de tests, ce qui consomme de grandes quantités de ressources durant le développement et la maintenance de ces systèmes. Différentes techniques permettent de réduire les coûts liés aux activités de test. Notre travail s’inscrit dans ce cadre, est a pour objectif d’orienter l’effort de test vers les composants logiciels les plus à risque à l’aide de certains attributs du code source. À travers plusieurs démarches empiriques menées sur de grands logiciels open source, développés avec la technologie orientée objet, nous avons identifié et étudié les métriques qui caractérisent l’effort de test unitaire sous certains angles. Nous avons aussi étudié les liens entre cet effort de test et les métriques des classes logicielles en incluant les indicateurs de qualité. Les indicateurs de qualité sont une métrique synthétique, que nous avons introduite dans nos travaux antérieurs, qui capture le flux de contrôle ainsi que différentes caractéristiques du logiciel. Nous avons exploré plusieurs techniques permettant d’orienter l’effort de test vers des composants à risque à partir de ces attributs de code source, en utilisant des algorithmes d’apprentissage automatique. En regroupant les métriques logicielles en familles, nous avons proposé une approche basée sur l’analyse du risque des classes logicielles. Les résultats que nous avons obtenus montrent les liens entre l’effort de test unitaire et les attributs de code source incluant les indicateurs de qualité, et suggèrent la possibilité d’orienter l’effort de test à l’aide des métriques.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En 1983, un « nouveau » type de logiciels que nous avons appelé « idéateur » est apparu sur le marché de la micro-informatique. Ces logiciels combinent les facilités du traitement de textes avec l'utilisation particulière du « chaînage » de texte. Ce chaînage permet entre autre les manipulations suivantes du texte; classer, mettre en ordre prioritaire, sous-catégoriser des ensembles, lancer les items au hasard, effacer, déplacer ou copier un ou des items, etc. (Pour plus de détails, voir le chapitre 1.2 et les annexes 1 à 3). Après une étude pour situer le cadre de notre recherche (voir le chapitre II) et la traduction du logiciel MaxThink, nous avons introduit cet idéateur dans une classe de français correctif, de niveau collégial. Nous avons choisis ces sujets parce ces étudiant-e-s se servaient déjà de l'ordinateur à l'intérieur des cours et qu'ils (elles) avaient intérêt (pensions-nous) à utiliser l’idéateur pour améliorer leur français. Tous ces sujets ont eu à suivre le cours sur la manipulation de MaxThink. Un design expérimental de catégorie « semi-contrôlée » a été mis en place pour isoler l'influence des trois instruments servant à la composition ; l'idéateur (MaxThink), un traitement de texte traditionnel (Editexte) et le crayon/papier. Le pré-test et le post-test consistant à composer sur un thème déterminé était à chaque fois précédé d'un brainstorming afin de générer une liste d'idées". Par la suite, les textes ont été soumis à trois juges qui ont eu à coter la cohérence globale individuelle pré-test/post-test et la cohérence de groupe au pré-test ainsi qu'au post-test. Deux analyses statistiques non-paramétriques utiles pour un nombre restreint de sujets (trois sous-groupes de quatre sujets) ont été utilisées: analyse de variance (formule KRUSKAL-WALLIS) et analyse des probabilités d'occurrence des distributions (formule HODGES-LEHMANN). En conclusion, nos recommandations tiennent compte de l'analyse statistique des résultats et des commentaires des étudiant-e-s.