919 resultados para Assimilation des données
Resumo:
Au Canada, la proportion de la population âgée de 65 ans et plus a augmenté depuis 1980. Bien que la dénutrition ne soit pas inévitable avec le vieillissement, certains changements et facteurs physiopathologiques, environnementaux et psycho socio-économiques peuvent entraîner une détérioration des choix alimentaires et donc, de la qualité de vie des aînés [1]. Plusieurs études font le lien entre l’état nutritionnel et la morbidité ainsi qu’avec les capacités fonctionnelles [2]. Ces observations expliquent l'intérêt de la prévention et du traitement de la dénutrition afin d’optimiser la prise alimentaire et un meilleur état de santé de cette population. Objectifs :1) Explorer les barrières individuelles et socio-environnementales, réelles et perçues, qui peuvent mener à la détérioration des choix et de la qualité alimentaires et entraîner une dénutrition chez les personnes âgées vivant à domicile. 2) Examiner la distribution de ces facteurs dans la population à l’étude. 3) Étudier la relation entre ces facteurs afin de dresser un portrait plus éclairé des déterminants négatifs de l’alimentation chez les adultes âgés pour mieux comprendre les barrières à la prise alimentaire saine. Méthodologie : Il s'agit d'une analyse secondaire réalisée à partir des données recueillies auprès des participants (n=1 602), âgés entre 67 et 84 ans,de l’Étude longitudinale québécoise sur la nutrition et le vieillissement réussi (NuAge) débutée en 2003 et dont le suivi était prévu sur cinq ans [3]. Le but principal de NuAge était de déterminer le rôle de la nutrition dans l’accomplissement d’un vieillissement réussi. Les données comprennent des mesures socio-démographiques, nutritionnelles, fonctionnelles, sociales de même que biologiques et médicales. À partir d'un modèle théorique des déterminants de la prise alimentaire chez la population âgée, ces données ont été mises en lien avec la qualité alimentaire. Cette dernière a été déterminée selon l’adaptation canadienne de l’indice d’alimentation saine (C-HEI), calculé à partir des données alimentaires et nutritionnelles obtenues par le questionnaire de fréquence alimentaire administré aux participants au T1, soit à leur entrée dans l'étude. Résultats : Les barrières qui pourraient freiner la qualité alimentaire des femmes incluent un statut affectif fragile et un fonctionnement social limité. Ce qui ressort, comme étant des barrières au C-HEI chez les hommes, est un revenu perçu comme étant insuffisant pour satisfaire les besoins, le port de prothèses dentaires et le fait de manger souvent au restaurant. Étonnamment, le nombre d’attitudes positives relatives à l’alimentation et un score plus élevé de la composante mentale du SF-36 prédisent un C-HEI plus faible. La nature des réponses auto rapportées pourrait expliquer ces résultats. Conclusion : Les résultats de cette recherche permettent de mieux comprendre les barrières d’une saine alimentation au sein d’une population bien-portante. Il est souhaité que les résultats contribueront au développement d’interventions efficaces ciblant les personnes âgées pour favoriser un apport nutritionnel et un état de santé optimal.
Resumo:
La présente étude porte sur l’expérience vécue par les parents pendant une expertise en matière de garde d’enfant et de droits d’accès. Elle vise une meilleure compréhension de l’expérience des parents qui rencontrent un expert pour l’évaluation de leurs capacités parentales au nom du meilleur intérêt de leur enfant. Elle souhaite provoquer une réflexion des intervenants des milieux social et juridique sur les pratiques d’expertise, sur leur éthique et sur leur renouvellement. Il s’agit d’une étude qualitative de nature exploratoire. Les données proviennent d’entrevues semi-dirigées réalisées auprès de vingt parents, dix mères et dix pères. Ces parents ont été évalués par les experts du Service d’expertise psychosociale du Centre jeunesse de Montréal. L’analyse des données recueillies a été réalisée à partir de l’approche phénoménologique et de la méthode d’analyse de contenu. Les résultats permettent d’observer qu’en participant à une expertise psychosociale, les parents sont confrontés à un haut niveau de risque dans une relation de pouvoir avec l’expert où ils aspirent à être reconnus compétents en conformité avec la norme sociale régissant le meilleur intérêt de l’enfant. Le tiers des parents rencontrés ont été satisfaits de leur expérience, ce qui les a validés dans leur perception de la réalité ou restaurés dans leur dignité. Les deux tiers des parents rencontrés ont été insatisfaits de leur expérience, ce qui a confirmé leurs craintes quant aux comportements inadéquats de l’autre parent et alimenté une perte de confiance envers le système de justice. Ils ont eu l’impression d’avoir été invalidés et ont développé de l’amertume contre l’expert qui n’a pas répondu à leurs attentes et n’a pas su capter correctement, selon eux, leur dynamique familiale. Cette étude permet de comprendre l’importance primordiale pour le parent de la conservation ou de la restauration de sa dignité parentale. Par ailleurs, elle soulève la question du savoir-être et du savoir-faire des experts. La teneur critique des propos des parents face à certains experts oblige à une réflexion sérieuse sur les attitudes et les pratiques des experts en matière de garde d’enfant et de droits d’accès.
Resumo:
Il est rapporté que la biodisponibilité orale de l’amoxicilline chez le porc est environ trois fois moindre que chez l’homme. Pour élucider les raisons de cette différence, la pharmacocinétique artérielle, veineuse porte et urinaire de cet antibiotique a été caractérisée à des doses intragastriques de 4 à 30 mg/kg et différents modèles compartimentaux physiologiques ont été conçus pour l’analyse des données. La biodisponibilité orale de l’amoxicilline est maximale à 4 mg/kg, avec une valeur moyenne de 52%. Les différences porto-systémiques de concentrations plasmatiques d’amoxicilline et la clairance urinaire ont permis de démontrer une augmentation de la clairance hépatique jusqu’à la dose de 30 mg/kg. Un modèle compartimental comprenant deux voies parallèles d’absorption (de type Michaelis- Menten d’accessibilité limitée dans le temps et d’ordre 1), deux compartiments de distribution (central et périphérique) deux voies d’élimination (excrétions urinaire et biliaire) est celui qui prédit le mieux les données observées. Ces résultats mettent en évidence le rôle prépondérant du transporteur saturable PepT1 dans l’absorption orale de l’amoxicilline administrée à faible dose, ainsi que l’importance croissante de l’absorption passive lors d’administration à forte dose.
Resumo:
L’objectif général de ce mémoire est de comprendre l‘impact du genre sur l’identité de travail des cowboys, dans leur milieu de travail et de vie dans un ranch du Canada. Cette étude vise à contribuer aux études sur le genre en utilisant des théories existantes pour les appliquer à un nouveau champ. Sur la base d’une approche théorique fondée dans le féminisme et les études sur la masculinité, en utilisant aussi l’histoire des cowboys de l’Ouest, cette étude se penche sur la question de l’importance du genre dans la division du travail dans le ranch, celle de l’identité de travail des cowboys et sur la façon dont le genre affecte cette identité. La collecte des données s’est faite par l’observation participante et des entrevues semi-structurées. En utilisant une analyse thématique des données, l’étude conclut que le genre est un principe important dans la division du travail dans le ranch et que l’identité de travail est d’une extrême importance pour les cowboys. En outre, l’étude démontre que le genre jour de différentes façons dans l’identité de travail, l’hétéronormativité et les idéaux du cowboy allant dans le même sens, alors que la féminité s’oppose à cet idéal. Les traditions sont encore importantes pour les cowboys contemporains, mais en même temps, ceux-ci mentionnent la réalité du travail éreintant et sans fin comme contrepoids à l’image romantique de la vie des cowboys. Enfin, il y a des similitudes entre les cowboys de cette étude et les adolescentes suédoises étudies par Ambjörnsonn (2004) dans la façon dont le groupe se crée une identité sur la base du genre.
Resumo:
Les modèles à sur-représentation de zéros discrets et continus ont une large gamme d'applications et leurs propriétés sont bien connues. Bien qu'il existe des travaux portant sur les modèles discrets à sous-représentation de zéro et modifiés à zéro, la formulation usuelle des modèles continus à sur-représentation -- un mélange entre une densité continue et une masse de Dirac -- empêche de les généraliser afin de couvrir le cas de la sous-représentation de zéros. Une formulation alternative des modèles continus à sur-représentation de zéros, pouvant aisément être généralisée au cas de la sous-représentation, est présentée ici. L'estimation est d'abord abordée sous le paradigme classique, et plusieurs méthodes d'obtention des estimateurs du maximum de vraisemblance sont proposées. Le problème de l'estimation ponctuelle est également considéré du point de vue bayésien. Des tests d'hypothèses classiques et bayésiens visant à déterminer si des données sont à sur- ou sous-représentation de zéros sont présentées. Les méthodes d'estimation et de tests sont aussi évaluées au moyen d'études de simulation et appliquées à des données de précipitation agrégées. Les diverses méthodes s'accordent sur la sous-représentation de zéros des données, démontrant la pertinence du modèle proposé. Nous considérons ensuite la classification d'échantillons de données à sous-représentation de zéros. De telles données étant fortement non normales, il est possible de croire que les méthodes courantes de détermination du nombre de grappes s'avèrent peu performantes. Nous affirmons que la classification bayésienne, basée sur la distribution marginale des observations, tiendrait compte des particularités du modèle, ce qui se traduirait par une meilleure performance. Plusieurs méthodes de classification sont comparées au moyen d'une étude de simulation, et la méthode proposée est appliquée à des données de précipitation agrégées provenant de 28 stations de mesure en Colombie-Britannique.
Resumo:
Le but de cette étude est d’adopter une intervention systémique visant à faciliter la communication entre les infirmières1 et les familles2 dans un contexte de soins intensifs (SI) en traumatologie. Cette recherche prend en compte la réalité et les besoins du milieu à l’étude grâce au devis participatif retenu. Le cadre de référence est composé de l’approche systémique familiale de Wright et Leahey (2005) ainsi que de la théorie du caring de Jean Watson (1979). La collecte des données a été inspirée du parcours de recherche en spirale de Lehoux, Levy et Rodrigue (1995). Cinq entrevues ont été menées auprès de membres de familles ainsi que trois groupes de discussion (focus groups) auprès d’infirmières. L’analyse des données a été effectuée selon le Modèle de Huberman et Miles (2003) qui préconise une démarche analytique continue et interactive. Les résultats obtenus révèlent un changement de pratique selon dix interventions systémiques infirmières spécifiques permettant de faciliter la communication avec les familles aux soins intensifs en traumatologie et soulignent l’importance d’agir sur le plan du contexte, de la relation et du contenu liés au processus de communication. De plus, ils permettent de démontrer un réel changement de pratique dans le milieu retenu pour l’étude.
Resumo:
Alors que certains mécanismes pourtant jugés cruciaux pour la transformation de la pluie en débit restent peu ou mal compris, le concept de connectivité hydrologique a récemment été proposé pour expliquer pourquoi certains processus sont déclenchés de manière épisodique en fonction des caractéristiques des événements de pluie et de la teneur en eau des sols avant l’événement. L’adoption de ce nouveau concept en hydrologie reste cependant difficile puisqu’il n’y a pas de consensus sur la définition de la connectivité, sa mesure, son intégration dans les modèles hydrologiques et son comportement lors des transferts d’échelles spatiales et temporelles. Le but de ce travail doctoral est donc de préciser la définition, la mesure, l’agrégation et la prédiction des processus liés à la connectivité hydrologique en s’attardant aux questions suivantes : 1) Quel cadre méthodologique adopter pour une étude sur la connectivité hydrologique ?, 2) Comment évaluer le degré de connectivité hydrologique des bassins versants à partir de données de terrain ?, et 3) Dans quelle mesure nos connaissances sur la connectivité hydrologique doivent-elles conduire à la modification des postulats de modélisation hydrologique ? Trois approches d’étude sont différenciées, soit i) une approche de type « boite noire », basée uniquement sur l’exploitation des données de pluie et de débits sans examiner le fonctionnement interne du bassin versant ; ii) une approche de type « boite grise » reposant sur l’étude de données géochimiques ponctuelles illustrant la dynamique interne du bassin versant ; et iii) une approche de type « boite blanche » axée sur l’analyse de patrons spatiaux exhaustifs de la topographie de surface, la topographie de subsurface et l’humidité du sol. Ces trois approches sont ensuite validées expérimentalement dans le bassin versant de l’Hermine (Basses Laurentides, Québec). Quatre types de réponses hydrologiques sont distingués en fonction de leur magnitude et de leur synchronisme, sachant que leur présence relative dépend des conditions antécédentes. Les forts débits enregistrés à l’exutoire du bassin versant sont associés à une contribution accrue de certaines sources de ruissellement, ce qui témoigne d’un lien hydraulique accru et donc d’un fort degré de connectivité hydrologique entre les sources concernées et le cours d’eau. Les aires saturées couvrant des superficies supérieures à 0,85 ha sont jugées critiques pour la genèse de forts débits de crue. La preuve est aussi faite que les propriétés statistiques des patrons d’humidité du sol en milieu forestier tempéré humide sont nettement différentes de celles observées en milieu de prairie tempéré sec, d’où la nécessité d’utiliser des méthodes de calcul différentes pour dériver des métriques spatiales de connectivité dans les deux types de milieux. Enfin, la double existence de sources contributives « linéaires » et « non linéaires » est mise en évidence à l’Hermine. Ces résultats suggèrent la révision de concepts qui sous-tendent l’élaboration et l’exécution des modèles hydrologiques. L’originalité de cette thèse est le fait même de son sujet. En effet, les objectifs de recherche poursuivis sont conformes à la théorie hydrologique renouvelée qui prône l’arrêt des études de particularismes de petite échelle au profit de l’examen des propriétés émergentes des bassins versants telles que la connectivité hydrologique. La contribution majeure de cette thèse consiste ainsi en la proposition d’une définition unifiée de la connectivité, d’un cadre méthodologique, d’approches de mesure sur le terrain, d’outils techniques et de pistes de solution pour la modélisation des systèmes hydrologiques.
Resumo:
Les séquences protéiques naturelles sont le résultat net de l’interaction entre les mécanismes de mutation, de sélection naturelle et de dérive stochastique au cours des temps évolutifs. Les modèles probabilistes d’évolution moléculaire qui tiennent compte de ces différents facteurs ont été substantiellement améliorés au cours des dernières années. En particulier, ont été proposés des modèles incorporant explicitement la structure des protéines et les interdépendances entre sites, ainsi que les outils statistiques pour évaluer la performance de ces modèles. Toutefois, en dépit des avancées significatives dans cette direction, seules des représentations très simplifiées de la structure protéique ont été utilisées jusqu’à présent. Dans ce contexte, le sujet général de cette thèse est la modélisation de la structure tridimensionnelle des protéines, en tenant compte des limitations pratiques imposées par l’utilisation de méthodes phylogénétiques très gourmandes en temps de calcul. Dans un premier temps, une méthode statistique générale est présentée, visant à optimiser les paramètres d’un potentiel statistique (qui est une pseudo-énergie mesurant la compatibilité séquence-structure). La forme fonctionnelle du potentiel est par la suite raffinée, en augmentant le niveau de détails dans la description structurale sans alourdir les coûts computationnels. Plusieurs éléments structuraux sont explorés : interactions entre pairs de résidus, accessibilité au solvant, conformation de la chaîne principale et flexibilité. Les potentiels sont ensuite inclus dans un modèle d’évolution et leur performance est évaluée en termes d’ajustement statistique à des données réelles, et contrastée avec des modèles d’évolution standards. Finalement, le nouveau modèle structurellement contraint ainsi obtenu est utilisé pour mieux comprendre les relations entre niveau d’expression des gènes et sélection et conservation de leur séquence protéique.
Resumo:
Cette thèse porte sur une classe d'algorithmes d'apprentissage appelés architectures profondes. Il existe des résultats qui indiquent que les représentations peu profondes et locales ne sont pas suffisantes pour la modélisation des fonctions comportant plusieurs facteurs de variation. Nous sommes particulièrement intéressés par ce genre de données car nous espérons qu'un agent intelligent sera en mesure d'apprendre à les modéliser automatiquement; l'hypothèse est que les architectures profondes sont mieux adaptées pour les modéliser. Les travaux de Hinton (2006) furent une véritable percée, car l'idée d'utiliser un algorithme d'apprentissage non-supervisé, les machines de Boltzmann restreintes, pour l'initialisation des poids d'un réseau de neurones supervisé a été cruciale pour entraîner l'architecture profonde la plus populaire, soit les réseaux de neurones artificiels avec des poids totalement connectés. Cette idée a été reprise et reproduite avec succès dans plusieurs contextes et avec une variété de modèles. Dans le cadre de cette thèse, nous considérons les architectures profondes comme des biais inductifs. Ces biais sont représentés non seulement par les modèles eux-mêmes, mais aussi par les méthodes d'entraînement qui sont souvent utilisés en conjonction avec ceux-ci. Nous désirons définir les raisons pour lesquelles cette classe de fonctions généralise bien, les situations auxquelles ces fonctions pourront être appliquées, ainsi que les descriptions qualitatives de telles fonctions. L'objectif de cette thèse est d'obtenir une meilleure compréhension du succès des architectures profondes. Dans le premier article, nous testons la concordance entre nos intuitions---que les réseaux profonds sont nécessaires pour mieux apprendre avec des données comportant plusieurs facteurs de variation---et les résultats empiriques. Le second article est une étude approfondie de la question: pourquoi l'apprentissage non-supervisé aide à mieux généraliser dans un réseau profond? Nous explorons et évaluons plusieurs hypothèses tentant d'élucider le fonctionnement de ces modèles. Finalement, le troisième article cherche à définir de façon qualitative les fonctions modélisées par un réseau profond. Ces visualisations facilitent l'interprétation des représentations et invariances modélisées par une architecture profonde.
Resumo:
Funding support for this doctoral thesis has been provided by the Canadian Institutes of Health Research-Public Health Agency of Canada, QICSS matching grant, and la Faculté des études supérieures et postdoctorales-Université de Montréal.
Resumo:
Depuis les années 1990, les formations à visée professionnelle, comme l’enseignement, adoptent le paradigme du praticien réflexif. Au Québec, le référentiel de compétences proposé par le ministère de l’Éducation introduit l’idée que tout futur enseignant doit apprendre à « réfléchir sur sa pratique » (MEQ, 2001). Malgré de nombreuses études sur la réflexion, le concept reste flou et polysémique. Comment, dans ces conditions, « faire réfléchir » ? Des chercheurs contemporains, dans la mouvance éducative, humaniste et pragmatique de Dewey (1933), aboutissent à des conceptions convergentes de l’apprentissage par réflexion sur l’expérience (Osterman et Kottkamp, 2004; Brouwer et Korthagen, 2005; Loughran, 2006; Brockbank et McGill, 2007; Donnay et Charlier, 2008, entre autres). De leurs points communs est synthétisée une définition de la réflexion qui peut aider à clarifier son rôle en formation. La recherche se donne comme objectif de « saisir » des événements réflexifs pour élucider comment des formations universitaires contribuent à développer des mécanismes de réflexion favorables à un autorenouvellement professionnel à long terme. La démarche est qualitative, l’approche interprétative-compréhensive. Des entrevues semi-structurées ont permis de recueillir des données auprès de finissants en enseignement du français langue seconde (FLS), en coopération internationale, à l’Université de Montréal, ainsi que d’enseignants de FLS expérimentés d’une université québécoise. Du corpus d’« occurrences de réflexion » ont émergé les significations que les acteurs donnaient à leur expérience d’apprentissage ou de travail. Les résultats sont présentés en trois articles. Le premier décrit la méthodologie construite pour repérer des occurrences de réflexion. Le second révèle deux grandes caractéristiques de dispositifs qui la stimulent particulièrement: 1) l’agir en situation de travail authentique ou vraisemblable; 2) la confrontation interactive à l’altérité (pairs, clientèle). Le troisième article aborde les représentations plus riches, nuancées et critiques de la profession, l’Autre et soi-même sur lesquelles débouche la réflexion. L’étude documente aussi les effets de ces reconceptualisations sur l’acteur et l’action, et produit des typologies des préoccupations des (futurs) professionnels et des objets réfléchis Des pistes de recherche et d’application sont dégagées pour les formations professionnalisantes et le développement professionnel en milieu de travail.
Resumo:
Les résultats de récentes études supportent l’idée que la perception de la force aurait un rôle important dans la réalisation des tâches fonctionnelles telles que le passage assis à debout (PAD). Cependant, très peu d’études se sont attardées à quantifier la précision avec laquelle les individus en santé sont capables de percevoir la force musculaire. De plus, aucune étude n’a évalué la perception de la distribution du poids lors du PAD chez la clientèle saine. L’objectif principal était de recueillir des données sur la capacité des individus en santé, jeunes et âgés, à percevoir la force musculaire lors d’une contraction statique des extenseurs du genou et à percevoir la distribution du poids (DP) lorsqu’ils réalisent le passage assis à debout. Cette étude a été effectuée auprès de 31 individus, divisés en deux groupes d’âge (< 50 ans et > 60 ans). Les résultats du premier objectif visant à quantifier les erreurs de perception de la force lors d’une contraction statique des extenseurs du genou ont démontré que les erreurs absolues et brutes sont plus élevées pour les niveaux de force supérieurs à 50 % CVM et que les erreurs brutes sont plus importantes chez les jeunes pour les hauts niveaux de force. Les résultats du second objectif visant à évaluer l’effet de différentes références sensorimotrices sur les erreurs de perception de la force musculaire ont montré qu’une référence à 50 % CVM préalablement montrée au participant et qu’une contraction simultanée des muscles de la préhension de la main diminuent les erreurs brutes et absolues de perception pour le niveau de force 70%. Les résultats du troisième objectif visant à quantifier les erreurs de perception de la DP lors du PAD ont démontré que les sujets jeunes et âgés ont une bonne capacité à percevoir leur DP avec des erreurs absolues et brutes variant respectivement entre 2,9 % et 9,4 % et entre -5,7 % et 5,7 % et des coefficients de corrélations intra-classes supérieurs à 0,75 entre la DP produite et celle perçue. Les résultats contribuent à approfondir les connaissances relatives à la perception de la force et de la DP chez les individus en santé. Ces données pourront servir à titre comparatif lors d’études menées auprès des patients hémiparétiques afin d’évaluer s’ils ont des problèmes perceptifs pouvant expliquer l’asymétrie récurrente qu’ils présentent dans leurs tâches fonctionnelles.
Resumo:
Dans ce travail, nous explorons la faisabilité de doter les machines de la capacité de prédire, dans un contexte d'interaction homme-machine (IHM), l'émotion d'un utilisateur, ainsi que son intensité, de manière instantanée pour une grande variété de situations. Plus spécifiquement, une application a été développée, appelée machine émotionnelle, capable de «comprendre» la signification d'une situation en se basant sur le modèle théorique d'évaluation de l'émotion Ortony, Clore et Collins (OCC). Cette machine est apte, également, à prédire les réactions émotionnelles des utilisateurs, en combinant des versions améliorées des k plus proches voisins et des réseaux de neurones. Une procédure empirique a été réalisée pour l'acquisition des données. Ces dernières ont fourni une connaissance consistante aux algorithmes d'apprentissage choisis et ont permis de tester la performance de la machine. Les résultats obtenus montrent que la machine émotionnelle proposée est capable de produire de bonnes prédictions. Une telle réalisation pourrait encourager son utilisation future dans des domaines exploitant la reconnaissance automatique de l'émotion.
Resumo:
Le décrochage scolaire des adolescents est un phénomène alarmant qui occasionne de multiples conséquences négatives, tant pour le jeune que pour la société. Des recherches empiriques ont soulevé l’importance de considérer les décrocheurs comme un groupe aux profils hétérogènes. En conséquence, quelques chercheurs ont proposé des typologies des décrocheurs scolaires à l’adolescence, dont Janosz (1994; Janosz, Le Blanc, Boulerice, & Tremblay 2000). À partir de trois indicateurs de l’adaptation scolaire des adolescents (engagement scolaire, indiscipline scolaire et performance scolaire), Janosz et ses collègues ont identifié quatre types de décrocheurs scolaires potentiels, soient les Discrets, les Désengagés, les Sous-performants et les Inadaptés. Les études prédictives conduites jusqu’à maintenant ont permis de déterminer que les différents types proposés par cette typologie se distinguent sur différents facteurs de risque du décrochage d’ordre individuel et environnemental. Toutefois, il n’est pas connu si ces types de décrocheurs potentiels se distinguent des adolescents non à risque de décrocher sur un facteur important, soit les traits de personnalité. Cette étude visait donc à évaluer si les traits de personnalité des adolescents (Ouverture, Extraversion, Contrôle, Amabilité et Stabilité émotionnelle) permettaient de prédire l’appartenance aux quatre types de décrocheurs potentiels proposés par Janosz et ses collègues (2000), en contrôlant l’effet de plusieurs autres facteurs de risque classique du décrochage. Les données provenaient de l’étude Stratégie d’Intervention Agir Autrement (SIAA), qui compte plus de 40 000 adolescents provenant de 69 écoles secondaires au Québec. L’échantillon qui a été utilisé dans cette étude (N = 4980) était composé d’élèves de 14 à 16 ans évalués en 2006-2007. Les adolescents ont rempli des questionnaires en groupe durant une période de classe. Différents modèles de régression logistique multinomiale contrôlant pour la nature hiérarchique des données ont confirmé que les traits de personnalité ont prédit l’appartenance à différents types de décrocheurs, et ce, au-delà de l’effet de plusieurs facteurs de risque classiques du décrochage scolaire. Ces résultats suggèrent que les théories du décrochage scolaire pourraient intégrer les traits de personnalité et que ces derniers pourraient être utilisés pour le dépistage des adolescents à risque de décrochage.
Resumo:
Les antipatrons sont de “mauvaises” solutions à des problèmes récurrents de conception logicielle. Leur apparition est soit due à de mauvais choix lors de la phase de conception soit à des altérations et des changements continus durant l’implantation des programmes. Dans la littérature, il est généralement admis que les antipatrons rendent la compréhension des programmes plus difficile. Cependant, peu d’études empiriques ont été menées pour vérifier l’impact des antipatrons sur la compréhension. Dans le cadre de ce travail de maîtrise, nous avons conçu et mené trois expériences, avec 24 sujets chacune, dans le but de recueillir des données sur la performance des sujets lors de tâches de compréhension et d’évaluer l’impact de l’existence de deux antipatrons, Blob et Spaghetti Code, et de leurs combinaisons sur la compréhension des programmes. Nous avons mesuré les performances des sujets en terme : (1) du TLX (NASA task load index) pour l’éffort ; (2) du temps consacré à l’exécution des tâches ; et, (3) de leurs pourcentages de réponses correctes. Les données recueillies montrent que la présence d’un antipatron ne diminue pas sensiblement la performance des sujets alors que la combinaison de deux antipatrons les entrave de façon significative. Nous concluons que les développeurs peuvent faire face à un seul antipatron, alors que la combinaison de plusieurs antipatrons devrait être évitée, éventuellement par le biais de détection et de réusinage.