1000 resultados para Recours à la force
Resumo:
La documentation des programmes aide les développeurs à mieux comprendre le code source pendant les tâches de maintenance. Toutefois, la documentation n’est pas toujours disponible ou elle peut être de mauvaise qualité. Le recours à la redocumentation s’avère ainsi nécessaire. Dans ce contexte, nous proposons de faire la redocumentation en générant des commentaires par application de techniques de résumé par extraction. Pour mener à bien cette tâche, nous avons commencé par faire une étude empirique pour étudier les aspects quantitatifs et qualitatifs des commentaires. En particulier, nous nous sommes intéressés à l’étude de la distribution des commentaires par rapport aux différents types d’instructions et à la fréquence de documentation de chaque type. Aussi, nous avons proposé une taxonomie de commentaires pour classer les commentaires selon leur contenu et leur qualité. Suite aux résultats de l’étude empirique, nous avons décidé de résumer les classes Java par extraction des commentaires des méthodes/constructeurs. Nous avons défini plusieurs heuristiques pour déterminer les commentaires les plus pertinents à l’extraction. Ensuite, nous avons appliqué ces heuristiques sur les classes Java de trois projets pour en générer les résumés. Enfin, nous avons comparé les résumés produits (les commentaires produits) à des résumés références (les commentaires originaux) en utilisant la métrique ROUGE.
Resumo:
Bien que les troubles cognitifs soient un aspect essentiel de la schizophrénie, le dysfonctionnement des systèmes émotionnels y est également considéré comme un élément très important de cette maladie d’autant plus que plusieurs régions du cerveau sont concernées par la régulation émotionnelle. Le principal objectif du présent travail était d’explorer, en imagerie par résonnance magnétique fonctionnelle (IRMf), l’effet de la ziprasidone sur les différentes réponses neuronales à l’affichage de stimuli émotionnels au niveau de la région préfrontale,particulièrement dans le cortex cingulaire antérieur [CCA], le cortex orbito-frontal [COF] et le cortex préfrontal dorso-latéral [CPFDL]. Nous avons examiné les activations cérébrales, chez des patients souffrants de schizophrénie avant et après médication à la ziprasidone, en leur présentant des séries d’images émotionnellement chargées (négatives, neutres et positives) associées à différentes instructions quand aux types d’images qu’ils devaient sélectionner (négatives,neutres et positives). Nous avons analysé les différents changements d’activation (avant et après médication) essentiellement pour les valences extrêmes des stimuli (positives et négatives), ensuite nous avons regardé l’effet du type d’instruction sur ces changements. L’échantillon comprenait 13 patients atteints de schizophrénie et 15 témoins sains. Nous avons également effectué une évaluation clinique des symptômes dépressifs, positifs et négatifs de la maladie ainsi que des mesures biochimiques et de poids avant et après 16 semaines de médication. Malgré l’absence de changement significatif sur les mesures cliniques (PANSS et Dépression) avant et après une moyenne de 14.3 semaines de médication à la ziprasidone, plusieurs régions préfrontales (CCA, COF, CPDL) ont sensiblement accru leur réponse aux stimuli positifs par rapport aux stimuli négatifs. En outre, dans les régions habituellement impliquées dans le contrôle cognitif (CCA et CPFDL), cette tendance s'est accentuée lorsque les patients ont été invités à ne sélectionner que les stimuli négatifs (effet du type d’instruction). Nous avons également trouvé plusieurs similitudes dans le fonctionnement préfrontal (à la fois dans le volume et la force d'activation) entre les contrôles sains et les patients après médication en tenant compte du type d’instruction plus que de la valence émotionnelle des images. Pour conclure, les résultats de la présente étude suggèrent que le traitement antipsychotique avec la ziprasidone améliore le fonctionnement cognitif lié au traitement de l'information émotionnelle dans le cortex préfrontal chez les patients souffrant de schizophrénie. Étant donné le mécanisme d'action neuro-pharmacologique de la ziprasidone (plus d'affinité pour la sérotonine que pour les récepteurs de la dopamine dans le cortex préfrontal), nous pensons que nos résultats démontrent que le contrôle cognitif et la régulation des réactions face à des stimuli émotionnellement chargés dans la schizophrénie sont liés à une plus forte concentration de dopamine dans les voies préfrontales.
Resumo:
Les transfusions sanguines sont fréquemment employées pour corriger l’anémie secondaire à une arthroplastie de la hanche ou du genou. Il n’y a cependant pas consensus sur les indications de transfuser. La tendance actuelle est d’utiliser une stratégie transfusionnelle restrictive (soit un seuil de 75-80 g/L d’hémoglobine) mais les conséquences d’une telle pratique sur la récupération fonctionnelle et la qualité de vie des patients sont mal connues. Dans un premier temps, nous avons caractérisé la pratique transfusionnelle au Centre hospitalier de l’Université de Montréal (CHUM). Notre hypothèse était que, devant l’imprécision des recommandations, la pratique transfusionnelle serait variable. Une étude rétrospective de 701 dossiers de patients ayant subi une arthroplastie de la hanche ou du genou a été réalisée. Nous avons observé que les transfusions étaient utilisées de la même façon dans les trois hôpitaux et que les médecins basaient leur décision de transfuser principalement sur un seul chiffre, la concentration d’hémoglobine, adoptant une stratégie restrictive. Soixante-six pourcent des patients avaient une concentration d’hémoglobine inférieure à 100 g/L au départ de l’hôpital. Dans un deuxième temps, nous avons évalué l’impact de cette anémie postopératoire sur la récupération fonctionnelle et la qualité de vie des patients. Notre hypothèse était qu’il existe une concentration d’hémoglobine en dessous de laquelle celles-ci sont atteintes. Une étude de cohorte prospective et observationnelle a été menée chez 305 patients regroupés selon leur concentration d’hémoglobine postopératoire. Les groupes d’hémoglobine (≤ 80, 81-90, 91-100 et > 100 g/L) étaient similaires dans l’évolution de la distance de marche en six minutes, de l’évaluation de l’effort fourni, de la force de préhension et des scores de qualité de vie. L’anémie modérée n’est donc pas associée à une atteinte de la récupération fonctionnelle et de la qualité de vie à court terme. D’autres études devront déterminer les conséquences à long terme d’une stratégie transfusionnelle restrictive sur ces patients.
Resumo:
La politique québécoise de l’adaptation scolaire confirme que le plan d’intervention (PI) constitue l’outil privilégié pour répondre aux besoins des élèves handicapés ou en difficulté d’adaptation ou d’apprentissage. Toutefois, la recension des écrits nous informe que le plan d’intervention est encore loin d’être efficace. Le Ministère de l’Éducation, des Loisirs et des Sports du Québec (MELS, 2004) ainsi que l’Office of Special Education and Rehabilitative Services des U.S. department of Education (dans Eichler, 1999) ont bien identifié et présenté explicitement cinq à six fonctions du PI mais, aucun des deux organismes ne définit ce qu’est une fonction, à quoi elle sert, son importance relative et ce qu’elle implique. De plus, on retrouve, explicitement ou implicitement, soit dans le cadre de référence pour l’établissement des PI (MELS, 2004), soit dans la revue de la littérature, soit dans les milieux de pratique plusieurs autres fonctions que le PI remplit ou devrait remplir. Ce flou entourant le concept de fonction entraîne un manque de rigueur dans la conception des PI, car « lorsque la totalité des fonctions a été identifiée, elle permet le développement d’un produit répondant à l’usage attendu » (Langevin et coll., 1998). Il y a d’emblée une somme de fonctions qu’un PI remplit déjà et d’autres sûrement à remplir. Or, cela n’a pas été élucidé, précisé et validé. Le but de la présente recherche a été de définir les rôles du PI au regard des besoins de ses différents utilisateurs. Les objectifs spécifiques ont été les suivants, 1) Identifier les différents utilisateurs d’un PI, 2) Identifier les besoins des différents utilisateurs d’un PI, 3) Identifier les fonctions qu’un PI doit remplir afin de satisfaire les besoins de ses utilisateurs, 4) Créer un cahier des charges fonctionnel pour la conception et l’évaluation d’un PI, 5) Identifier certains coûts reliés à la conception d’un PI. Afin d’atteindre les objectifs précités, nous avons eu recours à la méthode de l’analyse de la valeur pédagogique (AVP) (Langevin, Rocque et Riopel, 2008). La méthode d’AVP comportait une analyse des besoins des différents utilisateurs potentiels, une analyse de la recension des écrits, une analyse des encadrements légaux, une analyse de produits types et une analyse écosystémique. En conclusion, nous avons identifié les différents utilisateurs potentiels d’un PI, identifié les différents besoins de ces utilisateurs, identifié les fonctions qu’un PI doit remplir pour satisfaire leurs besoins, crée un cahier des charges fonctionnel (CdCF) pour la conception et l’évaluation des PI et identifié certains coûts liés à la conception d’un PI. Le CdCF pourra servir à concevoir des PI et à évaluer leur efficience. Une partie du CdCF pourra aussi remplir un rôle prescriptif pour la conception d’outil de soutien à l’élaboration du PI. Enfin, le CdCF pourra servir à la formation et à la recherche en éducation.
Resumo:
Le thème de la motivation au travail en lien avec la performance des employés captive l’intérêt des théoriciens, des chercheurs, des praticiens et des gestionnaires depuis déjà près d’un siècle. L’engouement pour l’étude de ces concepts a permis de faire des avancées scientifiques notables permettant de mieux éclairer la pratique. Cependant, on constate que la popularité de la motivation présente également certains enjeux. Notamment, la pluralité des théories rend le domaine presque étourdissant par ses connaissances éparses et ses résultats équivoques. En premier lieu, cette thèse présente une méta-analyse multithéorique réalisée à partir d’études effectuées sur le terrain examinant les liens entre la motivation au travail et la performance des travailleurs entre 1985 et 2010. Les résultats de ce bilan nous indiquent que, peu importe la théorie motivationnelle employée, la force et la direction de la relation motivation-performance sont similaires plutôt que différentes. Parmi les variables modératrices examinées, seule la source des mesures s’est révélée significative indiquant que la relation entre les variables d’intérêt est plus forte lorsque les mesures proviennent de la même source – dans notre étude elles s’avèrent toutes autodéclarées – comparativement à lorsqu’elles sont recueillies auprès de sources différentes. En second lieu, une étude en laboratoire a permis d’observer que la motivation peut évoluer sur une période très courte, soit de moins de 90 minutes, à partir de 3 mesures de motivation réparties dans le temps d’expérimentation. Plus spécifiquement, l’étude de la motivation par type et par quantité, en considérant le facteur temps, nous renseigne que la motivation intrinsèque a augmenté tandis que la motivation extrinsèque et l’amotivation ont connu une diminution. Cette étude, considérant une perspective multidimensionnelle et dynamique de la motivation, telle que proposée par le cadre conceptuel de la théorie de l’autodétermination, montre que l’évolution de la motivation de tous les participants à l’étude est semblable, peu importe leur performance. En plus de permettre l’avancement des connaissances dans le domaine de la motivation et de la performance au travail, cette thèse se démarque à plusieurs égards. D’un côté, il s’agit de la première méta-analyse multithéorique de la motivation qui soit réalisée. De l’autre côté, l’étude en laboratoire a examiné simultanément, le type et la quantité de la motivation à l’aide d’un devis à mesures répétées alors que la majorité des études se concentrent soit sur la quantité, soit sur le type et néglige souvent de considérer la variable temps. En outre, cette étude en laboratoire a été réalisée à partir d’une activité à haut potentiel de validité écologique, s’apparentant à une tâche de sélection de candidats en ressources humaines. En somme, cette thèse apporte un éclairage intéressant tant sur le plan des connaissances concernant les variables modératrices déterminantes impliquées dans les relations motivation-performance et sur le plan du rythme des variations des types de motivation que sur le plan de l’utilisation optimale et complémentaire de techniques de recherche sophistiquées. L’ensemble des recommandations découlant de ces deux études concernant la recherche et l’intervention est présenté en conclusion.
Resumo:
Nous analysons les oscillations torsionnelles se développant dans une simulation magnétohydrodynamique de la zone de convection solaire produisant des champs magnétiques de type solaire (champs axisymétriques subissant des inversions de polarités régulières sur des échelles temporelles décadaires). Puisque ces oscillations sont également similaires à celles observées dans le Soleil, nous analysons les dynamiques zonales aux grandes échelles. Nous séparons donc les termes aux grandes échelles (force de Coriolis exercée sur la circulation méridienne et les champs magnétiques aux grandes échelles) de ceux aux petites échelles (les stress de Reynolds et de Maxwell). En comparant les flux de moments cinétiques entre chacune des composantes, nous nous apercevons que les oscillations torsionnelles sont maintenues par l’écoulement méridien aux grandes échelles, lui même modulé par les champs magnétiques. Une analyse d’échange d’énergie confirme ce résultat, puisqu’elle montre que seul le terme comprenant la force de Coriolis injecte de l’énergie dans l’écoulement. Une analyse de la dynamique rotationnelle ayant lieu à la limite de la zone stable et de la zone de convection démontre que celle-ci est fortement modifiée lors du passage de la base des couches convectives à la base de la fine tachocline s’y formant juste en-dessous. Nous concluons par une discussion au niveau du mécanisme de saturation en amplitude dans la dynamo s’opérant dans la simulation ainsi que de la possibilité d’utiliser les oscillations torsionnelles comme précurseurs aux cycles solaires à venir.
Resumo:
La luxation du genou, bien que très rare, demeure une blessure dévastatrice car elle entraîne de multiples complications en raison de la nature complexe du traumatisme associé à cette lésion. La luxation peut résulter d'un traumatisme à haute ou basse énergie. Les blessures sévères aux ligaments et aux structures associées donnent à la luxation du genou un potentiel élevé d'atteinte fonctionnelle. Le traitement conservateur, qui était considéré comme acceptable auparavant, est maintenant réservé à un très faible pourcentage de patients. La reconstruction chirurgicale est maintenant préconisée dans la plupart des cas, mais de nombreuses options existent et le traitement chirurgical optimal à préconiser reste controversé. Certains chirurgiens recommandent la reconstruction complète de tous les ligaments endommagés le plus tôt possible, tandis que d'autres, craignant l’établissement d’arthrofibrose, limitent l'intervention chirurgicale immédiate à la reconstruction du ligament croisé postérieur et de l'angle postéro-externe. En raison des multiples structures endommagées lors d’une luxation du genou, les chirurgiens utilisent couramment la combinaison des autogreffes et des allogreffes pour compléter la reconstruction ligamentaire. Les complications associées au prélèvement de la greffe, l'allongement de la greffe, l’affaiblissement précoce du greffon ainsi que les risques de transmission de maladies ont poussé les chirurgiens à rechercher différentes options d’intervention. L'utilisation de matériaux synthétiques pour le remplacement du ligament lésé a été proposée dans les années ´80. Après une première vague d'enthousiasme, les résultats décevants à long terme et les taux élevés d'échec ont diminué sa popularité. Depuis lors, une nouvelle génération de ligaments artificiels a vu le jour et parmi eux, le Ligament Advanced Reinforced System (LARS) a montré des résultats prometteurs. Il a été utilisé récemment dans les reconstructions isolées du ligament croisé antérieur et du ligament croisé postérieur pour lesquelles il a montré de bons résultats à court et moyen termes. Le but de cette étude rétrospective était d'évaluer la fonction et la stabilité du genou après la luxation aiguë suivant la reconstruction des ligaments croisés avec le ligament artificiel de type LARS. Cette étude a évalué 71 patients présentant une luxation du genou et qui ont subi une chirurgie de reconstruction du ligament croisé antérieur et du ligament croisé postérieur à l'aide du ligament LARS. Suite à la chirurgie le même protocole intensif de réadaptation a été suivi pour tous les patients, où la mise en charge progressive était permise après une période d’environ 6 semaines pendant laquelle la force musculaire et la stabilité dynamique se rétablissaient. Les outils d’évaluation utilisés étaient le score Lysholm, le formulaire de «l’International Knee Documentation Committee», le «Short Form-36», les tests cliniques de stabilité du genou, l'amplitude de mouvement articulaire à l’aide d’un goniomètre et la radiographie en stress Telos à 30° et 90° de flexion du genou. Le même protocole d’évaluation a été appliqué au genou controlatéral pour des fins de comparaison. Les résultats subjectifs et objectifs de cette étude sont satisfaisants et suggèrent que la réparation et la reconstruction combinées avec ligaments LARS est une alternative valable pour le traitement des luxations aiguës du genou. Ces résultats démontrent que ces interventions produisent des effets durables en termes d’amélioration de la fonction et révèlent la durabilité à long terme des ligaments artificiels LARS. Les patients sont à la fois plus autonomes et plus satisfaits avec le temps, même si la luxation du genou est considérée comme une catastrophe au moment où elle se produit. Des études prospectives randomisées sont maintenant nécessaires afin de comparer la sélection de la greffe et le délai de reconstruction chirurgicale.
Resumo:
« Pour respecter les droits d'auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal ».
Resumo:
Pour la plupart des gens, la lecture est une activité automatique, inhérente à leur vie quotidienne et ne demandant que peu d’effort. Chez les individus souffrant d’épilepsie réflexe à la lecture, le simple fait de lire déclenche des crises épileptiques et les personnes doivent alors renoncer à la lecture. Les facteurs responsables du déclenchement de l’activité épileptique dans l’épilepsie réflexe à la lecture demeurent encore mal définis. Certains auteurs suggèrent que le nombre ainsi que la localisation des pointes épileptiques seraient en lien avec la voie de lecture impliquée. Des études en imagerie cérébrale, menées auprès de populations sans trouble neurologique, ont dévoilé que la lecture active un réseau étendu incluant les cortex frontaux, temporo-pariétaux et occipito-temporaux bilatéralement avec des différences dans les patrons d’activation pour les voies de lecture lexicale et phonologique. La majorité des études ont eu recours à des tâches de lecture silencieuse qui ne permettent pas d'évaluer la performance des participants. Dans la première étude de cette thèse, qui porte sur une étude de cas d'un patient avec épilepsie réflexe à la lecture, nous avons déterminé les tâches langagières et les caractéristiques des stimuli qui influencent l'activité épileptique. Les résultats ont confirmé que la lecture était la principale tâche responsable du déclenchement de l’activité épileptique chez ce patient. En particulier, la fréquence des pointes épileptiques était significativement plus élevée lorsque le patient avait recours au processus de conversion grapho-phonémique. Les enregistrements électroencéphalographiques (EEG) ont révélé que les pointes épileptiques étaient localisées dans le gyrus précentral gauche, indépendamment de la voie de lecture. La seconde étude avait comme objectif de valider un protocole de lecture à voix haute ayant recours à la spectroscopie près du spectre de l’infrarouge (SPIR) pour investiguer les circuits neuronaux qui sous-tendent la lecture chez les normo-lecteurs. Douze participants neurologiquement sains ont lu à voix haute des mots irréguliers et des non-mots lors d’enregistrements en SPIR. Les résultats ont montré que la lecture des deux types de stimuli impliquait des régions cérébrales bilatérales communes incluant le gyrus frontal inférieur, le gyrus prémoteur et moteur, le cortex somatosensoriel associatif, le gyrus temporal moyen et supérieur, le gyrus supramarginal, le gyrus angulaire et le cortex visuel. Les concentrations totales d’hémoglobine (HbT) dans les gyri frontaux inférieurs bilatéraux étaient plus élevées dans la lecture des non-mots que dans celle des mots irréguliers. Ce résultat suggère que le gyrus frontal inférieur joue un rôle dans la conversion grapho-phonémique, qui caractérise la voie de lecture phonologique. Cette étude a confirmé le potentiel de la SPIR pour l’investigation des corrélats neuronaux des deux voies de lecture. Une des retombées importantes de cette thèse consiste en l’utilisation du protocole de lecture en SPIR pour investiguer les troubles de la lecture. Ces investigations pourraient aider à mieux établir les liens entre le fonctionnement cérébral et la lecture dans les dyslexies développementales et acquises.
Resumo:
Certains gènes, modulant la sérotonine (5-hydroxytryptamine, 5-HT), ont été associés aux tempéraments liés à l'anxiété. Une limitation dans la plupart de ces études est que les études sont de nature transversale et l'anxiété a été évaluée à un seul point dans le temps. De plus, seules quelques études ont été réalisées chez les enfants. Le but de la présente étude était d'étudier le rôle des gènes HTR2A et TPH2 dans le développement des trajectoires d’anxiété durant l’enfance. Les associations entre ces gènes, ces trajectoires, le diagnostic d’anxiété à l'âge adulte et les différences entre les sexes ont été examinées dans l'Étude Longitudinale des Enfants de Maternelle au Québec, composée de 3185 enfants recrutés en 1986-1987. Leur anxiété a été cotée par leur professeur annuellement entre 6 et 12 ans. Ces cotes ont été modélisées en trajectoires comportementales. Les données genotypées de 5-HT, disponibles pour 1068 personnes, ont été analysées en utilisant les statistiques du Chi-carré, des régressions logistiques et des analyses de variance. Sur les 37 polymorphismes étudiés, plusieurs ont été associés à la trajectoire de forte anxiété, tels le 5-HTR2A (rs1328684, rs95534511, rs1745837, rs7984966, 7330636) et TPH2 (rs11179050, rs11179052, rs1386498). Bien que les trajectoires d’anxiété en enfance n’aient pas prédit le diagnostic d'anxiété à 21 ans, les relations ont été trouvées entre ce diagnostic, HTR2A et les polymorphismes du nucléotide simple (PNS) de TPH2. On remarque que les PNS associés à l’anxiété durant l’enfance et l’âge adulte ne sont pas les mêmes. La force d'association entre les gènes étudiés et l'anxiété diffère entre les garçons et les filles. Cette étude est la première à identifier une association entre les variantes TPH2, 5-HTR2A et les trajectoires d’anxiété en enfance. Les études futures devraient reproduire les résultats dans d'autres échantillons, enquêter sur l'interaction avec les facteurs de stress, et étudier la pertinence fonctionnelle de la PNS.
Resumo:
David Katz a fait l’observation que le mouvement entre la peau et l’objet est aussi important pour le sens du toucher que la lumière l’est pour la vision. Un stimulus tactile déplacé sur la peau active toutes les afférences cutanées. Les signaux résultants sont très complexes, covariant avec différents facteurs dont la vitesse, mais aussi la texture, la forme et la force. Cette thèse explore la capacité des humains à estimer la vitesse et la rugosité de surfaces en mouvements. Les bases neuronales de la vitesse tactile sont aussi étudiées en effectuant des enregistrements unitaires dans le cortex somatosensoriel primaire (S1) du singe éveillé. Dans la première expérience, nous avons montré que les sujets peuvent estimer la vitesse tactile (gamme de vitesses, 30 à 105 mm/s) de surfaces déplacées sous le doigt, et ceci sans indice de durée. Mais la structure des surfaces était essentielle (difficulté à estimer la vitesse d’une surface lisse). Les caractéristiques physiques des surfaces avaient une influence sur l’intensité subjective de la vitesse. La surface plus rugueuse (8 mm d’espacement entre les points en relief) semblait se déplacer 15% plus lentement que les surfaces moins rugueuses (de 2 et 3 mm d’espacement), pour les surfaces périodiques et non périodiques (rangées de points vs disposition aléatoire). L’effet de la texture sur la vitesse peut être réduit en un continuum monotonique quand les estimés sont normalisés avec l’espacement et présentés en fonction de la fréquence temporelle (vitesse/espacement). L'absence de changement des estimés de vitesse entre les surfaces périodiques et non périodiques suggère que les estimés de rugosité devraient aussi être indépendants de la disposition des points. Dans la deuxième expérience, et tel que prévu, une équivalence perceptuelle entre les deux séries de surfaces est obtenue quand les estimés de la rugosité sont exprimés en fonction de l'espacement moyen entre les points en relief, dans le sens de l'exploration. La troisième expérience consistait à rechercher des neurones du S1 qui pourraient expliquer l’intensité subjective de la vitesse tactile. L’hypothèse est que les neurones impliqués devraient être sensibles à la vitesse tactile (40 à 105 mm/s) et à l’espacement des points (2 à 8 mm) mais être indépendants de leur disposition (périodique vs non périodique). De plus, il est attendu que la fonction neurométrique (fréquence de décharge/espacement en fonction de la fréquence temporelle) montre une augmentation monotonique. Une grande proportion des cellules était sensible à la vitesse (76/119), et 82% d’entres elles étaient aussi sensibles à la texture. La sensibilité à la vitesse a été observée dans les trois aires du S1 (3b, 1 et 2). La grande majorité de cellules sensibles à la vitesse, 94%, avait une relation monotonique entre leur décharge et la fréquence temporelle, tel qu’attendu, et ce surtout dans les aires 1 et 2. Ces neurones pourraient donc expliquer la capacité des sujets à estimer la vitesse tactile de surfaces texturées.
Resumo:
Selon la théorie de la double hérédité, les processus de transmission sociale des connaissances permettraient aux cultures humaines d'évoluer de manière darwinienne. On parvient à cette conclusion en inférant que, étant donné qu'une analogie profonde peut être établie entre les mécanismes de transmission génétique et ceux de transmission sociale, on devrait non seulement concevoir que les processus cognitifs d'apprentissage social constituent bel et bien un système d'hérédité distinct du système d'hérédité génétique, mais qu’il est aussi légitime, sur la base de cette même analogie, de transférer les concepts explicatifs et outils formels issus de la biologie évolutionnaire et de les adapter à l'étude des cultures humaines en vue de constituer une théorie darwinienne de l'évolution culturelle. Cette analogie de l’hérédité culturelle fait depuis longtemps l'objet de controverses tant au sein de la littérature scientifique que dans les discussions philosophiques. On ne semble pas s'entendre sur la nature même de cette analogie ni non plus sur la force de justification épistémique qu'une telle analogie donnerait à la mise en place d'une théorie darwinienne de l'évolution culturelle. Néanmoins, à travers plus de quarante années de débats, la structure de cette analogie n'a jamais été examinée en détail et on a rarement examiné l'épistémologie des inférences par analogie dans un tel contexte. L'objectif principal de la présente thèse consistera à offrir une première analyse systématique de la nature, de la structure, de la fonction et de la justification épistémique de l'analogie de l'hérédité culturelle, fondement conceptuel de la théorie de la double hérédité. En portant ici une attention particulière à la structure logique de cette analogie, on pourra constater l'ampleur de sa complexité, complexité passant souvent inaperçue dans les critiques de la théorie de la double hérédité. On défendra ici la thèse selon laquelle l'analogie de l'hérédité culturelle est en fait composée de deux analogies constitutives qui, conjointement, ouvrent la voie à la mise en place et à l’organisation d’un programme de recherche visant à mettre au point une théorie darwinienne de l’évolution culturelle.
Resumo:
Le processus d’enseignement ne se limite pas à un ensemble de méthodes pédagogiques à appliquer et de contenus programmés à transmettre. Il se déploie également dans la construction par l’enseignant d’une relation pédagogique avec ses élèves. Cette relation est considérée comme étant optimale lorsqu’elle est caractérisée par un niveau élevé de chaleur et un faible niveau de conflits. Plusieurs études démontrent l’existence de liens significatifs entre la qualité de cette relation et les différents indicateurs d’adaptation à l’école. En général, les résultats des études démontrent l’influence positive d’une relation élève-enseignant chaleureuse sur le comportement des élèves, leur réussite scolaire ainsi que sur leurs sentiments et attitudes envers l’école. Certaines recherches soulignent également que l’incidence de la qualité de la relation élève-enseignant est particulièrement importante pour les élèves considérés à risque en raison de présence chez eux des certains facteurs de vulnérabilité tels que la pauvreté (facteurs sociaux), la relation parent-enfant difficile (facteurs familiaux) ou le manque d’habiletés sociales (facteurs individuels). La majorité de recherches ne permet toutefois pas de déterminer quels sont précisément les aspects de cette relation qui influencent significativement la qualité de la relation entre l’enseignant et ses élèves. Souhaitant pallier cette lacune, la présente étude poursuit deux objectifs : 1) examiner le lien entre les perceptions des élèves de niveau secondaire considérés à risque concernant les différents aspects de la qualité de la relation élève-enseignant et les problèmes de comportement extériorisés ; 2) vérifier si ce lien évolue avec le temps. Afin d’atteindre ces objectifs, nous avons pris en considération deux dimensions qui permettent de qualifier les profils de la relation élève-enseignant, soit la chaleur et les conflits (Pianta, 1992). La classification de ces deux dimensions en fonction de leur pôle positif et négatif permet de distinguer quatre profils relationnels que l’élève est susceptible d’établir avec ses enseignants soient le profil dit chaleureux, controversé, négligent ou conflictuel. II Cette étude repose sur un devis longitudinal grâce aux données recueillies dans le cadre de l’évaluation de la stratégie d’intervention Agir Autrement réalisée entre 2002 et 2008 (SIAA). Il s’agit donc ici d’analyses secondaires menées sur un échantillon aléatoire tiré de cette vaste recherche. Un échantillon de 563 élèves de 1re secondaire incluant 273 filles et 290 garçons a été constitué. Les analyses ont été effectuées auprès de ces élèves alors qu’ils étaient en premier et en cinquième année de secondaire ce qui a permis d’observer les changements dans le comportement des élèves à risque en fonction de la qualité de la relation élève-enseignant. De façon générale, les résultats obtenus montrent que les liens entre les différents profils de la relation élève-enseignant et les problèmes de comportement extériorisés sont fort complexes et loin d’être univoques. En particulier, ces résultats permettent de constater que le profil chaleureux représente le profil relationnel le moins associé aux problèmes de comportement extériorisés chez les élèves à risque et ce, autant en première qu’en cinquième secondaire. Selon nos résultats, les profils conflictuel et controversé sont significativement liés aux problèmes de comportement extériorisés chez les élèves à risque de 1re secondaire et de 5e secondaire. En ce qui a trait au profil négligent, les résultats de la présente recherche montrent l’existence d’un lien corrélationnel entre ce profil relationnel et les problèmes de comportement extériorisés. Toutefois, la force de l’association s’est avérée plus significative pour les élèves à risque en 5e secondaire secondaire comparativement aux mêmes élèves alors qu’ils étaient en 1re secondaire. Finalement, l’ensemble de résultats obtenus montre que les profils relationnels restent relativement stables dans le temps, tandis que la fréquence de comportements problématiques tels que le vol grave et la consommation de psychotropes augmentent d’une manière significative. De plus, les résultats que nous avons obtenus montrent l’existence d’un lien entre la dimension de conflits de la relation élève-enseignant et la consommation de substances psychotropes chez les élèves de notre échantillon. La présente recherche permet de constater que la dimension de conflits est aussi importante dans la relation élève-enseignant que la dimension de la chaleur, car les III conflits agiraient comme facteurs de risque pouvant augmenter la fréquence de problèmes de comportement extériorisés chez les élèves de secondaire considérés à risque. Ainsi, la réduction de niveau de conflits dans la relation entre les élèves et leurs enseignants peut jouer un rôle important en termes de prévention de ce type de problèmes chez les élèves de niveau secondaire.
Resumo:
Cet article traite des règles de preuve dans un contexte électronique, et souligne les différences et similitudes entre les systèmes retenus par les provinces de common law et de droit civil. Il présente certains principes généraux, ainsi qu’un bref survol du droit de la preuve face à l’avènement de l’immatériel. Il englobe une analyse des règles d’admissibilité de la preuve telles que la règle de la meilleure preuve, et l’exception au ouï-dire, ainsi que la force probante des documents électroniques. Il envisage, enfin une application pratique, soit la signature électronique.
Resumo:
La notion de vie privée, et plus précisément le droit à la protection des renseignements personnels, est reconnue aussi bien dans les textes provinciaux, régionaux, nationaux et internationaux, que dans les politiques mises en place par les sites Web. Il est admis que toutes informations identifiant ou permettant d’identifier une personne peut porter atteinte à sa vie privée, à savoir son nom, prénom, numéro de téléphone, de carte bancaire, de sécurité sociale, ou encore ses adresses électronique et Internet. Cette protection, admise dans le monde réel, doit aussi exister sur les inforoutes, étant entendu que « l ’informatique (…) ne doit porter atteinte ni à l ’identité humaine, ni aux droits de l ’homme, ni à la vie privée, ni aux libertés individuelles ou publiques » (art. 1er de la Loi française dite « Informatique et Libertés » du 6 janvier 1978). Ce principe étant admis, il est pertinent de s’interroger sur les moyens envisagés pour parvenir à le réaliser. Faut-il avoir recours à la réglementation étatique, à l’autoréglementation ou à la corégulation ? Cette dernière notion « n’est pas à proprement parler une nouvelle forme de régulation », mais elle préconise une collaboration entre les acteurs du secteur public et privé. L’idée de partenariat semble retenir l’attention du gouvernement français dans sa mission d’adaptation du cadre législatif à la société de l’information, comme nous le montre le rapport Du droit et des libertés sur l’Internet remis dernièrement au Premier ministre. Par conséquent, cet article a pour objectif de dresser un tableau de la législation française, et de ses multiples rapports, applicables à la protection de la vie privée et, plus particulièrement, aux données personnelles sur le réseau des réseaux. En prenant en considération les solutions étatiques et non étatiques retenues depuis ces deux dernières décennies, nous envisagerons une étude de l’avant-projet de loi du Gouvernement visant à transposer en droit interne la Directive européenne du 24 octobre 1995 relative à la protection des données personnelles.