974 resultados para Grandeurs en mesure


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette recherche a été inspirée par les travaux de John Bowlby sur l’attachement ainsi que par les écrits psychanalytiques de Sigmund Freud et de Donald Winnicott sur le développement de la relation père-garçon. Trois objectifs ont été formulés dans la présente étude : A) Les jeunes garçons d’âge préscolaire pourraient-ils projeter, à travers quelques sessions de jeu symbolique libre, leurs représentations paternelles? B) S’ils les projettent, quelle est la nature de ces représentations paternelles? C) Existe-t-il une relation entre le type d’attachement (évalué par un instrument standard) et les représentations paternelles projetées dans le jeu symbolique libre? Dix garçons de quatre ans ont été filmés à la maison et dans une garderie pendant, en moyenne, quatre sessions totalisant par enfant, une durée moyenne de deux heures trente minutes de jeu symbolique. Le type d’attachement a été évalué à l’aide de l’Attachment Story Completion Task. Les résultats démontrent que l’ensemble des garçons ont été en mesure de projeter des représentations paternelles basées sur la figure du père. Tous ces garçons ont perçu le père comme une figure de protection et huit enfants sur dix ont exprimé verbalement leur attachement à ce dernier. Un enfant de type évitant (type A) n’a pas évoqué la figure du père dans son jeu. Ce père était rarement à la maison pour s’occuper de son garçon. Enfin, le dernier enfant, de type ambivalent (un enfant particulièrement agressif de type C), a présenté dans son jeu des interactions négatives avec le père et ce, tout au long des sessions de jeu symbolique. Il appert ainsi que le jeu symbolique permet à l’enfant de projeter des représentations de la figure paternelle. Ces représentations sont en lien avec le type d’attachement que l’enfant détient au moment de l’évaluation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

À très peu de philosophes l’histoire de la pensée occidentale a accordé une place aussi significative qu’à Socrate : nous apprenons tout naturellement à l’édifier comme héros de la rationalité et à reconnaître en lui la figure même du philosophe critique. À plusieurs égards, cette représentation élogieuse nous paraît justifiée, bien que, d’un autre point de vue, elle puisse nous faire sombrer dans la confusion, dès lors que notre regard porte simultanément, et comme pour produire un contraste, sur l’image d’un Socrate se soumettant au daimonion, son étrange signe divin. Comment pouvons-nous justifier, à partir du corpus platonicien, à la fois l’engagement de Socrate vis-à-vis de la rationalité et sa soumission à un phénomène en apparence irrationnel ? De cette question troublante est née la présente étude qui se consacre donc au problème de l’articulation entre le rapport de Socrate aux dieux et son rapport à la raison critique. Plus précisément, nous avons cherché à déterminer s’il existait, sur le plan épistémologique, une hiérarchie entre le daimonion et la méthode d’investigation rationnelle propre à Socrate, l’elenchos. Une telle étude exégétique nécessitait, dans un premier temps, une analyse systématique et approfondie des quelques passages sur le signe divin. Nous avons ensuite exposé deux solutions paradigmatiques au problème du double engagement contradictoire de Socrate, celle de G. Vlastos ainsi que celle de T.C. Brickhouse et N.D. Smith. Enfin, nous avons augmenté cette seconde partie d’un examen spécifique du Phèdre et du Timée, de même que d’un survol des modes de divination pour satisfaire un triple objectif : situer le signe divin en regard de la mantique traditionnelle, déterminer le rôle attribué par Platon à la raison dans le processus divinatoire, et être ainsi en mesure de trancher notre question principale.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les temps de réponse dans une tache de reconnaissance d’objets visuels diminuent de façon significative lorsque les cibles peuvent être distinguées à partir de deux attributs redondants. Le gain de redondance pour deux attributs est un résultat commun dans la littérature, mais un gain causé par trois attributs redondants n’a été observé que lorsque ces trois attributs venaient de trois modalités différentes (tactile, auditive et visuelle). La présente étude démontre que le gain de redondance pour trois attributs de la même modalité est effectivement possible. Elle inclut aussi une investigation plus détaillée des caractéristiques du gain de redondance. Celles-ci incluent, outre la diminution des temps de réponse, une diminution des temps de réponses minimaux particulièrement et une augmentation de la symétrie de la distribution des temps de réponse. Cette étude présente des indices que ni les modèles de course, ni les modèles de coactivation ne sont en mesure d’expliquer l’ensemble des caractéristiques du gain de redondance. Dans ce contexte, nous introduisons une nouvelle méthode pour évaluer le triple gain de redondance basée sur la performance des cibles doublement redondantes. Le modèle de cascade est présenté afin d’expliquer les résultats de cette étude. Ce modèle comporte plusieurs voies de traitement qui sont déclenchées par une cascade d’activations avant de satisfaire un seul critère de décision. Il offre une approche homogène aux recherches antérieures sur le gain de redondance. L’analyse des caractéristiques des distributions de temps de réponse, soit leur moyenne, leur symétrie, leur décalage ou leur étendue, est un outil essentiel pour cette étude. Il était important de trouver un test statistique capable de refléter les différences au niveau de toutes ces caractéristiques. Nous abordons la problématique d’analyser les temps de réponse sans perte d’information, ainsi que l’insuffisance des méthodes d’analyse communes dans ce contexte, comme grouper les temps de réponses de plusieurs participants (e. g. Vincentizing). Les tests de distributions, le plus connu étant le test de Kolmogorov- Smirnoff, constituent une meilleure alternative pour comparer des distributions, celles des temps de réponse en particulier. Un test encore inconnu en psychologie est introduit : le test d’Anderson-Darling à deux échantillons. Les deux tests sont comparés, et puis nous présentons des indices concluants démontrant la puissance du test d’Anderson-Darling : en comparant des distributions qui varient seulement au niveau de (1) leur décalage, (2) leur étendue, (3) leur symétrie, ou (4) leurs extrémités, nous pouvons affirmer que le test d’Anderson-Darling reconnait mieux les différences. De plus, le test d’Anderson-Darling a un taux d’erreur de type I qui correspond exactement à l’alpha tandis que le test de Kolmogorov-Smirnoff est trop conservateur. En conséquence, le test d’Anderson-Darling nécessite moins de données pour atteindre une puissance statistique suffisante.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le contrôle immunitaire des infections virales est effectué, en grande partie, par les lymphocytes T CD8+ cytotoxiques. Pour y parvenir, les lymphocytes T CD8+ doivent être en mesure de reconnaître les cellules infectées et de les éliminer. Cette reconnaissance des cellules infectées s’effectue par l’interaction du récepteur T (TCR) des lymphocytes T CD8+ et des peptides viraux associés au complexe majeur d’histocompatibilité (CMH) de classe I à la surface des cellules hôtes. Cette interaction constitue l’élément déclencheur permettant l’élimination de la cellule infectée. On comprend donc toute l’importance des mécanismes cellulaires menant à la génération des peptides antigéniques à partir des protéines virales produites au cours d’une infection. La vision traditionnelle de cet apprêtement protéique menant à la présentation d’antigènes par les molécules du CMH propose deux voies cataboliques distinctes. En effet, il est largement admis que les antigènes endogènes sont apprêtés par la voie dite ‘‘classique’’ de présentation antigénique par les CMH de classe I. Cette voie implique la dégradation des antigènes intracellulaires par le protéasome dans le cytoplasme, le transport des peptides résultant de cette dégradation à l’intérieur du réticulum endoplasmique, leur chargement sur les molécules du CMH de classe I et finalement le transport des complexes peptide-CMH à la surface de la cellule où ils pourront activer les lymphocytes T CD8+. Dans la seconde voie impliquant des antigènes exogènes, le dogme veut que ceux-ci soient apprêtés par les protéases du compartiment endovacuolaire. Les peptides ainsi générés sont directement chargés sur les molécules de CMH de classe II à l’intérieur de ce compartiment. Par la suite, des mécanismes de recyclage vésiculaire assurent le transport des complexes peptide-CMH de classe II à la surface de la cellule afin de stimuler les lymphocytes T CD4+. Cependant, cette stricte ségrégation des voies d’apprêtement antigénique a été durement éprouvée par la capacité des cellules présentatrices d’antigènes à effectuer l’apprêtement d’antigènes exogènes et permettre leur présentation sur des molécules de CMH de classe I. De plus, l’identification récente de peptides d’origine intracellulaire associés à des molécules de CMH de classe II a clairement indiqué la présence d’interactions entre les deux voies d’apprêtement antigénique permettant de transgresser le dogme préalablement établi. L’objectif du travail présenté ici était de caractériser les voies d’apprêtement antigénique menant à la présentation d’antigènes viraux par les molécules du CMH de classe I lors d’une infection par le virus de l’Herpès simplex de type I (HSV-1). Dans les résultats rapportés ici, nous décrivons une nouvelle voie d’apprêtement antigénique résultant de la formation d’autophagosomes dans les cellules infectées. Cette nouvelle voie permet le transfert d’antigènes viraux vers un compartiment vacuolaire dégradatif dans la phase tardive de l’infection par le virus HSV-1. Cette mise en branle d’une seconde voie d’apprêtement antigénique permet d’augmenter le niveau de présentation de la glycoprotéine B (gB) virale utilisée comme modèle dans cette étude. De plus, nos résultats décrivent la formation d’une nouvelle forme d’autophagosomes dérivés de l’enveloppe nucléaire en réponse à l’infection par le virus HSV-1. Ces nouveaux autophagosomes permettent le transfert d’antigènes viraux vers un compartiment vacuolaire lytique, action également assurée par les autophagosomes dits classiques. Dans la deuxième partie du travail présenté ici, nous utilisons l’infection par le virus HSV-1 et la production de la gB qui en résulte pour étudier le trafic membranaire permettant le transfert de la gB vers un compartiment vacuolaire dégradatif. Nos résultats mettent en valeur l’importance du réticulum endoplasmique, et des compartiments autophagiques qui en dérivent, dans ces mécanismes de transfert antigénique permettant d’amplifier la présentation antigénique de la protéine virale gB sur des CMH de classe I via une voie vacuolaire. L’ensemble de nos résultats démontrent également une étroite collaboration entre la voie classique de présentation antigénique par les CMH de classe I et la voie vacuolaire soulignant, encore une fois, la présence d’interaction entre les deux voies.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans le domaine des relations industrielles, on a vu apparaître, ces dernières années, différents changements au niveau des relations du travail, notamment en matière de négociation collective. En effet, de nouvelles formes de négociation ont vu le jour en réponse aux changements qui se sont produits sur le marché du travail. De façon plus précise, les théoriciens se sont penchés, d’une part, sur des méthodes de négociation moins conflictuelles et les acteurs concernés par la négociation collective ont su les mettre en pratique, d’autre part. Cependant, bien que certains aient tenté de substituer ces méthodes plus coopératives à la négociation traditionnelle de façon intégrale, les théoriciens et praticiens se sont aperçus qu’il était plutôt difficile de les adopter à l’état pur et ce, de façon alternative à la négociation traditionnelle. Afin d’optimiser les gains mutuels lors de la négociation d’une entente, les négociateurs vont plutôt opter pour un usage combiné des méthodes plus traditionnelles et des nouvelles formes dites plus coopératives; on parle alors de négociation mixte. Toutefois, peu d’études portant sur la négociation mixte ont été conduites. Nous croyons néanmoins que cette forme de négociation est plus appropriée, notamment en raison de la nature des enjeux traités à l’occasion d’une négociation collective. S’insérant dans ce contexte, l’objet de notre recherche est donc l’étude, par l’entremise d’un cas particulier, de la négociation mixte. De façon plus précise, nous cherchons à évaluer la méthode de négociation adoptée lors de la négociation collective ayant eu lieu entre le Centre de la petite enfance Pomme Soleil (CPE) et le Syndicat des intervenantes en petite enfance de Montréal (SIPEM) – CSQ en 2005. Afin d’y parvenir, nous avons vérifié les propositions et hypothèses suivantes : (1) la nature du climat des négociations précédentes a une influence sur la méthode de négociation de type mixte adoptée par les parties au cours de la négociation de la convention collective, (2) la nature du climat des relations industrielles a une influence sur la méthode de négociation de type mixte adoptée par les parties au cours de la négociation de la convention collective, (3) le passage du temps a un effet de transition sur la méthode de négociation de type mixte qui manifeste une dominante intégrative dans les étapes initiales de la négociation et une dominante distributive dans les étapes finales, (4) les négociateurs ayant reçu une formation à la négociation basée sur la résolution de problèmes ou basée sur les intérêts adoptent une méthode de négociation de type mixte à dominante intégrative, (5) l’expérience des négociateurs patronal et syndical a une influence sur la méthode de négociation de type mixte adoptée par les parties au cours de la négociation de la convention collective, (6) la stratégie de négociation initiale adoptée par les parties a une influence sur la méthode de négociation de type mixte au cours de la négociation de la convention collective et (7) la négociation des clauses à incidence pécuniaire donne lieu à une méthode de négociation de type mixte à dominante distributive. Grâce aux résultats que nous avons recueillis par l’entremise de l’observation de la négociation collective entre le CPE Pomme Soleil et le SIPEM, mais principalement par le biais des entrevues, nous sommes en mesure d’affirmer que, conformément à notre question de recherche, la négociation fut mixte, à dominante intégrative. Cependant, la question salariale, bien qu’elle ne fut pas abordée à la table de négociation mais avec le gouvernement provincial, prit une tangente distributive. En ce sens, nous pouvons dire que la négociation fut mixte et ce, de façon séquentielle.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

De nos jours, les logiciels doivent continuellement évoluer et intégrer toujours plus de fonctionnalités pour ne pas devenir obsolètes. C'est pourquoi, la maintenance représente plus de 60% du coût d'un logiciel. Pour réduire les coûts de programmation, les fonctionnalités sont programmées plus rapidement, ce qui induit inévitablement une baisse de qualité. Comprendre l’évolution du logiciel est donc devenu nécessaire pour garantir un bon niveau de qualité et retarder le dépérissement du code. En analysant à la fois les données sur l’évolution du code contenues dans un système de gestion de versions et les données quantitatives que nous pouvons déduire du code, nous sommes en mesure de mieux comprendre l'évolution du logiciel. Cependant, la quantité de données générées par une telle analyse est trop importante pour être étudiées manuellement et les méthodes d’analyses automatiques sont peu précises. Dans ce mémoire, nous proposons d'analyser ces données avec une méthode semi automatique : la visualisation. Eyes Of Darwin, notre système de visualisation en 3D, utilise une métaphore avec des quartiers et des bâtiments d'une ville pour visualiser toute l'évolution du logiciel sur une seule vue. De plus, il intègre un système de réduction de l'occlusion qui transforme l'écran de l'utilisateur en une fenêtre ouverte sur la scène en 3D qu'il affiche. Pour finir, ce mémoire présente une étude exploratoire qui valide notre approche.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse examine les impacts sur la morphologie des tributaires du fleuve Saint-Laurent des changements dans leur débit et leur niveau de base engendrés par les changements climatiques prévus pour la période 2010–2099. Les tributaires sélectionnés (rivières Batiscan, Richelieu, Saint-Maurice, Saint-François et Yamachiche) ont été choisis en raison de leurs différences de taille, de débit et de contexte morphologique. Non seulement ces tributaires subissent-ils un régime hydrologique modifié en raison des changements climatiques, mais leur niveau de base (niveau d’eau du fleuve Saint-Laurent) sera aussi affecté. Le modèle morphodynamique en une dimension (1D) SEDROUT, à l’origine développé pour des rivières graveleuses en mode d’aggradation, a été adapté pour le contexte spécifique des tributaires des basses-terres du Saint-Laurent afin de simuler des rivières sablonneuses avec un débit quotidien variable et des fluctuations du niveau d’eau à l’aval. Un module pour simuler le partage des sédiments autour d’îles a aussi été ajouté au modèle. Le modèle ainsi amélioré (SEDROUT4-M), qui a été testé à l’aide de simulations à petite échelle et avec les conditions actuelles d’écoulement et de transport de sédiments dans quatre tributaires du fleuve Saint-Laurent, peut maintenant simuler une gamme de problèmes morphodynamiques de rivières. Les changements d’élévation du lit et d’apport en sédiments au fleuve Saint-Laurent pour la période 2010–2099 ont été simulés avec SEDROUT4-M pour les rivières Batiscan, Richelieu et Saint-François pour toutes les combinaisons de sept régimes hydrologiques (conditions actuelles et celles prédites par trois modèles de climat globaux (MCG) et deux scénarios de gaz à effet de serre) et de trois scénarios de changements du niveau de base du fleuve Saint-Laurent (aucun changement, baisse graduelle, baisse abrupte). Les impacts sur l’apport de sédiments et l’élévation du lit diffèrent entre les MCG et semblent reliés au statut des cours d’eau (selon qu’ils soient en état d’aggradation, de dégradation ou d’équilibre), ce qui illustre l’importance d’examiner plusieurs rivières avec différents modèles climatiques afin d’établir des tendances dans les effets des changements climatiques. Malgré le fait que le débit journalier moyen et le débit annuel moyen demeurent près de leur valeur actuelle dans les trois scénarios de MCG, des changements importants dans les taux de transport de sédiments simulés pour chaque tributaire sont observés. Ceci est dû à l’impact important de fortes crues plus fréquentes dans un climat futur de même qu’à l’arrivée plus hâtive de la crue printanière, ce qui résulte en une variabilité accrue dans les taux de transport en charge de fond. Certaines complications avec l’approche de modélisation en 1D pour représenter la géométrie complexe des rivières Saint-Maurice et Saint-François suggèrent qu’une approche bi-dimensionnelle (2D) devrait être sérieusement considérée afin de simuler de façon plus exacte la répartition des débits aux bifurcations autour des îles. La rivière Saint-François est utilisée comme étude de cas pour le modèle 2D H2D2, qui performe bien d’un point de vue hydraulique, mais qui requiert des ajustements pour être en mesure de pleinement simuler les ajustements morphologiques des cours d’eau.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans un monde devenu séculier et où la tradition chrétienne est en recul, on est en droit de se poser la question de la pertinence des textes bibliques. En lien avec cette situation, on peut aussi se demander quelle représentation de Dieu émerge de la façon dont on accueille ces textes. Ce type de questionnement sous-tend l’intérêt que peut représenter une approche processuelle des textes bibliques, approche encore peu connue dans le monde francophone. Celle-ci est-elle en mesure d’apporter une certaine nouveauté dans la vision de Dieu généralement proposée en milieu chrétien ? Pour répondre à cela, il a semblé pertinent de tenter l’exercice à partir d’un texte englobant et fondateur. Genèse 2, connu pour raconter la création d’Adam et Ève, est porteur d’images presque stéréotypées à force d’avoir été lu et remâché. À ce titre, il a paru particulièrement approprié. Mais, avant même d’explorer le texte sous un angle processuel, il s’est avéré indispensable de commencer cette démarche par une traduction personnelle du texte hébreu, à partir et avec l’aide d’une analyse syntaxique et textuelle, dont on verra qu’elles ont ouvert le texte à de nouvelles hypothèses de traduction, de nouvelles nuances, comme autant de pistes à confronter à une théologie processuelle. Enfin, cette analyse ne peut se faire sans être en dialogue avec différents commentaires, exégétiques ou non, afin de souligner les convergences comme les divergences rencontrées au fil de la recherche et de la réflexion.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les cellules gliales sont essentielles au fonctionnement du système nerveux. Dans la rétine, les cellules gliales de Müller assurent à la fois l’homéostasie du tissu et la protection des neurones, notamment celle des cellules ganglionnaires de la rétine (CGRs). L’hypothèse principale de la thèse est que les cellules de Müller joueraient un rôle primordial dans la survie neuronale tant au plan de la signalisation des neurotrophines/proneurotrophines par suite d’une blessure que lors des mécanismes d’excitotoxicité. Contrairement au brain-derived neurotrophic factor (BDNF), le nerve growth factor (NGF) n’est pas en mesure d’induire la survie des CGRs après une section du nerf optique. Le premier objectif de la thèse a donc été de localiser les récepteurs p75NTR et TrkA du NGF dans la rétine adulte et d’établir leur fonction respective en utilisant des ligands peptidomimétiques agonistes ou antagonistes spécifiques pour chacun des récepteurs. Nos résultats ont démontré que TrkA est surexprimé par les CGRs après l’axotomie, tandis que p75NTR est spécifiquement exprimé par les cellules de Müller. Alors que NGF n’est pas en mesure d’induire la survie des CGRs, l’activation spécifique de TrkA par des ligands peptidomimétique est nettement neuroprotectrice. De façon surprenante, le blocage sélectif de p75NTR ou l’absence de celui-ci protège les CGRs de la mort induite par l’axotomie. De plus, la combinaison de NGF avec l’antagoniste de p75NTR agit de façon synergique sur la survie des CGRS. Ces résultats révèlent un nouveau mécanisme par lequel le récepteur p75NTR exprimé par les cellules gliales de Müller peut grandement influencer la survie neuronale. Ensuite, nous avons voulu déterminer l’effet des proneurotrophines dans la rétine adulte. Nous avons démontré que l’injection de proNGF induit la mort des CGRs chez le rat et la souris par un mécanisme dépendant de p75NTR. L’expression de p75NTR étant exclusive aux cellules de Müller, nous avons testé l’hypothèse que le proNGF active une signalisation cellulaire non-autonome qui aboutit à la mort des CGRs. En suivant cette idée, nous avons montré que le proNGF induit une forte expression du tumor necrosis factor α (TNFα) dans les cellules de Müller et que l’inhibition du TNF bloque la mort neuronale induite par le proNGF. L’utilisation de souris knock-out pour la protéine p75NTR, son co-récepteur sortiline, ou la protéine adaptatrice NRAGE a permis de montrer que la production de TNF par les cellules gliales était dépendante de ces protéines. Le proNGF semble activer une signalisation cellulaire non-autonome qui cause la mort des neurones de façon dépendante du TNF in vivo. L’hypothèse centrale de l’excitotoxicité est que la stimulation excessive des récepteurs du glutamate sensibles au N-Methyl-D-Aspartate (NMDA) est dommageable pour les neurones et contribue à plusieurs maladies neurodégénératives. Les cellules gliales sont soupçonnées de contribuer à la mort neuronale par excitotoxicité, mais leur rôle précis est encore méconnu. Le dernier objectif de ma thèse était d’établir le rôle des cellules de Müller dans cette mort neuronale. Nos résultats ont démontré que l’injection de NMDA induit une activation du nuclear factor κB (NF-κB) dans les cellules de Müller, mais pas dans les CGRs, et que l’utilisation d’inhibiteurs du NF-κB empêche la mort des CGRs. De plus, nous avons montré que les cellules de Müller en réaction à l’activation du NF-κB produisent la protéine TNFα laquelle semble être directement impliquée dans la mort des CGRs par excitotoxicité. Cette mort cellulaire se produit principalement par l’augmentation à la surface des neurones des récepteurs AMPA perméables au Ca2+, un phénomène dépendant du TNFα. Ces donnés révèlent un nouveau mécanisme cellululaire non-autonome par lequel les cellules gliales peuvent exacerber la mort neuronale lors de la mise en jeu de mécanismes excitotoxiques.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce mémoire est composé de trois articles qui s’unissent sous le thème de la recommandation musicale à grande échelle. Nous présentons d’abord une méthode pour effectuer des recommandations musicales en récoltant des étiquettes (tags) décrivant les items et en utilisant cette aura textuelle pour déterminer leur similarité. En plus d’effectuer des recommandations qui sont transparentes et personnalisables, notre méthode, basée sur le contenu, n’est pas victime des problèmes dont souffrent les systèmes de filtrage collaboratif, comme le problème du démarrage à froid (cold start problem). Nous présentons ensuite un algorithme d’apprentissage automatique qui applique des étiquettes à des chansons à partir d’attributs extraits de leur fichier audio. L’ensemble de données que nous utilisons est construit à partir d’une très grande quantité de données sociales provenant du site Last.fm. Nous présentons finalement un algorithme de génération automatique de liste d’écoute personnalisable qui apprend un espace de similarité musical à partir d’attributs audio extraits de chansons jouées dans des listes d’écoute de stations de radio commerciale. En plus d’utiliser cet espace de similarité, notre système prend aussi en compte un nuage d’étiquettes que l’utilisateur est en mesure de manipuler, ce qui lui permet de décrire de manière abstraite la sorte de musique qu’il désire écouter.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’étude du discours de guerre destiné aux enfants de Montréal, entre 1914 et 1918, concernant la Première Guerre mondiale n’a pas retenu l’attention des historiens canadiens. Pourtant, à travers une analyse des journaux montréalais, des revues pédagogiques du Québec, de certains écrits gouvernementaux, il est possible de comprendre comment la guerre est expliquée aux enfants. Ce mémoire vise à mettre en relief les caractéristiques et les objectifs du discours de guerre destiné aux enfants montréalais d’âge primaire. Le premier chapitre s’attardera aux connaissances factuelles transmises aux enfants afin d’établir les raisons qui leur sont présentées quant aux origines de la guerre. Nous constaterons la mise en place d’un triple discours : un discours de peur, un discours visant à rassurer et un discours culpabilisant pour sensibiliser les enfants à l’effort de guerre canadien. Le chapitre suivant analyse les principales caractéristiques des récits de guerre proposés aux enfants. Nous serons ainsi en mesure de cerner les objectifs de ce genre d’histoires. Enfin, nous verrons la place de l’enfant dans le discours de guerre. Nous montrerons comment l’enfant des récits de guerre devient un acteur dans le conflit et comment les écrits utilisent les actions héroïques enfantines. Dans cette guerre qui insiste sur la mobilisation de tous, le discours s’adresse aux filles et, surtout, aux garçons. La Première Guerre mondiale est un sujet incontournable à tel point qu’elle sert de prétexte pour inculquer aux enfants certaines connaissances traditionnelles et nouvelles. Elle s’immisce dans le quotidien de l’enfant, à l’école, dans ses loisirs et dans ses corvées familiales. L’enfant doit développer son patriotisme et les qualités « naturelles » propres à son sexe : les garçons doivent apprendre à faire la guerre et les filles à la soutenir. Le discours de guerre cherche à embrigader l’enfant dans l’effort de guerre canadien. Il insiste sur plusieurs nouvelles thématiques qui auparavant ne faisaient pas partie des enseignements habituels, comme la situation géopolitique de la Belgique. Il incite les petits Montréalais à devenir de bons futurs citoyens qui sauront, si l’occasion se représente, donner leur vie pour leur pays, mais, dans l’immédiat, il les incite surtout à participer à l’effort de guerre.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La communication cellulaire est un phénomène important pour le maintien de l’homéostasie des cellules. Au court des dernières années, cette sphère de recherche sur la signalisation cellulaire a connue des avancées importantes au niveau de l’identification des acteurs principaux impliqués dans la reconnaissance extracellulaire des signaux, ainsi que la compréhension des voies de signalisation engagées par les cellules pour répondre aux facteurs extracellulaires. Malgré ces nouvelles informations, les diverses interrelations moléculaires entre les acteurs ainsi que les voies de signalisation cellulaire, demeurent mal comprises. Le transfert d’énergie de résonance de bioluminescence (BRET) permet la mesure d’interactions protéiques et peut être utilisé dans deux configurations, le BRET480-YFP (connu aussi comme le BRET1) et le BRET400-GFP (connu aussi en tant que BRET2). Suite à l’oxydation de son substrat, la luciférase de renilla peut transférer son énergie à une protéine fluorescente, uniquement si elles sont à proximité l’une de l’autre (≤100Å). La combinaison dans un seul essai des BRET480-YFP et BRET400-GFP, a permis de suivre trois paires d’interactions, sur une même population cellulaire. Par contre, l’utilisation de deux substrats pour la réaction de bioluminescence rend impossible la mesure simultanée des différents signaux de BRET, pour ce trois nouvelles configurations de BRET ont été mises au point en utilisant des nouvelles protéines fluorescentes. Ainsi deux des nouvelles couleurs de BRET ayant des émissions résolues, le BRET400-BFP et le BRET400mAmetrine ont pu être combinées pour mesurer l’engagement par un RCPG d’une protéine G, ainsi que l’accumulation du second messager. La combinaison de ces BRET a également permis de révéler la formation d’un complexe entre le récepteur α2A adrénergique (α2AAR), Gαi1, le dimère Gβγ ainsi que la kinase des récepteurs couplés aux protéines G (GRK2), suite à l’activation du récepteur. De plus, seule l’entrée de GRK2 semble être en mesure de causer la désensibilisation du α2AAR, en s’intercalant entre Gαi1 et Gβγ. Par contre, la stabilisation de l’interaction entre α2AAR et la β-arrestine2 semble nécessiter l’activité kinase de GRK2. Une autre étude a révélé l’importance de différentes Gα pour la mobilisation du calcium, suite à l’activation du récepteur aux opioïdes de type delta (DOR). Suite à la surexpression de Gα de la famille Gαq, il a été possible de mesurer une influence de ces Gα sur la mobilisation du calcium. Toutefois, cette réponse calcique mesurée en présence des Gαq demeure sensible aux prétraitements à la toxine de Bordetella pertussis, qui inhibe sélectivement l’activité des Gαi. De plus, la co-expression de Gαi et Gαq permet de potentialiser la mobilisation de calcium, démontrant une interrelation entre ces deux familles de protéine Gα, pour la signalisation du DOR. Afin de démontrer l’interrelation directe, des expériences de BRET ont été réalisées entre différentes Gα. En plus de montrer la formation de complexes sélectifs entre les Gα, les expériences de BRET réalisées en parallèle d’analyses de séquences de Gα, ont également mis à jour un site de sélectivité d’interaction entre les Gα, l’hélice α4. Suite à la transposition de cette hélice α4 de Gα12 sur Gαi1, qui normalement n’interagissent pas, il a été possible de forcer l’interaction entre Gα12 et Gαi1, confirmant ainsi que cette hélice α contient l’information permettant une sélectivité d’interaction. Au cours de cette thèse, il a été possible de générer de nouvelles méthodes de mesure d’interactions protéiques qui permettent de multiplexer différents signaux, ce qui a permis de mettre à jour de nouvelles interactions entre divers effecteurs de la signalisation de RCGP

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette recherche avait pour objectif d’évaluer l’effet du dispositif de formation « Zoom sur l’expertise pédagogique », ou, plus précisément, d’évaluer l’effet d’un parcours de formation créé grâce à ce dispositif et intégrant des exemples de pratiques sur vidéo sur les apprentissages et les intentions de changement de pratique d’un groupe d’enseignants du primaire relativement à la compétence professionnelle « Piloter des situations d’enseignement-apprentissage ». La réforme des programmes scolaires, qui s’installe progressivement depuis 2001, modifie considérablement les orientations en matière d’apprentissage et d’enseignement. Sa réussite repose notamment sur l’appropriation de nouvelles compétences professionnelles souvent difficiles à développer pour le personnel enseignant. À ces besoins de formation, les modalités de formation continue proposées ne semblaient répondre que partiellement. Le dispositif a été développé dans le but de soutenir le personnel enseignant dans l’appropriation de ce renouveau pédagogique et propose de nouvelles stratégies de formation basées principalement sur l’observation et l’analyse d’exemples de pratiques sur vidéo et enrichis de divers outils stimulant la réflexion sur la pratique. Sa conception s’inscrit dans un contexte d’émergence d’initiatives similaires. Néanmoins, beaucoup de questions restaient en suspens quant aux effets réels de ces dispositifs sur le développement professionnel des enseignants. Afin de réaliser une évaluation de ce dispositif, nous avons créé un parcours de formation que six enseignants ont réalisé. Ces personnes ont ensuite participé à deux entrevues semi-dirigées et ont partagé les notes prises durant la formation. Un cadre théorique a été développé, permettant de dégager trois questions de recherche : « Quels ont été les effets du dispositif de formation sur les savoirs relatifs aux composantes de la compétence ciblée ? » ; « Quels ont été les effets du dispositif de formation sur les intentions de changement de pratique des enseignants ? » ; « Comment améliorer le dispositif pour mieux soutenir le développement professionnel des enseignants ? ». Ce cadre a par la suite guidé l’analyse et l’interprétation des données recueillies. Une quantité substantielle d’informations a été obtenue permettant de mieux comprendre et documenter le rôle d’un tel dispositif de formation en ligne et des vidéos qui le composent. Nous avons pu confirmer leur effet positif sur le développement professionnel. Nous retenons notamment que les enseignants sont en mesure de mieux définir les composantes de la compétence ciblée par la formation, ils ont confirmé leur sentiment d’avoir appris, ils ont tous exprimé l'intention d’apporter des changements dans leur pratique. Tous ont grandement apprécié le parcours et ses vidéos, notamment la possibilité qu’elles leur offraient de s’identifier à des pairs et d’envisager des pistes de mise en application plus concrètes de leurs nouvelles connaissances. Par ailleurs, les commentaires et les suggestions des participants ont permis de dégager des pistes d’amélioration telles que la diminution de la quantité de vidéos, du nombre d’éléments de compétence présentés, ou l’augmentation de compléments pédagogiques accompagnant les vidéos. Ces pistes devraient toutefois être précisées et étudiées ce qui génère de nouvelles questions de recherches.