767 resultados para Lignée Spécification


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réflexion sur l’intégration au travail des nouvelles enseignantes touche de plus en plus la communauté des chercheurs en éducation. Avec la valorisation de la pratique réflexive, l’enseignante se voit plus que par le passé autorisé à exercer une grande liberté d’action dans son travail, ainsi qu’une grande autonomie en ce qui à trait à l’exécution de sa tâche. Cette liberté peut être lourde à porter, surtout lorsqu’on entre dans le métier. Aussi, pour soutenir cette liberté et la diriger, la référence aux valeurs demeure fondamentale. Dans le présent mémoire, nous tentons d’en savoir plus sur les valeurs qui animent ces nouvelles venues, et comment celles-ci les aident à vivre leur intégration et à concevoir leur place dans le métier. La cueillette des données effectuée à partir de leurs réflexions, souvent profondes, sur les valeurs personnelles, les valeurs au travail et le rapport au métier, permet une analyse du discours basée sur le ressenti et l’expérience. C’est en puisant dans les thèses de la modernité et de la postmodernité, toutes deux parlantes quant à l’époque actuelle, que nous tentons de mieux cerner et induire les valeurs propres aux enseignantes ayant participé à notre étude phénoménologique de type exploratoire. Grâce à l’analyse de contenu, nous sommes à même de constater que malgré une ligne de partage présente entre certaines valeurs dites modernes et postmodernes, il n’en demeure pas moins qu’une tendance se dessine : nos nouvelles enseignantes désirent être fidèles d’abord et avant tout à elles-mêmes, même si cela implique l’abandon du métier qu’elles envisagent toutes comme une possibilité, sans exception. Cela en dit long sur leurs priorités et leurs valeurs au travail. Il est clair qu’elles travaillent de manière à se sentir authentiques, toujours avec le souci de savoir s’adapter aux nouvelles situations. Cependant, même si certaines d’entre elles trouvent plus ardu de s’adapter à une demande en matière de flexibilité professionnelle à la hausse, il n’en demeure pas moins que la flexibilité au travail est un élément désormais bien intégré à l’habitus professionnel des enseignantes pratiquant depuis dix ans et moins. Si postmodernes que ça nos nouvelles enseignantes? Oui.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présence d’un récepteur de type RXR a récemment été rapporté chez la pensée de mer, Renilla koellikeri, de même que chez d’autres anthozoaires, et le NO semble jouer des différents rôles physiologiques, chez plusieurs cnidaires. L’acide rétinoïque (AR) et le monoxyde d’azote (NO) sont connus pour leur implication dans l’induction de la croissance des neurites chez les vertébrés ainsi que chez les invertébrés. Mais jusqu’à présent, aucun rôle de ces agents n’a encore été identifié chez ce phylum ancien des invertébrés. Dans le but de montrer que ces agents morphogénétiques ont un rôle dans le développement neuronal chez ces ancêtres des métazoaires bilatéraux, nous avons utilisé des cultures primaires de cellules du cnidaire anthozoaire Renilla koellikeri (pensée de mer), doté d’un système nerveux des plus primitif. Nous avons trouvé que les deux types d’acide rétinoïque, 9-cis et 11-trans, induisent une prolifération cellulaire dose-dépendante en fonction du temps dans les boîtes de pétri enduites de polylysine. Les cultures cellulaires exposées à l’acide rétinoïque dans les boîtes sans polylysine montrent une différenciation en des cellules épithéliales. D’autre part, le NO induit exclusivement une différenciation neuronale dans les boîtes enduites de polylysine. Aucun autre type de cellules subit un différenciation en présence de NO et la densité des cellules dédifférenciées a diminué. Les prolongements des neurones différenciés semblent s’enchevêtrer et former un réseau neuronal assez dense. L’ensemble de ces observations suggère que l’acide rétinoïque, contrairement à NO, est associé à l’activité mitotique, et que l’acide rétinoïque et le NO sont impliqués différemment dans la spécification cellulaire, respectivement épithéliale et neuronale, chez la pensée de mer. Le type d’action déclenchée, qu’il soit la mitogénèse ou la différenciation (épithéliale ou neuronale), varie alors selon l’état d’adhésion des cellules au substrat. Comme les données moléculaires et paléontologiques rapprochent les cnidaires, telle la pensée de mer, des ancêtres des eumétazoaires, nos résultats suggèrent que le rôle morphogénétique de l’acide rétinoïque et du NO est enraciné dans l’ancêtre commun de tous les métazoaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le développement logiciel en industrie, les documents de spécification jouent un rôle important pour la communication entre les analystes et les développeurs. Cependant, avec le temps, les changements de personel et les échéances toujours plus courtes, ces documents sont souvent obsolètes ou incohérents avec l'état effectif du système, i.e., son code source. Pourtant, il est nécessaire que les composants du système logiciel soient conservés à jour et cohérents avec leurs documents de spécifications pour faciliter leur développement et maintenance et, ainsi, pour en réduire les coûts. Maintenir la cohérence entre spécification et code source nécessite de pouvoir représenter les changements sur les uns et les autres et de pouvoir appliquer ces changements de manière cohérente et automatique. Nous proposons une solution permettant de décrire une représentation d'un logiciel ainsi qu'un formalisme mathématique permettant de décrire et de manipuler l'évolution des composants de ces représentations. Le formalisme est basé sur les triplets de Hoare pour représenter les transformations et sur la théorie des groupes et des homomorphismes de groupes pour manipuler ces transformations et permettrent leur application sur les différentes représentations du système. Nous illustrons notre formalisme sur deux représentations d'un système logiciel : PADL, une représentation architecturale de haut niveau (semblable à UML), et JCT, un arbre de syntaxe abstrait basé sur Java. Nous définissons également des transformations représentant l'évolution de ces représentations et la transposition permettant de reporter les transformations d'une représentation sur l'autre. Enfin, nous avons développé et décrivons brièvement une implémentation de notre illustration, un plugiciel pour l'IDE Eclipse détectant les transformations effectuées sur le code par les développeurs et un générateur de code pour l'intégration de nouvelles représentations dans l'implémentation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La divison cellulaire asymétrique est un processus essentiel qui permet aux cellules souches de s’auto-renouveller et de produire une cellule fille destinée à la différenciation. La lignée germinale de C. elegans, totipotente et immortelle, est une lignée de cellules souches qui contient des organites ribonucléoprotéiques appelés granules P. Au cours du développement ces derniers sont toujours localisés spécifiquement dans les cellules précurseurs de la lignée germinals, suggérant qu’ils sont des déterminants de la lignée germinale. De façon intéressante, des granules ribonucléoprotéiques, comme les P bodies impliqués dans le contrôle post-transcriptionnel, ont été observés chez tous les organismes. Néanmoins, la fonction précise des granules P de C. elegans est inconnue. Récemment, notre laboratoire a montré que NHL-2, un homologue de Mei-P26 de Drosophile, colocalise avec les granules P dans des embryons précoces et joue un rôle dans la division cellulaire asymétrique et dans la polarité cellulaire. Tous les granules P contiennent NHL- 2, ce qui nous a mené à poser l’hypothèse que NHL-2 régule la biogenèse et la fonction des granules P. Nous avons testé cette hypothèse par imagerie et quantification de l'intensité de PGL-1, un composant essentiel des granules P, dans des embryons fixés. Nos résultats montrent que dans des embryons mutants pour nhl-2 il y a une réduction du nombre de granules P, de l'intensité de fluorescence moyenne (IFM) et de l'intensité de fluorescence total (IFT) de PGL-1. Une analyse plus poussée a montré qu'il existe deux populations distinctes d’embryons mutants pour nhl-2 : l’une présente une intensité de PGL-1 comparable à celle d’une population sauvage alors que le second groupe présente une forte réduction des quantités de PGL-1 et est comparable à des mutants pour pgl-1. Cette variabilité est aussi observée dans le phénotype de stérilité de nhl-2 mutant à des températures élevées. Globalement, nos résultats suggèrent que la perte de fonction de NHL-2 perturbe la prolifération des cellules germinales ainsi que la formation et/ou la stabilité des granules P au cours des étapes précoces du développement des précurseurs de la lignée germinals. D’autre part, ils suggèrent que la fonction de NHL-2 pourrait être partiellement redondants avec les autres régulateurs de la stabilité des granules P. Mots-clés : Granules P, NHL-2, Cellules germinals.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les récents progrès en neuroimagerie ont permis, au cours des dernières années, de faire avancer les connaissances sur les maladies neurologiques et psychiatriques en offrant la possibilité de mieux comprendre l’évolution des maladies neurodégénératives et la nature du comportement, des émotions, de la personnalité, et de la cognition. Plusieurs défis éthiques ont émergés suite à l’utilisation de ces nouvelles technologies d’imagerie cérébrale. La perspective des chercheurs concernant les pratiques d’évaluation des protocoles de recherche en neuroimagerie ainsi que les défis éthiques, sociaux et légaux auxquels font face les chercheurs n'ont pas encore été étudiés, même s’ils constituent des acteurs clés. Nous avons entrepris une étude empirique sur les perspectives des chercheurs quant au processus d'évaluation par les comités d’éthique de la recherche (CÉR) afin d’examiner les enjeux éthiques, légaux et sociaux liés à la pratique de la neuroimagerie au Canada. Pour ce faire, nous avons expédié un questionnaire en ligne et réalisé des entrevues semi-structurées avec des chercheurs en neuroimagerie et des présidents des CÉR. Les entrevues ont été transcrites et analysées à l'aide du logiciel d'analyse qualitative Nvivo. Nos résultats ont mis en lumière plusieurs aspects éthiques légaux et sociaux suscitant une attention particulière afin de remédier aux défis actuels dans la recherche en neuroimagerie ainsi qu’au processus d’évaluation de la recherche par les CÉR. Nos données comportent également des recommandations provenant des chercheurs eux-mêmes afin d'améliorer le processus d'évaluation. Finalement, notre propre expérience avec cette étude multicentrique nous a permis de constater plusieurs des défis mentionnés par les chercheurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est généralement admis que la vision joue un rôle prépondérant dans la formation des représentations spatiales. Qu’advient-il alors lorsqu’un individu est atteint de cécité? Dans le premier volet de cette thèse, les habiletés spatiales des personnes aveugles ont été examinées à l’aide de différentes tâches et comparées à celles de personnes voyantes effectuant les mêmes tâches avec les yeux bandés. Dans une première étude, les capacités de rotation mentale ont été évaluées à l’aide d’une épreuve d’orientation topographique tactile. Les résultats obtenus montrent que les personnes aveugles parviennent généralement à développer des capacités de rotation mentale similaires à celles de personnes voyantes et ce, malgré l’absence d’information de nature visuelle. Dans une seconde étude, nous avons utilisé différentes tâches spatiales nécessitant l’utilisation de la locomotion. Les résultats obtenus montrent que les personnes aveugles font preuve d’habiletés supérieures à celles de voyants lorsqu’elles doivent apprendre de nouveaux trajets dans un labyrinthe. Elles parviennent également à mieux reconnaître une maquette représentant un environnement exploré précédemment. Ainsi, l’absence de vision ne semble pas entraver de manière significative la formation de concepts spatiaux. Le second volet de cette thèse s’inscrit dans la lignée des études sur la plasticité cérébrale chez les personnes aveugles. Dans le cas présent, nous nous sommes intéressés à l’hippocampe, une structure profonde du lobe temporal dont le rôle au plan spatial a été établi par de nombreuses études animales ainsi que par des études cliniques chez l’humain incluant l’imagerie cérébrale. L’hippocampe joue un rôle particulièrement important dans la navigation spatiale. De plus, des changements structuraux de l’hippocampe ont été documentés en relation avec l’expérience des individus. Par exemple, l’étude de Maguire et al. (2000) a mis en évidence de telles modifications structurelles de l’hippocampe chez des chauffeurs de taxi. À l’instar de ces derniers, les personnes aveugles doivent emmagasiner de nombreuses informations au sujet de leur environnement puisqu’elles ne peuvent bénéficier de la vision pour mettre à jour les informations sur celui-ci, sur leur position dans l’espace et sur la position des objets se trouvant hors de leur portée. Nous avons montré, pour la première fois, une augmentation du volume des hippocampes chez les personnes aveugles en comparaison avec les personnes voyantes. De plus, cette augmentation de volume était positivement corrélée à la performance à une tâche d’apprentissage de trajets. Les résultats présentés dans cette thèse permettent d’appuyer les études antérieures qui soutiennent que les personnes aveugles parviennent à compenser leur déficit et à développer des habiletés spatiales comparables, voire supérieures, à celles de personnes voyantes. Ils permettent également d’apporter un éclairage nouveau sur le concept de plasticité cérébrale présent chez cette population en montrant pour la première fois un lien entre le volume de l’hippocampe et les habiletés spatiales chez les personnes aveugles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les fichiers qui accompagnent le document incluent une archive .jar du zoom-éditeur (qui peut être lancé via un browser) et des exemples de z-textes réalisés avec ce logiciel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les émotions jouent un rôle primordial dans les processus cognitifs et plus particulièrement dans les tâches d’apprentissage. D’ailleurs, plusieurs recherches neurologiques ont montré l’interrelation qui existe entre la cognition et les émotions. Elles ont aussi déterminé plusieurs formes d’intelligence humaine autre que l’intelligence rationnelle parmi lesquelles nous distinguons la forme ayant comme dimension émotionnelle, à savoir l’intelligence émotionnelle, vu son impact sur les processus d’apprentissage. L’intelligence émotionnelle est alors un facteur significatif de réussite scolaire et professionnelle. Sous la lumière de ces constatations présentées, les informaticiens à leur tour, vont alors tenter de consentir de plus en plus de place au facteur émotionnel dans les systèmes informatiques et plus particulièrement dans ceux dédiés à l’apprentissage. L’intégration de l’intelligence émotionnelle dans ces systèmes et plus précisément, dans les Systèmes Tutoriels Intelligents (STI), va leur permettre de gérer les émotions de l’apprenant et par la suite améliorer ses performances. Dans ce mémoire, notre objectif principal est d’élaborer une stratégie d’apprentissage visant à favoriser et accentuer la mémorisation chez les enfants. Pour atteindre cet objectif, nous avons développé un cours d’anglais en ligne ainsi qu’un tuteur virtuel utilisant des ressources multimédia tels que le ton de la voix, la musique, les images et les gestes afin de susciter des émotions chez l’apprenant. Nous avons conduit une expérience pour tester l’efficacité de quelques stratégies émotionnelles ainsi qu’évaluer l’impact des émotions suscitées sur la capacité de mémorisation des connaissances à acquérir par l’apprenant. Les résultats de cette étude expérimentale ont prouvé que l’induction implicite des émotions chez ce dernier a une influence significative sur ses performances. Ils ont également montré qu’il n’existe pas une stratégie efficace pour tous les apprenants à la fois, cependant l’efficacité d’une telle stratégie par rapport à une autre dépend essentiellement du profil comportemental de l’apprenant déterminé à partir de son tempérament.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le traitement de première ligne de l’apnée obstructive du sommeil est l’appareil à pression positive, soit le CPAP, qui est le plus souvent utilisé avec un masque nasal. Certains patients, incapables de tolérer le masque nasal, doivent se tourner vers le masque facial, qui peut parfois requérir une pression supérieure à celle utilisée avec le masque nasal pour éliminer tous les événements respiratoires. Nous supposons que l’ajustement serré du masque facial, dans le but de réduire les fuites, entraîne une pression de recul sur la mandibule; ceci diminuerait le calibre des voies aériennes supérieures, nécessitant donc une pression effective thérapeutique supérieure pour rétablir un passage de l’air. Nos objectifs étaient : 1) de démontrer s’il y avait une différence de pression effective entre le masque nasal et le masque facial, 2) de quantifier la fuite entre les deux masques, 3) d’évaluer l’effet d’une orthèse de rétention mandibulaire neutre (OMN), qui empêche le recul mandibulaire, sur la pression effective des deux masques et 4) d’évaluer s’il existait un lien entre la céphalométrie et les réponses variables des individus. Méthodologie : Lors de cette étude expérimentale croisée, huit sujets (2 femmes, 6 hommes) avec une moyenne d’âge de 56,3ans [33ans-65ans] ont reçu un examen orthodontique complet incluant une radiographie céphalométrique latérale. Ils ont ensuite passé deux nuits de polysomnographie au laboratoire du sommeil en protocole « split-night » où les deux masques ont été portés, seuls, la première nuit, et avec l’OMN, la deuxième nuit. Résultats : Nous avons trouvé que la pression effective thérapeutique était supérieure avec le masque facial comparativement au masque nasal de manière statistiquement significative. Nous avons observé une fuite supérieure avec le masque nasal, ce qui permet de dire que la fuite n’explique probablement pas cette différence de pression entre les deux masques. L’OMN n’a pas donné d’effet statistiquement significatif lorsque combinée au masque nasal, mais il aurait probablement été possible de trouver un effet positif avec le masque facial si le Bi-PAP avait été inclus dans le protocole de recherche. Conclusion : Nos résultats ne permettent pas de confirmer le rôle du recul mandibulaire, causé par la force exercée avec le masque facial, dans l’obtention de pressions supérieures avec ce masque, mais nous ne pouvons toutefois pas éliminer l’hypothèse. Les résultats suggèrent également que ce phénomène est peut-être plus fréquent qu’on ne le croit et qu’il pourrait y avoir un lien avec certains facteurs anatomiques individuels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche avait pour objectif d’évaluer l’effet du dispositif de formation « Zoom sur l’expertise pédagogique », ou, plus précisément, d’évaluer l’effet d’un parcours de formation créé grâce à ce dispositif et intégrant des exemples de pratiques sur vidéo sur les apprentissages et les intentions de changement de pratique d’un groupe d’enseignants du primaire relativement à la compétence professionnelle « Piloter des situations d’enseignement-apprentissage ». La réforme des programmes scolaires, qui s’installe progressivement depuis 2001, modifie considérablement les orientations en matière d’apprentissage et d’enseignement. Sa réussite repose notamment sur l’appropriation de nouvelles compétences professionnelles souvent difficiles à développer pour le personnel enseignant. À ces besoins de formation, les modalités de formation continue proposées ne semblaient répondre que partiellement. Le dispositif a été développé dans le but de soutenir le personnel enseignant dans l’appropriation de ce renouveau pédagogique et propose de nouvelles stratégies de formation basées principalement sur l’observation et l’analyse d’exemples de pratiques sur vidéo et enrichis de divers outils stimulant la réflexion sur la pratique. Sa conception s’inscrit dans un contexte d’émergence d’initiatives similaires. Néanmoins, beaucoup de questions restaient en suspens quant aux effets réels de ces dispositifs sur le développement professionnel des enseignants. Afin de réaliser une évaluation de ce dispositif, nous avons créé un parcours de formation que six enseignants ont réalisé. Ces personnes ont ensuite participé à deux entrevues semi-dirigées et ont partagé les notes prises durant la formation. Un cadre théorique a été développé, permettant de dégager trois questions de recherche : « Quels ont été les effets du dispositif de formation sur les savoirs relatifs aux composantes de la compétence ciblée ? » ; « Quels ont été les effets du dispositif de formation sur les intentions de changement de pratique des enseignants ? » ; « Comment améliorer le dispositif pour mieux soutenir le développement professionnel des enseignants ? ». Ce cadre a par la suite guidé l’analyse et l’interprétation des données recueillies. Une quantité substantielle d’informations a été obtenue permettant de mieux comprendre et documenter le rôle d’un tel dispositif de formation en ligne et des vidéos qui le composent. Nous avons pu confirmer leur effet positif sur le développement professionnel. Nous retenons notamment que les enseignants sont en mesure de mieux définir les composantes de la compétence ciblée par la formation, ils ont confirmé leur sentiment d’avoir appris, ils ont tous exprimé l'intention d’apporter des changements dans leur pratique. Tous ont grandement apprécié le parcours et ses vidéos, notamment la possibilité qu’elles leur offraient de s’identifier à des pairs et d’envisager des pistes de mise en application plus concrètes de leurs nouvelles connaissances. Par ailleurs, les commentaires et les suggestions des participants ont permis de dégager des pistes d’amélioration telles que la diminution de la quantité de vidéos, du nombre d’éléments de compétence présentés, ou l’augmentation de compléments pédagogiques accompagnant les vidéos. Ces pistes devraient toutefois être précisées et étudiées ce qui génère de nouvelles questions de recherches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Endocytose joue un rôle dans l'activation du récepteur Notch. Des mutations dans le gène drosophilien lethal giant discs (lgd), provoque une prolifération cellulaire en perturbant l'endocytose de Notch. Les orthologues murins mlgd1 et 2 peuvent sauver ce phénotype, démontrant une fonction conservée. Cependant, des publications récentes suggèrent que les orthologs humains de lgd (hgd1/2) sont nucléaires. Dans cette étude, il est démontré que chez la Drosophile, le mutant dlgd(08) provoque l'accumulation de Notch dans des vésicules et une surprolifération de neuroblastes . Ceci suggère que Notch est activé a l'intérieur des endosomes dans les neuroblastes. L'immunohistochimie de cellules Hela indique que hlgd1 et 2 ne sont pas nucléaires, mais associés à des strctures endosomales. Enfin, la baisse d'expression par shRNA des gènes murins mlgd1 et mlgd2 provoque une différenciation accélérée des cellules souches hématopoïétiques dans la lignée lymphopoïèse T et bloque la transition DN3 / CD4+CD8+, suggérant une suractivation de Notch.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Québec, les tentatives de suicide chez les adolescents prennent une ampleur considérable dans le réseau public de la santé et un nombre élevé de ces adolescents suicidaires sont épris d’un trouble de personnalité limite (TPL). Ces adolescents TPL présentent de nombreuses crises associées aux conduites suicidaires et aux comportements d’automutilation les amenant à consulter des professionnels de la santé de manière récurrente due, entre autres, aux abandons prématurés de la thérapie. Considérant cette problématique préoccupante, ce mémoire s’est intéressé aux facteurs impliqués dans la complexité de l’intervention auprès des adolescents atteints d’un TPL selon la perception des thérapeutes. Ce projet exploratoire de type qualitatif a été effectué sous forme d’entrevues semi-structurées auprès de onze thérapeutes de troisième ligne en pédopsychiatrie. Dans ce contexte de soins psychiatrique au Québec, les résultats de ce projet confirme la complexité de l’intervention auprès de ces jeunes et font émerger plusieurs facteurs pouvant expliquer les difficultés liées au processus d’intervention en lien, entre autres, à la symptomatologie, au risque suicidaire élevé, au risque d’abandons prématurés, à leur grande instabilité émotionnelle, relationnelle et comportementale influençant, par le fait même, le thérapeute dans son savoir-faire et son savoir-être.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement hématopoïétique est régulé par l’action combinée de facteurs de transcription lignée spécifiques et de la machinerie transcriptionnelle de base, permettant ainsi l’expression de gènes en temps et lieu appropriés. Les travaux présentés dans cette thèse portent sur l’étude structurale et fonctionnelle d’interactions décisives pour la régulation de l’expression de gènes et impliquant des domaines de transactivation (TAD). En effet, les interactions faisant intervenir les TAD d’activateurs permettent de réguler l’activation de la transcription de façon spécifique. La première étude présentée dans cette thèse relate l'identification et la caractérisation d'une nouvelle interaction entre deux facteurs de transcription : le facteur hématopoïétique GATA-1 et la protéine suppresseur de tumeur p53. En combinant des études in vitro par titrage calorimétrique en condition isotherme (ITC) et par spectroscopie RMN et des études in vivo, nous avons identifié et caractérisé cette nouvelle interaction. Il s'avère que le TAD de p53 et le domaine de liaison à l’ADN de GATA-1 sont les domaines minimaux requis pour la formation de ce complexe. L'inhibition de la voie p53 par GATA-1 s’est avérée être la conséquence majeure de cette interaction, permettant ainsi le maintien en vie des précurseurs érythrocytaires via l’inhibition de l’apoptose. Un deuxième type d’interaction a fait l’objet d’études : l’interaction entre divers TAD et la machinerie transcriptionnelle de base, plus spécifiquement avec le Facteur général de Transcription IIH (TFIIH). La structure des complexes constitués par la sous-unité Tfb1/p62 du facteur TFIIH en interaction avec le TAD viral de VP16 d’une part, et avec le TAD humain du facteur érythrocytaire « Erythroid Krüppel-like factor» (EKLF) d’autre part, ont été résolues par spectroscopie RMN. La structure du complexe Tfb1/VP16 a révélée que le mode de liaison de VP16 à Tfb1 est similaire au mode de liaison du TAD de p53 avec le même partenaire. En effet, les TAD de VP16 et de p53 forment tous deux une hélice α de 9 résidus en interaction avec Tfb1. En dépit de partager avec p53 et VP16 le même site de liaison sur Tfb1/p62, la structure RMN du complexe EKLF/Tfb1 démontre que le mode d’interaction de ce TAD se distingue du mode de liaison canonique des activeurs transcriptionnels. Etonnamment, EKLF adopte un mécanisme de liaison semblable au mécanisme de liaison du facteur général de transcription TFIIEα avec p62, leurs conformations demeurent étendues en interaction avec Tfb1/p62. En se basant sur nos données structurales, nous avons identifié un résidu dans le TAD d'EKLF décisif pour la formation du complexe EKLF/p62 : le Trp73. La mutation de cet acide aminé perturbe son interaction avec Tfb1PH/p62PH et réduit significativement l'activité transcriptionnelle d'EKLF dans les érythrocytes.