442 resultados para Modèle en proaction
Resumo:
Résumé Cette étude quasi expérimentale consistait à élaborer et à mettre à l’essai une mesure de soutien à l’intention d’enseignants débutants ainsi qu’à évaluer l’efficacité de celle-ci. L’une des particularités de cette mesure, appelée Dispositif de soutien en gestion de classe, était qu’elle était centrée essentiellement sur le développement de la compétence à gérer la classe. L’application du dispositif, échelonnée sur une année scolaire, portait sur une trentaine d’enseignants débutants œuvrant au primaire, en milieu défavorisé, à Montréal. Basé sur les trois phases du modèle théorique d’Archambault et Chouinard (2003), le dispositif se déclinait selon trois cycles de formation : l’établissement du fonctionnement de la classe, le maintien de celui-ci et le soutien à la motivation scolaire, ainsi que l’intervention pour résoudre des problèmes de comportement. Chaque cycle commençait par une journée de formation et d’appropriation (JFA) durant laquelle il y avait présentation d’un contenu théorique puis des ateliers d’appropriation. Par la suite, les enseignants effectuaient des mises en pratique dans leur classe. Pour terminer le cycle, un autre type de rencontre, la rencontre de suivi (RS), servait entre autres à objectiver la pratique. L’aspect original de cette mesure de soutien était que la première rencontre de formation était offerte une semaine avant la rentrée scolaire. Sur le thème « Commencer l’année du bon pied en gestion de classe », cette journée avait pour objectif de soutenir les enseignants débutants dans l’installation du fonctionnement de leur classe. L’efficacité du dispositif a été évaluée sur la base de trois dimensions : l’établissement et le maintien de l’ordre et de la discipline, le sentiment d’efficacité personnelle ainsi que la motivation professionnelle. Les perceptions du groupe d’enseignants débutants ayant pris part aux activités du dispositif (n = 27) ont été comparées à celles d’un groupe témoin (n = 44). Les participants avaient, en moyenne, 2,9 années d’expérience et leur âge variait de 23 à 56 ans. Les données ont été recueillies à l’aide d’un questionnaire auto rapporté rempli en deux temps, soit au deuxième et au huitième mois de l’année scolaire. Les scores des enseignants débutants du dispositif ont augmenté dans le temps pour l’ensemble des variables à l’étude. De plus, les analyses de variance à mesures répétées ont révélé que le dispositif a eu une triple incidence positive, attestée par des effets d’interaction. Les enseignants débutants engagés dans la démarche ont connu une augmentation de leur capacité à implanter les règles de classe, de leur sentiment d’efficacité personnelle à gérer les situations d’apprentissage et de leur motivation professionnelle. En effet, alors que, au début de l’étude, ils rapportaient des scores significativement inférieurs à ceux du groupe témoin, à la fin, les scores étaient équivalents. Les résultats ont aussi montré que les participants du groupe expérimental se distinguaient en affichant un meilleur sentiment d’efficacité à faire apprendre leurs élèves. L’étude nous apprend également que le sentiment d’efficacité personnelle à faire face aux problèmes de comportement et la capacité à gérer les comportements se sont renforcés de façon significative dans le temps chez l’ensemble des enseignants débutants. Finalement, aucun changement significatif n’a été détecté pour deux des huit variables à l’étude : le sentiment d’efficacité personnelle à avoir un effet sur le comportement des élèves et l’application des règles de classe. En définitive, ces résultats sont encourageants. Ils montrent l’enrichissement professionnel que les enseignants débutants peuvent retirer lorsqu’ils sont soutenus adéquatement. Nous croyons que la journée de formation portant sur l’installation du fonctionnement de la classe, avant la rentrée scolaire, a joué un rôle central dans les succès vécus par les enseignants débutants participants. C’est pourquoi nous recommandons ce type de formation assorti d’un suivi à long terme, où d’autres composantes entrent en jeu, afin de nourrir le sentiment d’efficacité personnelle et la motivation professionnelle des nouveaux enseignants.
Resumo:
L’objectif de notre recherche est l’exploration et l’étude de la question de l’instrumentation informatique des projets de reconstitution archéologiques en architecture monumentale dans le but de proposer de nouveaux moyens. La recherche a pour point de départ une question, à savoir : « Comment, et avec quels moyens informatiques, les projets de reconstitution architecturale pourraient-ils être menés en archéologie? ». Cette question a nécessité, en premier lieu, une étude des différentes approches de restitution qui ont été mises à contribution pour des projets de reconstitution archéologiques, et ceci, à ses différentes phases. Il s’agit de comprendre l’évolution des différentes méthodologies d’approche (épistémologiquement) que les acteurs de ce domaine ont adoptées afin de mettre à contribution les technologies d’information et de communication (TIC) dans le domaine du patrimoine bâti. Cette étude nous a permis de dégager deux principales avenues: une première qui vise exclusivement la « représentation » des résultats des projets et une seconde qui vise la modélisation de ce processus dans le but d’assister l’archéologue dans les différentes phases du projet. Nous démontrons que c’est la deuxième approche qui permet la combinaison et met à la disposition des archéologues une meilleure exploitation des possibilités que l’outil informatique peut et pourra présenter. Cette partie permet de démontrer la nature systémique et complexe de la mise à contribution des TICs dans le domaine de la restitution archéologique. La multitude des acteurs, des conditions techniques, culturelles et autres, des moyens utilisés ainsi que la variété des objectifs envisagés dans les projets de reconstitution archéologiques poussent à explorer une nouvelle approche qui tient compte de cette complexité. Pour atteindre notre objectif de recherche, la poursuite de l’étude de la nature de la démarche archéologique s’impose. Il s’agit de comprendre les liens et les interrelations qui s’établissent entre les différentes unités techniques et intellectuelles en jeu ainsi que les différents modes de réflexions présents dans les projets de reconstitution archéologique du patrimoine bâti. Cette étude met en évidence le rapport direct entre le caractère subjectif de la démarche avec la grande variabilité des approches et des raisonnements mis en œuvre. La recherche est alors exploratoire et propositionnelle pour confronter notamment le caractère systémique et complexe de l’expérience concrète et à travers les publications savantes, les éléments de la réalité connaissable. L’étude des raisonnements archéologiques à travers les publications savantes nous permet de proposer une première typologie de raisonnements étudiés. Chacune de ces typologies reflète une méthodologie d’approche basée sur une organisation d’actions qui peut être consignée dans un ensemble de modules de raisonnements. Cette recherche fait ressortir, des phénomènes et des processus observés, un modèle qui représente les interrelations et les interactions ainsi que les produits spécifiques de ces liaisons complexes. Ce modèle témoigne d’un processus récursif, par essais et erreurs, au cours duquel l’acteur « expérimente » successivement, en fonction des objectifs de l’entreprise et à travers des modules de raisonnements choisis, plusieurs réponses aux questions qui se posent à lui, au titre de la définition du corpus, de la description, de la structuration, de l’interprétation et de la validation des résultats, jusqu’à ce que cette dernière lui paraisse satisfaire aux objectifs de départ. Le modèle établi est validé à travers l’étude de cas du VIIème pylône du temple de Karnak en Égypte. Les résultats obtenus montrent que les modules de raisonnements représentent une solution intéressante pour assister les archéologues dans les projets de reconstitution archéologiques. Ces modules offrent une multiplicité de combinaisons des actions et avantagent ainsi une diversité d’approches et de raisonnements pouvant être mis à contribution pour ces projets tout en maintenant la nature évolutive du système global.
Resumo:
Les politiques éducatives se multiplient à l’échelle des pays industrialisés mais celles-ci semblent rencontrer de graves problèmes d’atteinte de résultats concrets et satisfaisants. La mise en œuvre d’une politique, notamment les stratégies gouvernementales « hybrides » sélectionnées, c’est-à-dire des stratégies d’implantation de politiques qui misent à la fois sur des stratégies « top-down » et aussi « bottom-up », semble être un élément-clé à considérer pour leur efficience (Gather-Thurler, 2000; Van Zanten, 2004; Fullan, 2005, 2007). Or, les connaissances concernant ces stratégies de mise en œuvre sont partielles, encore peu développées et les raisons qui expliquent ces choix politiques se font rares; ce qui rend la production de politiques effectives et durables difficile (Fullan, 2000; Leithwood et Earl, 2000; Van Zanten, 2004). Le Québec a entrepris, en 1997, une réforme à grande échelle de son système d’éducation; réforme qui mise explicitement sur des stratégies gouvernementales « hybrides » pour sa réalisation. Cette étude s’attarde à cette réforme, plus spécifiquement à sa réforme du curriculum au primaire, afin de : 1) retracer les grands moments-clés de la mise en œuvre de la politique associés aux différentes dimensions du concept d’« hybridité »; 2) identifier et décrire les stratégies gouvernementales « hybrides » qui leur sont associées; 3) formuler des hypothèses explicatives provisoires et les valider; 4) élaborer un modèle explicatif et 5) expliciter l’incidence du modèle proposé sur les théories existantes. Cette étude de cas est effectuée par l’entremise de deux formes de cueillette de données complémentaires : une analyse documentaire et des entrevues semi-dirigées. Une analyse documentaire est réalisée à partir des documents formels de l’autorité publique (N=14) et d’une revue de presse, de 1995 à 2003 (N=648). Les entrevues (N=23) visent, pour leur part, à recueillir les propos des : 1) concepteurs et décideurs; 2) opérationnalisateurs; 3) concepteurs-opérationnalisateurs et 4) experts. La combinaison des données recueillies permet d’établir la comparaison entre le processus et la structure (Meny et Thoenig, 1989), le prescriptif et l’effectif, afin de comprendre la vraie dynamique qui a animé le processus de mise en œuvre de la politique étudiée. Ainsi, l’examen du processus de mise en œuvre de la réforme du curriculum québécois du primaire permet de retracer le modèle d’implantation de la politique curriculaire québécoise. Ce modèle d’implantation novateur fait état du fait que des stratégies hybrides non improvisées et exigeantes furent pensées et proposées par les autorités québécoises. Ce modèle d’implantation élaboré permettait de penser que la politique curriculaire québécoise allait, possiblement, permettre d’obtenir des résultats tangibles et durables dans les milieux scolaires. L’analyse de la structure de mise en œuvre révèle, pour sa part, que les stratégies d’implantation qui se sont déployées sur le terrain rejoignaient presqu’intégralement les stratégies « hybrides » initialement prévues. Le processus d’implantation a cependant connu une évolution différente de celle attendue. La mise en œuvre concrète qui s’est vécue sur le terrain fut difficile et hasardeuse, malgré l’approche « hybride » adoptée. Les éléments qui expliquent les difficultés d’implantation vécues sont présentés et analysés dans cette étude.
Resumo:
Le regroupement des neurones de propriétés similaires est à l’origine de modules permettant d’optimiser l’analyse de l’information. La conséquence est la présence de cartes fonctionnelles dans le cortex visuel primaire de certains mammifères pour de nombreux paramètres tels que l’orientation, la direction du mouvement ou la position des stimuli (visuotopie). Le premier volet de cette thèse est consacré à caractériser l’organisation modulaire dans le cortex visuel primaire pour un paramètre fondamental, la suppression centre / pourtour et au delà du cortex visuel primaire (dans l’aire 21a), pour l’orientation et la direction. Toutes les études ont été effectuées à l’aide de l’imagerie optique des signaux intrinsèques sur le cortex visuel du chat anesthésié. La quantification de la modulation par la taille des stimuli à permis de révéler la présence de modules de forte et de faible suppression par le pourtour dans le cortex visuel primaire (aires 17 et 18). Ce type d’organisation n’avait été observé jusqu’ici que dans une aire de plus haut niveau hiérarchique chez le primate. Une organisation modulaire pour l’orientation, similaire à celle observée dans le cortex visuel primaire a été révélée dans l’aire 21a. Par contre, contrairement à l’aire 18, l’aire 21a ne semblait pas être organisée en domaine de direction. L’ensemble de ces résultats pourront permettre d’alimenter les connaissances sur l’organisation anatomo-fonctionnelle du cortex visuel du chat mais également de mieux comprendre les facteurs qui déterminent la présence d’une organisation modulaire. Le deuxième volet abordé dans cette thèse s’est intéressé à l’amélioration de l’aspect quantitatif apporté par l’analyse temporelle en imagerie optique des signaux intrinsèques. Cette nouvelle approche, basée sur l’analyse de Fourier a permis d’augmenter considérablement le rapport signal / bruit des enregistrements. Toutefois, cette analyse ne s’est basée jusqu’ici que sur la quantification d’une seule harmonique ce qui a limité son emploi à la cartographie de l’orientation et de rétinotopie uniquement. En exploitant les plus hautes harmoniques, un modèle a été proposé afin d’estimer la taille des champs récepteurs et la sélectivité à la direction. Ce modèle a par la suite été validé par des approches conventionnelles dans le cortex visuel primaire.
Resumo:
En raison de sa force explicative et opérationnelle, la théorie du choix rationnel est utilisée au sein de plusieurs disciplines des sciences sociales. Alors que la majorité des économistes conçoivent la théorie du choix rationnel comme un processus de maximisation de l’utilité, la portée de ce modèle est le sujet de nombreuses critiques. Pour plusieurs, certaines préférences ne peuvent être modulées à l’intérieur de ce cadre. Dans ce mémoire, trois conceptions alternatives de la théorie du choix rationnel sont présentées : la rationalité comme présence virtuelle, la rationalité comme mécanisme intentionnel et la rationalité en tant que science du choix. Une analyse critique de celles-ci est effectuée. En design institutionnel, ces trois conceptions de la rationalité offrent des perspectives distinctes. La première met l’emphase sur les motivations non-égocentriques. La seconde mise sur l’aspect adaptatif du processus. La rationalité jouant un rôle privilégié, mais non exclusif, les mécanismes causaux doivent également être considérés. La troisième implique de formuler des règles institutionnels différentes dépendamment du modèle de l’agent rationnel qui est mis de l’avant. L’établissement de règles institutionnelles varie en fonction de la conception adoptée parmi ces théories du choix rationnel.
La rencontre des contraires : attraction/narration et immersion/réflexivité dans le film en IMAX 3-D
Resumo:
Ce mémoire est consacré à la question de la réception spectatorielle des films en IMAX 3-D. Dans un premier temps, nous retracerons l’histoire du cinéma stéréoscopique, des origines jusqu’à l’inauguration de l’IMAX 3-D en 1986. Nous verrons que le modèle de l’attraction cinématographique s’est maintenu de tout temps dans l’économie de ce format, ce qui a contribué aux échecs de son institutionnalisation dans les années 50 et 80. En un deuxième temps, nous nous intéresserons à l’« expérience IMAX », afin de cerner la position qui y est attribuée au spectateur. Nous montrerons que les films IMAX misent à la fois sur leur potentiel immersif et sur la mise en évidence du dispositif. L’état d’immersion du spectateur entre donc en dialogue avec la réflexivité du médium. Par l’analyse des films Sea Monsters : A Prehistoric Adventure et Haunted Castle, il sera démontré que cette tension entre immersion et réflexivité sert un discours de glorification de l’IMAX. Aussi, nous interrogeons les liens entre la structure ponctuelle imposée par le modèle attractionnel et le fil narratif immanquablement mis en place dans les films IMAX.
Resumo:
L’hypertension systolique isolée (HSI) est le résultat de changements au niveau de la paroi vasculaire qui ont pour conséquence d’augmenter la rigidité artérielle. Ces modifications surviennent surtout au niveau des grosses artères comme l’aorte et sont associées au vieillissement. La fragmentation des fibres élastiques, leur calcification (élastocalcinose) et la fibrose font partie des changements majeurs observés avec l’âge. En plus de ces changements, le vieillissement vasculaire provoque des modifications au niveau des cellules qui composent la paroi. Les cellules endothéliales sécrètent moins de monoxyde d’azote (NO) provoquant une dysfonction endothéliale et les cellules musculaires lisses vasculaires (CMLVs) synthétisent maintenant des protéines matricielles et osseuses. Situé entre le sang et les CMLVs, l’endothélium contrôle le tonus vasculaire par la sécrétion de plusieurs substances vasoactives qui interagissent entre elles afin de maintenir l’homéostasie du système vasculaire. Parmi celles-ci, on note l’endothéline (ET), un puissant vasoconstricteur et le NO, un gaz vasorelaxants. Ce dernier est aussi reconnu pour bloquer la production d’ET par un mécanisme dépendant du guanosine monophosphate cyclique (GMPc). Comme il y a une interaction entre le NO et l’ET, et que cette dernière est impliquée dans la calcification artérielle, le NO pourrait être impliqué dans la modulation de l’élastocalcinose et de la rigidité artérielle par l’inhibition de l’ET et la modification de la composition de la paroi. Cet effet, qui se produirait au delà des effets vasorelaxants du NO, offre un potentiel thérapeutique intéressant pour l’HSI. Afin d’évaluer l’implication du NO dans la calcification vasculaire et la rigidité artérielle, un modèle animal d’HSI a été utilisé (modèle warfarine vitamine K, WVK). Ce modèle d’élastocalcinose est basé sur l’inhibition de la maturation d’une protéine anti-calcifiante, la matrix Gla protein (MGP), par la warfarine. Afin de déterminer l’implication physiologique du NO dans l’initiation et la progression de l’élastocalcinose, sa production a été inhibée par un analogue de la L-arginine, le L-NG-nitroarginine methyl ester (L-NAME). Lors des processus d’initiation de la calcification, le L-NAME a prévenu l’élastocalcinose sans toutefois modifier la vitesse de l’onde de pouls (PWV). Suite au traitement L-NAME, l’expression de la NO synthase inductible (iNOS) a été diminuée alors qu’elle a été augmentée lors du traitement WVK. Elle pourrait donc être impliquée dans les processus de calcification vasculaire. De plus, la NO synthase endothéliale (eNOS) semble également impliquée puisqu’elle a été augmentée dans le modèle WVK. Cette hausse pourrait être bénéfique pour limiter l’élastocalcinose alors que l’expression de la iNOS serait délétère. Lors de la progression de la calcification, le L-NAME a augmenté l’élastocalcinose et le PWV. Dans ce contexte, l’ET serait impliquée dans l’amplification de la calcification vasculaire entrainant une hausse de la rigidité artérielle. Comme le NO endogène limite la progression de la calcification et conséquemment la rigidité artérielle, il semble être protecteur. L’efficacité d’une modulation de la voie du NO dans le modèle WVK a été étudiée par l’administration d’un donneur de NO, le sinitrodil, ou d’un inhibiteur de la phosphosdiestérase 5 (PDE5), le tadalafil. La modulation de la voie du NO semble être bénéfique sur la rigidité artérielle, mais seulement de façon aiguë. En effet, le sinitrodil a modifié de transitoirement la rigidité au niveau de l’aorte possiblement par la modulation du tonus vasculaire sans toutefois avoir des effets sur la composition de la paroi. Comme le modèle WVK n’affecte pas la fonction endothéliale, les concentrations endogènes de NO semblent être optimales puisque le sinitrodil provoque une augmentation de l’élastocalcinose possiblement par le développement d’une tolérance. Tout comme le sinitrodil, le tadalafil a modulé de manière aiguë la rigidité artérielle sans modifier la composition de la paroi. Globalement, ces travaux ont permis de mettre en évidence les effets bénéfiques du NO endogène pour limiter le développement de l’HSI, suggérant qu’une dysfonction endothéliale, tel qu’observé lors du vieillissement, a un impact négatif sur la maladie.
Resumo:
La suffocation est une forme d’asphyxie dans laquelle l’oxygène ne peut atteindre le sang. Il existe divers types de suffocation dont la suffocation par confinement/ environnementale, les étouffements externe et interne, et les asphyxies traumatique/ positionnelle. La littérature scientifique sur la suffocation est relativement pauvre, étant principalement constituée de revues de cas et de quelques séries de cas limités à un contexte particulier de suffocation. Dans le contexte actuel d’une médecine basée sur les preuves, les ouvrages de médecine légale n’ont guère d’études pour appuyer leurs enseignements, tirés essentiellement de l’expérience personnelle de générations de médecins légistes. Le présent projet vise à palier ce manque de données sur la suffocation, un type de décès pourtant important en pratique médico-légale. Il s’agit d’une étude rétrospective de six ans portant sur tous les cas de suffocation non-chimique ayant été autopsiés au Laboratoire de sciences judiciaires et de médecine légale. À notre connaissance, cette étude est la première à établir le portrait systématique des morts par suffocation non-chimique en milieu médico-légal. Elle permet, entre autres, de confirmer les modes de décès usuels par catégorie de suffocation, le type de victime et les contextes courants. Généralement, les résultats concordent avec la littérature, appuyant ainsi le savoir commun des pathologistes sur la suffocation non-chimique. Toutefois, certaines dissimilitudes ont été notées quant aux modes de décès lors de l’étouffement externe. Par ailleurs, les questions reliées à la classification des asphyxies et aux définitions souvent contradictoires sont discutées. En un effort de normalisation, ce projet souligne les divergences retrouvées dans les classifications usuelles et tente d’en dégager les définitions courantes afin de proposer un modèle de classification unifié.
Resumo:
Thèse réalisée en cotutelle avec l'Université Paris Diderot (Paris 7)
Resumo:
Affiche de projet terminal, baccalauréat en Urbanisme. Institut d'urbanisme, Université de Montréal.
Resumo:
Les trois essais dans cette thèse étudient les implications des frictions financières, telles que les contraintes de collatérale ou de crédit, pour les décisions économiques des agents et leur impact sur les variables macro-économiques agrégées. Dans le premier chapitre "Financial Contracts and the Political Economy of Investor Protection" nous proposons une théorie du niveau de protection des investisseurs. Une faible protection des investisseurs implique un coût de financement externe plus élevé à cause des problèmes d'agence plus aigus entre les investisseurs et les entrepreneurs. À l'équilibre, ceci exclut les agents plus dépendants sur le financement externe de l'entrepreneuriat, ce qui augmente les profits des entrepreneurs qui restent actifs. Quand le niveau de la protection des investisseurs est choisi par un vote majoritaire, la théorie génère (i) une protection des investisseurs plus faible dans les économies avec plus grande inégalité dans les besoins de financement externe parmi les entrepreneurs, (ii) une dynamique non-monotone de l'output, (iii) améliorations (détériorations) de la protection des investisseurs suite à des ralentissements (accélérations) de l'output agrégé. L'évidence empirique donne un support à ces prédictions de la théorie. Dans le deuxième chapitre "Financial Frictions, Internal Capital Markets, and the Organization of Production", nous examinons comment la présence des frictions financières peut mener à la formation des conglomérats et des "business groups" diversifiées. Particulièrement, nous construisons un modèle d'équilibre général d'entrepreneuriat dans lequel les conglomérats émergent de façon endogène et substituent partiellement le marché du crédit imparfait. Nous montrons que ce modèle est capable d'expliquer quantitativement plusieurs faits stylisés concernant l'organisation de la production, les différences de productivité entre les firmes et les différences en présence des conglomérats entre les pays. Le troisième chapitre "Size and Productivity of Single-segment and Diversified Firms: Evidence from Canadian Manufacturing" étudie empiriquement la relation entre la taille, la productivité, et la structure organisationnelle d'une firme. Utilisant les micro-données sur les établissements manufacturiers canadiens, nous documentons plusieurs faits stylisés concernant la taille et la productivité totale des facteurs des établissements dans les conglomérats et dans les firmes non-diversifiées. Nous trouvons que les établissements dans les conglomérats sont en moyenne plus larges que leurs contreparties dans les firmes non-diversifiées, les petits établissements dans les conglomérats sont moins productifs que les établissements de taille similaire dans les firmes non-diversifiées, mais les larges établissements dans les conglomérats sont plus productifs que ceux de taille similaire dans les firmes non-diversifiées. Cette évidence est consistante avec réallocation interne efficiente des ressources au sein des conglomérats.
Resumo:
Les données manquantes sont fréquentes dans les enquêtes et peuvent entraîner d’importantes erreurs d’estimation de paramètres. Ce mémoire méthodologique en sociologie porte sur l’influence des données manquantes sur l’estimation de l’effet d’un programme de prévention. Les deux premières sections exposent les possibilités de biais engendrées par les données manquantes et présentent les approches théoriques permettant de les décrire. La troisième section porte sur les méthodes de traitement des données manquantes. Les méthodes classiques sont décrites ainsi que trois méthodes récentes. La quatrième section contient une présentation de l’Enquête longitudinale et expérimentale de Montréal (ELEM) et une description des données utilisées. La cinquième expose les analyses effectuées, elle contient : la méthode d’analyse de l’effet d’une intervention à partir de données longitudinales, une description approfondie des données manquantes de l’ELEM ainsi qu’un diagnostic des schémas et du mécanisme. La sixième section contient les résultats de l’estimation de l’effet du programme selon différents postulats concernant le mécanisme des données manquantes et selon quatre méthodes : l’analyse des cas complets, le maximum de vraisemblance, la pondération et l’imputation multiple. Ils indiquent (I) que le postulat sur le type de mécanisme MAR des données manquantes semble influencer l’estimation de l’effet du programme et que (II) les estimations obtenues par différentes méthodes d’estimation mènent à des conclusions similaires sur l’effet de l’intervention.
Resumo:
Le GABA est le principal neurotransmetteur inhibiteur du SNC et est impliqué dans le développement du cerveau, la plasticité synaptique et la pathogénèse de maladies telles que l’épilepsie, les troubles de l’anxiété et la douleur chronique. Le modèle actuel de fonctionnement du récepteur GABA-B implique l’hétérodimérisation GABA-B1/B2, laquelle est requise au ciblage à la surface membranaire et au couplage des effecteurs. Il y est cependant des régions du cerveau, des types cellulaires et des périodes du développement cérébral où la sous-unité GABA-B1 est exprimée en plus grande quantité que GABA-B2, ce qui suggère qu’elle puisse être fonctionnelle seule ou en association avec des partenaires inconnus, à la surface cellulaire ou sur la membrane réticulaire. Dans le cadre de cette thèse, nous montrons la capacité des récepteurs GABA-B1 endogènes à activer la voie MAPK-ERK1/2 dans la lignée dérivée de la glie DI-TNC1, qui n’exprime pas GABA-B2. Les mécanismes qui sous-tendent ce couplage demeurent mal définis mais dépendent de Gi/o et PKC. L’immunohistochimie de récepteurs endogènes montre par ailleurs que des anticorps GABA-B1 dirigés contre la partie N-terminale reconnaissent des protéines localisées au RE tandis des anticorps C-terminaux (CT) marquent une protéine intranucléaire. Ces données suggèrent que le domaine CT de GABA-B1 pourrait être relâché par protéolyse. L’intensité des fragments potentiels est affectée par le traitement agoniste tant en immunohistochimie qu’en immunobuvardage de type western. Nous avons ensuite examiné la régulation du clivage par le protéasome en traitant les cellules avec l’inhibiteur epoxomicine pendant 12 h. Cela a résulté en l’augmentation du marquage intranucléaire de GABA-B1-CT et d’un interacteur connu, le facteur de transcription pro-survie ATF-4. Dans des cellules surexprimant GABA-B1-CT, l’induction et la translocation nucléaire d’ATF-4, qui suit le traitement epoxomicine, a complètement été abolie. Cette observation est associée à une forte diminution du décompte cellulaire. Étant donné que les trois derniers résidus de GABA-B1-CT (LYK) codent un ligand pseudo-PDZ et que les protéines à domaines PDZ sont impliquées dans la régulation du ciblage nucléaire et de la stabilité de protéines, en complément de leur rôle d’échaffaud à la surface cellulaire, nous avons muté les trois derniers résidus de GABA-B1-CT en alanines. Cette mutation a complètement annulé les effets de GABA-B1-CT sur l’induction d’ATF-4 et le décompte cellulaire. Cette deuxième série d’expériences suggère l’existence possible de fragments GABA-B1 intranucléaires régulés par le traitement agoniste et le protéasome dans les cellules DI-TNC1. Cette régulation d’ATF-4 dépend des résidus LYK de GABA-B1-CT, qui modulent la stabilité de GABA-B1-CT et favorisent peut-être la formation d’un complexe multiprotéique incluant GABA-B1-CT, ATF-4, de même qu’une protéine d’échaffaudage inconnue. En somme, nous démontrons que les sous-unités GABA-B1 localisées au RE, lorsque non-hétérodimérisées avec GABA-B2, demeurent capables de moduler les voies de signalisation de la prolifération, la différentiation et de la survie cellulaire, via le couplage de protéines G et possiblement la protéolyse régulée. Les mécanismes de signalisation proposés pourraient servir de nouvelle plate-forme dans la compréhension des actions retardées résultant de l’activation des récepteurs 7-TMs.
Resumo:
Les systèmes de traduction statistique à base de segments traduisent les phrases un segment à la fois, en plusieurs étapes. À chaque étape, ces systèmes ne considèrent que très peu d’informations pour choisir la traduction d’un segment. Les scores du dictionnaire de segments bilingues sont calculés sans égard aux contextes dans lesquels ils sont utilisés et les modèles de langue ne considèrent que les quelques mots entourant le segment traduit.Dans cette thèse, nous proposons un nouveau modèle considérant la phrase en entier lors de la sélection de chaque mot cible. Notre modèle d’intégration du contexte se différentie des précédents par l’utilisation d’un ppc (perceptron à plusieurs couches). Une propriété intéressante des ppc est leur couche cachée, qui propose une représentation alternative à celle offerte par les mots pour encoder les phrases à traduire. Une évaluation superficielle de cette représentation alter- native nous a montré qu’elle est capable de regrouper certaines phrases sources similaires même si elles étaient formulées différemment. Nous avons d’abord comparé avantageusement les prédictions de nos ppc à celles d’ibm1, un modèle couramment utilisé en traduction. Nous avons ensuite intégré nos ppc à notre système de traduction statistique de l’anglais vers le français. Nos ppc ont amélioré les traductions de notre système de base et d’un deuxième système de référence auquel était intégré IBM1.
Resumo:
Le but de cette étude est d’adopter une intervention systémique visant à faciliter la communication entre les infirmières1 et les familles2 dans un contexte de soins intensifs (SI) en traumatologie. Cette recherche prend en compte la réalité et les besoins du milieu à l’étude grâce au devis participatif retenu. Le cadre de référence est composé de l’approche systémique familiale de Wright et Leahey (2005) ainsi que de la théorie du caring de Jean Watson (1979). La collecte des données a été inspirée du parcours de recherche en spirale de Lehoux, Levy et Rodrigue (1995). Cinq entrevues ont été menées auprès de membres de familles ainsi que trois groupes de discussion (focus groups) auprès d’infirmières. L’analyse des données a été effectuée selon le Modèle de Huberman et Miles (2003) qui préconise une démarche analytique continue et interactive. Les résultats obtenus révèlent un changement de pratique selon dix interventions systémiques infirmières spécifiques permettant de faciliter la communication avec les familles aux soins intensifs en traumatologie et soulignent l’importance d’agir sur le plan du contexte, de la relation et du contenu liés au processus de communication. De plus, ils permettent de démontrer un réel changement de pratique dans le milieu retenu pour l’étude.