980 resultados para Modèles de lecture
Resumo:
Jacques Derrida n’a écrit qu’un seul ouvrage sur Baudelaire : Donner le temps I. La fausse monnaie (1991). Dans cette étude, il s’agit de préciser, notamment autour de la question de la perversité, les liens unissant le poète au philosophe en accordant une attention particulière aux textes « Le mauvais vitrier » (Baudelaire), « The Imp of the Perverse » (Edgar Poe), « La fausse monnaie » (Baudelaire) et Mémoires d’aveugle (Derrida). Imbriquées dans une logique de l’événement, les deux notions de perversité et de don peuvent s’éclairer mutuellement et ont des répercussions jusque dans les textes et pour la littérature elle-même.
Resumo:
Les difficultés reliées à la lecture constituent 80% des motifs de référence en orthopédagogie. Parfois, ces difficultés sont les précurseurs du trouble d’apprentissage le plus commun soit le trouble spécifique d’apprentissage en lecture (TSAL). Cette recherche porte sur le travail des orthopédagogues en lien avec les trois grandes étapes reliées au TSAL : (1) son dépistage, (2) son évaluation orthopédagogique et sa référence en neuropsychologie et finalement (3) sa prise en charge ainsi que sa rééducation en lien avec les recommandations neuropsychologiques. La collecte de données a été réalisée grâce à des entrevues avec trois orthopédagogues travaillant au primaire et autour d’un cas d’élève atteint de TSAL. Chacune des trois orthopédagogues a présenté un cas d’élève et a décrit sa pratique. Lors des rencontres, chaque participante a également remis au chercheur le dossier de l’élève contenant le rapport neuropsychologique confirmant le diagnostic. Les résultats de cette recherche indiquent que les signes précurseurs observés par les trois orthopédagogues ainsi que leurs interventions rééducatives sont très semblables. Toutefois, les outils d’évaluation utilisés diffèrent de l’une à l’autre tant en ce qui a trait au choix qu’à la manière de les utiliser. Les trois orthopédagogues optent pour la référence en neuropsychologie dans le but ultime de dresser un portrait global de leur élève quant à leurs habiletés cognitives et déficitaires pouvant être attribuables à un TSAL. Le rapport du neuropsychologue sert alors à confirmer l’impression diagnostique des orthopédagogues. Les résultats de notre étude montrent que les orthopédagogues entament de façon précoce les interventions rééducatives et offrent simultanément les mesures adaptatives relatives aux difficultés observées chez l’élève. Avec l’arrivée du diagnostic de TSAL, et les recommandations proposées dans le rapport neuropsychologique, les orthopédagogues valident et peuvent à l’occasion bonifier leurs interventions ou mesures. De plus, elles les officialisent en les ajoutant, si ce n’est pas déjà fait, au plan d’intervention de l’élève. Les interventions rééducatives et les mesures adaptées mises en place par les trois orthopédagogues sont également comparées à celles proposées par les neuropsychologues et analysées à la lumière de celles reconnues comme étant efficaces et profitables selon la littérature. Nos résultats mettent en évidence la grande similitude qui existe entre les interventions appliquées par les orthopédagogues, celles proposées par les neuropsychologues ainsi que celles répertoriées dans la littérature.
Resumo:
L’étude cherche à provoquer la convergence des regards sur des enjeux méthodologiques fondamentaux, soit les enjeux de mesure, de décision et d’impact inhérents à toute démarche de sélection académique. À cet effet, elle explorera la capacité de prédiction de certaines variables non cognitives envers la compétence de professionnalisme observée chez les étudiants du doctorat professionnel de premier cycle en pharmacie. La sélection des candidats au sein des programmes académiques en santé repose en grande partie sur une évaluation de la capacité cognitive des étudiants. Tenant compte du virage compétence pris par la majorité des programmes en santé, la pertinence et la validité des critères traditionnels de sélection sont remises en question. La présente étude propose de valider l’utilisation des échelles de mesure de la personnalité, des valeurs et de l’autodétermination pour guider l’optimalité et l’équité des décisions de sélection. Les enjeux de mesure de ces variables seront abordés principalement par la modélisation dichotomique et polytomique de Rasch. L’application de la méthode des strates permettra, par la suite, de répondre aux enjeux de décision en procédant à une différenciation et un classement des étudiants. Puis, les enjeux d’impact seront, à leur tour, explorés par le modèle de régression par classes latentes. L’étude démontre notamment que le recours à la modélisation a permis une différenciation précise des étudiants. Cependant, la violation de certaines conditions d’application des modèles et la faible différenciation établie entre les étudiants sur la base des critères de professionnalisme, rendent l’évaluation de la capacité de prédiction de la personnalité, des valeurs et de l’autodétermination hasardeuse. À cet effet, les modèles identifiés par les analyses de régression par classes latentes s’avèrent peu concluants. Les classes latentes ainsi identifiées ne présentent pas de distinctions marquées et utiles à la sélection. Bien que les diverses procédures de modélisation proposées présentent des avantages intéressants pour une utilisation en contexte de sélection académique, des recherches additionnelles sur la qualité des critères de professionnalisme et sur la qualité des échelles de mesure des variables non cognitives demeurent nécessaires.
Resumo:
Cette thèse de doctorat, qui s’inscrit dans un programme de doctorat en sciences humaines appliquées, s’est d’abord construite en réponse à un problème concret, celui du roulement des infirmières et des infirmières auxiliaires dans le réseau de la santé et des services sociaux. En cours de route, il est toutefois apparu nécessaire d’élargir le questionnement à la question du rapport au travail des jeunes infirmières pour être en mesure de saisir les dynamiques sociales plus larges qui conditionnent certains choix professionnels, dont la décision de quitter son emploi. Cette thèse poursuit donc deux grands objectifs. D’une part, elle s’attarde à cerner l’ensemble des processus qui conduisent les jeunes infirmières à faire le choix de quitter leur emploi. D’autre part, elle vise à mieux comprendre comment a évolué leur rapport au travail dans le temps. La perspective théorique retenue s’appuie sur deux approches complémentaires, soit celles de la perspective des parcours de vie et de divers courants en sociologie de l’individu qui ont comme point commun d’accorder une place importante au contexte social, aux contraintes structurelles, de même qu’à l’autonomie des acteurs et à leur capacité d’agir sur leur parcours de vie. Ces approches s’avèrent particulièrement pertinentes dans le cadre de notre étude puisqu’elles permettent de rendre compte des liens complexes entre le contexte social plus global, les différents contextes de vie d’un individu et ses comportements en emploi. Elles invitent à conceptualiser le rapport au travail comme un processus qui évolue dans le temps à travers lequel plusieurs éléments de la vie d’un individu et de ses proches se combinent pour donner une orientation particulière aux trajectoires professionnelles. Vu sous cet angle, la décision de quitter se présente également comme un processus qui se construit dans un laps de temps plus ou moins long où entrent en jeu plusieurs dimensions de la vie d’un individu. La perspective adoptée dans le cadre de cette thèse permet de combler des lacunes dans ce champ de recherche où peu d’études se sont attardées à comprendre les différents processus qui façonnent le rapport au travail dans le temps et qui conduisent les infirmières à la décision de quitter leur emploi. Pour répondre aux objectifs de recherche, une étude qualitative a été menée. Des entrevues individuelles de type récit de vie ont été effectuées pour comprendre, du point de vue des participantes, comment a évolué leur rapport au travail et les processus qui les ont amenées à quitter leur emploi. Une étude de cas a été effectuée dans un centre de santé et de services sociaux de la province de Québec qui affichait un taux de roulement particulièrement élevé. L’étude visait les infirmières et les infirmières auxiliaires, groupe professionnel fortement touché par le roulement de la main-d’œuvre. Des entretiens en profondeur, d’une durée de 2h30 à 3 heures, ont été réalisées auprès de 42 infirmières et infirmières auxiliaires. Les résultats de la recherche sont présentés à travers la production de trois articles scientifiques. Le premier article, Pour une compréhension dynamique du rapport au travail: la valeur heuristique de la perspective des parcours de vie, a pour objectif de faire ressortir l’intérêt que présentent les principes analytiques associés à cette perspective dans l’étude du rapport au travail. Dans cet article, nous démontrons que le rapport au travail est le résultat d’un processus complexe où les aspirations des individus, leurs conditions concrètes d’emploi et les événements qui surviennent dans leur vie personnelle et familiale entretiennent des liens dynamiques et interdépendants qui façonnent le rapport au travail tout au long de la vie. Cet article apporte des éléments de réflexion à la question posée par plusieurs chercheurs : par quel moyen saisir ce qu’il en est du rapport au travail des jeunes? Le deuxième article, Rencontre entre l’idéaltype de travailleur et l’idéal de travail : le cas de jeunes infirmières en début de vie professionnelle, vise à rendre compte de la manière dont s’est faite la rencontre entre les attentes que les infirmières nourrissent à l’égard du travail et leur réalité concrète de travail à une période précise de leur trajectoire professionnelle, soit celle de leur insertion en emploi et des premières années de pratique. L’article démontre que trois dimensions du rapport au travail sont affectées par les nouvelles normes managériales qui prévalent dans le réseau de la santé et des services sociaux : 1) la place souhaitée du travail dans la vie, 2) la réalisation de soi par le travail et 3) le sens au travail. Cet article apporte une contribution dans la compréhension du rapport au travail de jeunes professionnelles qui exercent un métier de relation d’aide dans le contexte spécifique du réseau québécois de la santé et des services sociaux. Le troisième article, Comprendre le roulement comme un processus lié au cycle de la vie : le cas des infirmières, traite plus spécifiquement de la question du roulement de la main d’œuvre infirmière. Quatre parcours de départs sont présentés qui possèdent des caractéristiques distinctes relatives à la rencontre entre les attentes et la réalité concrète de travail, l’interaction entre le travail et la vie hors travail et la manière dont s’est construite dans le temps la décision de quitter son emploi. Les résultats démontrent que la décision de quitter se présente comme un processus qui se construit dans un laps de temps plus ou moins long, qui implique différentes dimensions de la vie d’un individu et qui est intimement lié à la quête de réalisation de soi au travail et dans les autres domaines de la vie. Cet article propose une façon d’appréhender le phénomène du roulement qui se distingue des modèles dominants qui abordent cette question à partir d’une lecture essentiellement individualisante et psychologisante des départs. La contribution de cette thèse à l’avancement des connaissances réside principalement dans le fait qu’elle appréhende autrement la question du rapport au travail et celle du roulement de la main-d’œuvre en recourant à la perspective des parcours de vie et à la sociologie de l’individu. L’approche que nous avons préconisée permet de saisir les processus sociaux et la multiplicité des éléments à prendre en considération dans l’étude du rapport au travail des jeunes infirmières et de la décision de quitter son emploi. Elle met en exergue l’importance de considérer le contexte social plus global dans lequel s’inscrit tout individu qui, dans les sociétés contemporaines, doit s’engager dans un travail de construction identitaire tout au long de la vie.
Resumo:
La thèse qui suit est organisée en deux volets: un premier volet portant sur les modèles de masse de galaxies et un second volet sur la conception de revêtements optiques et le contrôle de leurs propriétés mécaniques. Les modèles de masse présentés dans cette thèse ont été réalisés sur un sous-échantillon de dix galaxies de l'étude SINGS comprenant neuf galaxies normales et une galaxie naine. Ce travail visait à fixer le rapport masse-luminosité du disque à tout rayon en utilisant les résultats de modèles d'évolution galactique chimio-spectrophotométriques ajustés spécifiquement à chaque galaxie grâce à son profil de photométrie multi-bandes. Les résultats montrent que les disques stellaires tels que normalisés par les rapports masse-luminosité issus des modèles ont des masses cohérentes dans toutes les bandes étudiées de l'ultra-violet, du visible ainsi que du proche infrarouge (bandes FUV à IRAC2). Ces disques peuvent être considérés comme maximaux par rapport aux données cinématiques des galaxies étudiées. Ceci est dû au fait que le rapport M/L est plus élevé au centre que sur les bords. Les disques étant maximaux et physiquement justifiés, on ne peut dès lors ignorer les effets de composants tels que les bulbes ou les barres et les corrections nécessaires doivent être apportées aux profils de luminosité et de vitesses de rotation de la galaxie. Dans les travaux de la seconde partie, le logiciel en développement libre OpenFilters a été modifié afin de tenir compte des contraintes mécaniques dans la conception numérique de revêtements optiques. Les contraintes mécaniques dans les couches minces ont un effet délétère sur leurs performances optiques. Un revêtement destiné à rendre réflectives les lames d'un étalon Fabry-Perot utilisé en astronomie a été conçu et fabriqué afin d'évaluer les performances réelles de la méthode. Ce cas a été choisi à cause de la diminution de la finesse d'un étalon Fabry-Perot apporté par la courbure des lames sous l'effet des contraintes. Les résultats montrent que les mesures concordent avec les modèles numériques et qu'il est donc possible à l'aide de ce logiciel d'optimiser les revêtements pour leur comportement mécanique autant que pour leurs propriétés optiques.
Resumo:
Thèse réalisée en co-tutelle avec l'Université Claude Bernard de Lyon 1, en France.
Resumo:
L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.
Resumo:
Avec la mise en place dans les dernières années d'une grappe d'ordinateurs (CALYS) dédiés aux calculs de modèles stellaires pour notre groupe de recherche, il nous est désormais possible d'exploiter à leur plein potentiel les modèles d'atmosphères hors équilibre thermodynamique local (HETL) en y incluant des éléments métalliques. Ce type de modèles, plutôt exigeant en temps de calcul, est toutefois essentiel pour analyser correctement les spectres d'étoiles chaudes comme les sous-naines de type O (sdO). Les travaux effectués dans le cadre de cette thèse ont comme point commun l'utilisation de tels modèles d'atmosphères pour faire l'analyse spectroscopique d'étoiles sous-naines chaudes dans des contextes variés. Le coeur de cette thèse porte sur Bd+28 4211, une étoile standard de type sdO très chaude, dans laquelle le problème des raies de Balmer, qui empêche de reproduire ces dernières avec une unique, et réaliste, combinaison de paramètres atmosphériques, est bien présent. Dans un premier temps nous présentons une analyse approfondie de son spectre ultraviolet (UV). Cela nous permet de déterminer les abondances de métaux dans l'atmosphère de l'étoile et de contraindre sa température effective et sa gravité de surface. Par la suite, ces résultats servent de point de départ à l'analyse du spectre optique de l'étoile, dans lequel le problème des raies de Balmer se fait sentir. Cette analyse nous permet de conclure que l'inclusion des abondances métalliques propres à l'étoile dans les modèles d'atmosphères HETL n'est pas suffisant pour surmonter le problème des raies de Balmer. Toutefois, en y incluant des abondances dix fois solaires, nous arrivons à reproduire correctement les raies de Balmer et d'hélium présentes dans les spectres visibles lors d'un ajustement de paramètres. De plus, les paramètres résultants concordent avec ceux indiqués par le spectre UV. Nous concluons que des sources d'opacité encore inconnues ou mal modélisées sont à la source de ce problème endémique aux étoiles chaudes. Par la suite nous faisons une étude spectroscopique de Feige 48, une étoile de type sdB pulsante particulièrement importante. Nous arrivons à reproduire très bien le spectre visible de cette étoile, incluant les nombreuses raies métalliques qui s'y trouvent. Les paramètres fondamentaux obtenus pour Feige 48 corroborent ceux déjà présents dans la littérature, qui ont été obtenus avec des types de modèles d'atmosphères moins sophistiqués, ce qui implique que les effets HETL couplés à la présence de métaux ne sont pas importants dans l'atmosphère de cette étoile particulière. Nous pouvons donc affirmer que les paramètres de cette étoile sont fiables et peuvent servir de base à une future étude astérosismologique quantitative. Finalement, 38 étoiles sous-naines chaudes appartenant à l'amas globulaire omega Centauri ont été analysées afin de déterminer, outre leur température et gravité de surface, leurs abondances d'hélium et de carbone. Nous montrons qu'il existe une corrélation entre les abondances photosphériques de ces deux éléments. Nous trouvons aussi des différences entre les étoiles riches en hélium de l'amas du celles du champ. Dans leur ensemble, nos résultats remettent en question notre compréhension du mécanisme de formation des sous-naines riches en hélium.
Resumo:
Ce que nous proposons de faire dans ce mémoire est de s’attarder au phénomène spécifique de la lecture des scénarios dans le contexte institutionnel québécois. Nous analyserons un corpus de cent soixante douze rapports de lecture de scénarios de longs métrages de fiction rédigés entre 1972 et 2004. Il n’existe, à notre connaissance, aucune étude portant spécifiquement sur un corpus de rapports de lecture. Dans un premier temps, nous situerons le rôle et la place du scénario dans l’histoire de la production de films de fiction québécoise, entre acceptation et refus. Ensuite, nous nous intéresserons à la manière dont concrètement les scénarios sont lus : par qui, comment, dans quelles conditions, avec quels objectifs. Enfin, en utilisant une analyse par théorisation ancrée (grounded theory), nous identifierons, à partir des commentaires émis dans les rapports, cinq entités sur lesquelles le lecteur se fonde pour formuler son jugement. Il s’agit du scénariste, du scénario proposé, du lecteur lui-même, du film à faire et du spectateur présumé que nous nommerons fictif. Nous en conclurons que le lecteur de scénario occupe une fonction de médiateur entre un texte et son auteur d’une part et un futur film et son spectateur réel d’autre part. Cette médiation est le lieu de convergence de différentes attentes, celles des lecteurs, des auteurs, des producteurs et des institutions.
Resumo:
Ce mémoire s’inscrit dans une approche émergente en urbanisme qui cherche à mettre en dialogue les théories et les pratiques de l’urbanisme et la pensée du philosophe français Gilles Deleuze. Depuis quelques années, la pensée de Gilles Deleuze (surtout ses travaux coécrits avec Félix Guattari 1972; 1980) commence à s’immiscer dans les débats contemporains en urbanisme. Les travaux de Kim Dovey (2010; 2012), Jean Hillier (2005; 2007; 2011) et Colin McFarlane (2011a; 2011b) constituent les exemples les plus achevés d’une réflexion deleuzienne sur l’urbanisme. À degrés divers, ces auteurs mobilisent surtout cette pensée pour sa capacité à appréhender la complexité, le changement et l’instabilité (assemblage thinking). Pourtant, cette mobilisation de la pensée deleuzienne en urbanisme laisse largement intouchée le projet éthique et politique au coeur de la pensée de Gilles Deleuze. Le projet qui anime ce mémoire est d’explorer ce qu’une éthique deleuzienne peut apporter aux théories et pratiques de l’urbanisme. Cette éthique implique notamment un questionnement radical du cadre étatique dans lequel l’urbanisme s’insère, ce que ce mémoire appelle le «devenir- imperceptible » de l’urbanisme. Un travail empirique, constitué de 14 récits de ville prenant pour objet le territoire du pont Jacques-Cartier à Montréal, accompagne et poursuit cette réflexion théorique. Ces différents récits révèlent le pont Jacques-Cartier comme un lieu producteur de territoires, de mémoires et d’affects. Cette démarche terrain allie certains éléments de l’assemblage thinking et une éthique professionnelle deleuzienne. Elle explore la possibilité d’un rapport réellement sensible entre le territoire, l’urbaniste et les personnes concernées par une entreprise urbanistique.
Resumo:
La douleur est une expérience multidimensionnelle comportant des aspects sensoriels, émotionnels et cognitifs. Théoriquement, des méthodes de mesures comportementales, physiologiques, neurophysiologiques et sensorielles peuvent quantifier la douleur. Peu d’études ont étudié la validation des mesures utilisées en médecine vétérinaire. La recherche combine les travaux de Maîtrise et de Doctorat, traite en partie de la validité de méthodes. Dans cet objectif, nos travaux de recherche étudiaient la validité de méthodes comportementales, physiologiques et neurophysiologiques usuelles pour la mesure de la douleur en comparant les expressions de douleur (vache et chien) chez des animaux contrôle par comparaison à des animaux sous analgésie préventive ou sous traitement curatif suivant une douleur induite par chirurgie (modèles de douleur viscérale bovine ou orthopédique canine) ou causée par une maladie naturelle (arthrose canine). Une première étude comparait les mesures de la douleur entre les vaches du groupe placebo et celles sous analgésie postopératoire sur une durée de 21 jours suivant l’induction d’une douleur viscérale chronique. Les vaches du groupe placebo ont présenté une plus forte sensibilité à la douleur et une diminution de la noradrénaline et de la transthyrétine mesurées dans le liquide cérébro-spinal, une diminution de l’activité motrice (AM) (moindre que dans les groupes avec analgésie), de l’agitation enregistrée par vidéo-analyse et une augmentation du stress selon la mesure de l’activité électrodermique (AED). Les méthodes d’intérêt identifiées étaient les marqueurs spinaux, la mesure de la sensibilisation, de comportements par vidéo-analyse et de l’AM par bio-télémétrie. En utilisant des méthodes semblables à celles précédemment décrites, deux études expérimentales de douleur orthopédique ont été réalisées afin de comparer les réponses à la douleur entre des chiens traités avec une analgésie préventive (opioïdes et anti-inflammatoires, étude #2) ou un biphosphonate (tiludronate, étude #3) par comparaison à des chiens contrôles. Seules les échelles de douleur étaient différentes entre les études de recherche. Pour l’étude #2, les ii chiens sous analgésie ont présenté de plus faibles scores de douleur mesurés avec l’échelle de douleur nommée 4A-VET et ceci simultanément à une faible réponse de l’AED une heure après la chirurgie de trochléoplastie. La fréquence du comportement spontané de ‘la marche avec plein appui de la patte opérée’ mesurée à l’aide de la vidéo-analyse augmentait chez les chiens sous analgésie préventive 24 heures après la chirurgie. L’étude #3 démontrait surtout l’apparition de sensibilisation centrale (à la fois par l’évaluation sensorielle quantitative et les marqueurs spinaux) chez les chiens contrôle, 56 jours après l’induction d’arthrose chirurgicale. Ainsi, les chiens traités avec le tiludronate ont présenté une différence sur la substance P et la transthyrétine cérébro-spinale, une diminution de la sensibilisation périphérique, plus d’appui de la patte opérée lors de la marche selon la mesure du pic de force verticale (PFV), une augmentation de la fréquence de ‘la marche avec plein appui de la patte opérée’. La sensibilisation centrale était associée à la diminution de PFV, et une augmentation de l’AED et du comportement spontané de ‘la marche avec plein appui de la patte opérée’. Pour l’étude #4, la validité et la sensibilité des méthodes ont été évaluées dans une condition d’arthrose naturelle chez des chiens traités avec une diète enrichie en moule verte, un produit ayant des effets anti-inflammatoires et chondroprotecteurs attendus. Les chiens traités présentaient une diminution des scores de douleur via l’échelle nommée CSOM, une augmentation de PFV et une augmentation de l’AM. Dans l’ensemble, les résultats confirment que la vidéo-analyse évaluait la douleur de façon objective et pour des modèles différents de douleur et les marqueurs spinaux sont prometteurs. Le PFV était spécifique de la douleur orthopédique. La sensibilisation était présente lors de douleur pathologique. L’AED n’est pas valide pour la mesure de la douleur. La baisse d’AM suggèrerait un comportement de douleur. Les études étaient exploratoires pour les échelles de douleur en raison de leur niveau (débutant) de développement et du manque d’informations sur les qualités métrologiques de ces mesures.
Resumo:
Dans cette thèse, nous analysons les propriétés géométriques des surfaces obtenues des solutions classiques des modèles sigma bosoniques et supersymétriques en deux dimensions ayant pour espace cible des variétés grassmanniennes G(m,n). Plus particulièrement, nous considérons la métrique, les formes fondamentales et la courbure gaussienne induites par ces surfaces naturellement plongées dans l'algèbre de Lie su(n). Le premier chapitre présente des outils préliminaires pour comprendre les éléments des chapitres suivants. Nous y présentons les théories de jauge non-abéliennes et les modèles sigma grassmanniens bosoniques ainsi que supersymétriques. Nous nous intéressons aussi à la construction de surfaces dans l'algèbre de Lie su(n) à partir des solutions des modèles sigma bosoniques. Les trois prochains chapitres, formant cette thèse, présentent les contraintes devant être imposées sur les solutions de ces modèles afin d'obtenir des surfaces à courbure gaussienne constante. Ces contraintes permettent d'obtenir une classification des solutions en fonction des valeurs possibles de la courbure. Les chapitres 2 et 3 de cette thèse présentent une analyse de ces surfaces et de leurs solutions classiques pour les modèles sigma grassmanniens bosoniques. Le quatrième consiste en une analyse analogue pour une extension supersymétrique N=2 des modèles sigma bosoniques G(1,n)=CP^(n-1) incluant quelques résultats sur les modèles grassmanniens. Dans le deuxième chapitre, nous étudions les propriétés géométriques des surfaces associées aux solutions holomorphes des modèles sigma grassmanniens bosoniques. Nous donnons une classification complète de ces solutions à courbure gaussienne constante pour les modèles G(2,n) pour n=3,4,5. De plus, nous établissons deux conjectures sur les valeurs constantes possibles de la courbure gaussienne pour G(m,n). Nous donnons aussi des éléments de preuve de ces conjectures en nous appuyant sur les immersions et les coordonnées de Plücker ainsi que la séquence de Veronese. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Le troisième chapitre présente une analyse des surfaces à courbure gaussienne constante associées aux solutions non-holomorphes des modèles sigma grassmanniens bosoniques. Ce travail généralise les résultats du premier article et donne un algorithme systématique pour l'obtention de telles surfaces issues des solutions connues des modèles. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Dans le dernier chapitre, nous considérons une extension supersymétrique N=2 du modèle sigma bosonique ayant pour espace cible G(1,n)=CP^(n-1). Ce chapitre décrit la géométrie des surfaces obtenues des solutions du modèle et démontre, dans le cas holomorphe, qu'elles ont une courbure gaussienne constante si et seulement si la solution holomorphe consiste en une généralisation de la séquence de Veronese. De plus, en utilisant une version invariante de jauge du modèle en termes de projecteurs orthogonaux, nous obtenons des solutions non-holomorphes et étudions la géométrie des surfaces associées à ces nouvelles solutions. Ces résultats sont soumis dans la revue Communications in Mathematical Physics.
Resumo:
Cette thèse en électronique moléculaire porte essentiellement sur le développement d’une méthode pour le calcul de la transmission de dispositifs électroniques moléculaires (DEMs), c’est-à-dire des molécules branchées à des contacts qui forment un dispositif électronique de taille moléculaire. D’une part, la méthode développée vise à apporter un point de vue différent de celui provenant des méthodes déjà existantes pour ce type de calculs. D’autre part, elle permet d’intégrer de manière rigoureuse des outils théoriques déjà développés dans le but d’augmenter la qualité des calculs. Les exemples simples présentés dans ce travail permettent de mettre en lumière certains phénomènes, tel que l’interférence destructive dans les dispositifs électroniques moléculaires. Les chapitres proviennent d’articles publiés dans la littérature. Au chapitre 2, nous étudions à l’aide d’un modèle fini avec la méthode de la théorie de la fonctionnelle de la densité de Kohn-Sham un point quantique moléculaire. De plus, nous calculons la conductance du point quantique moléculaire avec une implémentation de la formule de Landauer. Nous trouvons que la structure électronique et la conductance moléculaire dépendent fortement de la fonctionnelle d’échange et de corrélation employée. Au chapitre 3, nous discutons de l’effet de l’ajout d’une chaîne ramifiée à des molécules conductrices sur la probabilité de transmission de dispositifs électroniques moléculaires. Nous trouvons que des interférences destructives apparaissent aux valeurs propres de l’énergie des chaînes ramifiées isolées, si ces valeurs ne correspondent pas à des états localisés éloignés du conducteur moléculaire. Au chapitre 4, nous montrons que les dispositifs électroniques moléculaires contenant une molécule aromatique présentent généralement des courants circulaires qui sont associés aux phénomènes d’interférence destructive dans ces systèmes. Au chapitre 5, nous employons l’approche « source-sink potential » (SSP) pour étudier la transmission de dispositifs électroniques moléculaires. Au lieu de considérer les potentiels de sources et de drains exactement, nous utilisons la théorie des perturbations pour trouver une expression de la probabilité de transmission, T(E) = 1 − |r(E)|2, où r(E) est le coefficient de réflexion qui dépend de l’énergie. Cette expression dépend des propriétés de la molécule isolée, en effet nous montrons que c’est la densité orbitalaire sur les atomes de la molécule qui sont connectés aux contacts qui détermine principalement la transmission du dispositif à une énergie de l’électron incident donnée. Au chapitre 6, nous présentons une extension de l’approche SSP à un canal pour des dispositifs électroniques moléculaires à plusieurs canaux. La méthode à multiples canaux proposée repose sur une description des canaux propres des états conducteurs du dispositif électronique moléculaire (DEM) qui sont obtenus par un algorithme auto-cohérent. Finalement, nous utilisons le modèle développé afin d’étudier la transmission du 1-phényl-1,3-butadiène branché à deux rangées d’atomes couplées agissant comme contacts à gauche et à la droite.
Resumo:
Les maladies autoimmunes sont des affections chroniques, le plus souvent invalidantes, qui touchent plus de 5% de la population dans les pays développés. L’autoimmunité résulte de la rupture des mécanismes de tolérance du système immunitaire vis-à-vis des autoantigènes exprimés par les tissus de l’organisme, entraînant la destruction d’un ou de plusieurs organes-cibles par les lymphocytes T et/ou B. L’hépatite autoimmune et le diabète autoimmun se caractérisent par la destruction sélective des hépatocytes et des cellules beta pancréatiques, respectivement. De plus en plus d’arguments suggèrent une implication des lymphocytes T CD8+ dans le déclenchement, la progression et la régulation des réponses associées à plusieurs maladies autoimmunes. Dans ce projet, nous avons suivi l’évolution de clones de lymphocytes T CD8+ spécifiques à un antigène particulier dont le site d’expression différait. Pour ce faire, nous avons développé deux nouveaux modèles murins double transgéniques par croisement entre une lignée de souris exprimant un TCR transgénique spécifique à la nucléoprotéine (NP) du virus de la chorioméningite lymphocytaire (LCMV), et une souris exprimant cette NP-LCMV : 1) uniquement dans les hépatocytes (modèle d’hépatite autoimmune), ou 2) simultanément dans le thymus et le pancréas (modèle de diabète autoimmun). L’avidité fonctionnelle des lymphocytes T CD8+ spécifiques à la NP chez les souris TCR transgéniques était inversement proportionnelle au niveau d’expression du TCR. Le répertoire lymphocytaire dans le thymus, la rate, les ganglions et le sang périphérique a été caractérisé pour chacune des lignées de souris double transgéniques, de même que la capacité fonctionnelle et le phénotype (marqueurs d’activation/mémoire) des lymphocytes T CD8+ autoréactifs. Chacun des deux nouveaux modèles présentés dans cette étude ont montré que les lymphocytes T CD8+ spécifiques à la NP sont aptes à briser la tolérance centrale et périphérique et à provoquer une réaction d’autoimmunité spontanée. Dans le modèle d’hépatite autoimmune, où l’expression de l’autoantigène était restreinte au foie, la surexpression du TCR transgénique a entraîné une délétion thymique quasi-totale des lymphocytes T CD8+ spécifiques à la NP prévenant le développement d’une hépatite spontanée. alors qu’un niveau de TCR comparable à celui d’une souris de type sauvage a permis une sélection positive des lymphocytes autoréactifs qui se sont accumulés dans le foie où ils se sont activés pour provoquer une hépatite autoimmune spontanée. Dans le modèle de diabète autoimmun, où l’autoantigène était exprimé dans le pancréas et le thymus, les souris des deux lignées double transgéniques ont montré une délétion thymique partielle, peu importe le niveau d’expression du TCR. Seuls les mâles adultes développaient un diabète spontané et une partie de leurs lymphocytes T CD8+ exprimaient une combinaison particulière de marqueurs d’activation/mémoire (CD44, CD122, PD-1). Cette population lymphocytaire était absente chez les souris femelles et les mâles sains. L’étude de la tolérance des lymphocytes T CD8+ autoréactifs dans nos deux nouveaux modèles murins double transgéniques a permis d’identifier des mécanismes alternatifs possiblement impliqués dans la tolérance et l’activation, et de mieux comprendre le rôle des lymphocytes T CD8+ autoréactifs dans le processus autoimmun menant à l’hépatite autoimmune et au diabète autoimmun. Ces découvertes seront utiles pour développer de nouvelles approches thérapeutiques ciblant les lymphocytes T CD8+ autoréactifs.
Resumo:
L’ingénierie dirigée par les modèles (IDM) est un paradigme d’ingénierie du logiciel bien établi, qui préconise l’utilisation de modèles comme artéfacts de premier ordre dans les activités de développement et de maintenance du logiciel. La manipulation de plusieurs modèles durant le cycle de vie du logiciel motive l’usage de transformations de modèles (TM) afin d’automatiser les opérations de génération et de mise à jour des modèles lorsque cela est possible. L’écriture de transformations de modèles demeure cependant une tâche ardue, qui requiert à la fois beaucoup de connaissances et d’efforts, remettant ainsi en question les avantages apportés par l’IDM. Afin de faire face à cette problématique, de nombreux travaux de recherche se sont intéressés à l’automatisation des TM. L’apprentissage de transformations de modèles par l’exemple (TMPE) constitue, à cet égard, une approche prometteuse. La TMPE a pour objectif d’apprendre des programmes de transformation de modèles à partir d’un ensemble de paires de modèles sources et cibles fournis en guise d’exemples. Dans ce travail, nous proposons un processus d’apprentissage de transformations de modèles par l’exemple. Ce dernier vise à apprendre des transformations de modèles complexes en s’attaquant à trois exigences constatées, à savoir, l’exploration du contexte dans le modèle source, la vérification de valeurs d’attributs sources et la dérivation d’attributs cibles complexes. Nous validons notre approche de manière expérimentale sur 7 cas de transformations de modèles. Trois des sept transformations apprises permettent d’obtenir des modèles cibles parfaits. De plus, une précision et un rappel supérieurs à 90% sont enregistrés au niveau des modèles cibles obtenus par les quatre transformations restantes.