587 resultados para Modélisation transactionnelle


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prise en charge efficace des maladies chroniques nécessite une implication accrue des patients dans la gestion de leurs soins et de leur état de santé. Le lien existant entre les caractéristiques organisationnelles de la 1ère ligne et la capacité des patients pour l’auto-soins étant peu documenté, l’objectif de ce mémoire est de mieux comprendre comment l’organisation de la 1ère ligne médicale peut influencer la capacité des personnes pour l’auto-soins d’une maladie chronique. Pour atteindre cet objectif, 776 patients atteints de maladie chronique ont été recrutés dans 33 cliniques ayant participé à une enquête organisationnelle. Ces patients ont répondu à un questionnaire sur l’auto-efficacité pour la gestion d’une maladie chronique à 0, 6 et 12 mois. Des analyses par régression hiérarchique à 3 niveaux ont permis de mesurer les liens entre les variables organisationnelles sélectionnées et la capacité perçue des patients pour l’auto-soins de leur maladie. Les résultats montrent que les caractéristiques organisationnelles ont peu d’effet sur l’auto-efficacité pour l’auto-soins en comparaison aux facteurs individuels, et que le soutien à l’auto-soins est peu présent dans les cliniques participantes sans égard à leurs attributs organisationnels. Bien qu’aucune des caractéristiques sélectionnées n’apparaisse significativement associée à l’auto-soins dans le modèle final, des associations significatives ont été observées en analyses bivariées. Ces résultats suggèrent que toutes les organisations de 1ère ligne doivent fournir un effort explicite pour mieux intégrer l’auto-soins dans les services de santé usuels et que la présence d’éléments organisationnels facilitateurs ne se traduit pas systématiquement par une provision accrue de soutien à l’auto-soins.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le récepteur A des peptides natriurétiques (NPRA) fait partie de la famille des guanylates cyclases membranaires. L’activation du NPRA par ses agonistes naturels, ANP et BNP, induit une production de GMPc qui est responsable de leur rôle dans l’homéostasie cardiovasculaire, l’inhibition de l’hypertrophie et de la fibrose cardiaques et la régulation de la lipolyse. Le NPRA est un homodimère non covalent composé d’un domaine extracellulaire de liaison du ligand (ECD), d’un unique domaine transmembranaire (TM), d’un domaine d’homologie aux kinases et d’un domaine guanylate cyclase. Bien que le NPRA ait un rôle physiologique important, les mécanismes moléculaires régissant son processus d’activation restent inconnus. Nous avons donc analysé les premières étapes du processus d’activation du NPRA. Nous avons d'abord étudié le rôle de la dimérisation des ECD dans l’activation du récepteur. Nous avons utilisé les techniques de liaison de radioligand, de FRET et de modélisation moléculaire, pour caractériser la liaison à l’ECD des agonistes naturels, d’un superagoniste et d’un antagoniste. L’ANP se lie à un dimère d’ECD préformé et la dimérisation spontanée est l’étape limitante du processus de liaison. De plus, comme le démontrent nos études de FRET, tous les peptides, incluant l’antagoniste, stabilisent le récepteur sous sa forme dimérique. Cependant, l’antagoniste A71915 stabilise le dimère d’ECD dans une conformation différente de celle induite par l’ANP. La dimérisation du NPRA semble donc nécessaire, mais non suffisante à l’activation du récepteur. L’état d’activation du NPRA dépend plutôt de l’orientation des sous unités dans le dimère. Nous avons ensuite étudié le mécanisme moléculaire de transduction du signal à travers la membrane. Plusieurs études ont suggéré que l’activation du NPRA implique un changement de conformation du domaine juxtamembranaire (JM). Cependant, les études de cristallographie de l’ECD soluble de NPRA n’ont pas permis de documenter la structure du JM et le changement de conformation impliqué dans la transduction du signal reste inconnu. Pour analyser ce changement de conformation, nous avons d’abord séquentiellement substitué les neuf acides aminés du JM par une cystéine. En étudiant la capacité des mutants à former des dimères covalents de façon constitutive ou induite par l’ANP, nous avons pu évaluer la proximité relative des résidus du JM, avant et après activation du NPRA. Ces résultats ont démontré la proximité élevée de certains résidus spécifiques et sont en contradiction avec les données cristallographiques. Nous avons également démontré que le domaine intracellulaire impose une contrainte conformationnelle au JM à l’état de base, qui est levée après liaison de l’ANP. En introduisant de 1 à 5 alanines dans l’hélice-α transmembranaire, nous avons montré qu’une rotation des TM de 40° induit une activation constitutive du NPRA. Le signal d’activation pourrait donc être transmis à travers la membrane par un mécanisme de rotation des TM. En utilisant nos données expérimentales, nous avons généré le premier modèle moléculaire illustrant la conformation active du NPRA, où les domaines JM et TM sont représentés. Dans son ensemble, cette étude apporte une meilleure compréhension des mécanismes moléculaires régissant les premières étapes du processus complexe d’activation du NPRA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJECTIF: évaluer un modèle prédictif de prééclampsie associant des marqueurs cliniques, biologiques (Inhibine A, PP-13, hCG, ADAM12, PAPP-A et PlGF) et du Doppler des artères utérines (DAU) au 1er trimestre de la grossesse. METHODE : étude prospective de cohorte de 893 nullipares chez qui DAU et prélèvement sanguin étaient réalisés à 11-14 semaines. RESULTATS : 40 grossesses se sont compliquées de prééclampsie (4,5%) dont 9 de prééclampsie précoce (1,0%) et 16 de prééclampsie sévère (1,8%). Le meilleur modèle prédictif de la prééclampsie sévère associait les marqueurs cliniques, PAPP-A et PlGF (taux de détection 87,5% pour 10% de faux positif). Le DAU étant corrélé à la concentration de PAPP-A (r=-0,117 ; p<0,001), il n’améliorait pas la modélisation. CONCLUSION : la combinaison de marqueurs cliniques et biologiques (PlGF et PAPP-A) au 1er trimestre permet un dépistage performant de la prééclampsie sévère. Le DAU n’est pas un instrument efficace de dépistage au 1er trimestre dans cette population.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de notre recherche est l’exploration et l’étude de la question de l’instrumentation informatique des projets de reconstitution archéologiques en architecture monumentale dans le but de proposer de nouveaux moyens. La recherche a pour point de départ une question, à savoir : « Comment, et avec quels moyens informatiques, les projets de reconstitution architecturale pourraient-ils être menés en archéologie? ». Cette question a nécessité, en premier lieu, une étude des différentes approches de restitution qui ont été mises à contribution pour des projets de reconstitution archéologiques, et ceci, à ses différentes phases. Il s’agit de comprendre l’évolution des différentes méthodologies d’approche (épistémologiquement) que les acteurs de ce domaine ont adoptées afin de mettre à contribution les technologies d’information et de communication (TIC) dans le domaine du patrimoine bâti. Cette étude nous a permis de dégager deux principales avenues: une première qui vise exclusivement la « représentation » des résultats des projets et une seconde qui vise la modélisation de ce processus dans le but d’assister l’archéologue dans les différentes phases du projet. Nous démontrons que c’est la deuxième approche qui permet la combinaison et met à la disposition des archéologues une meilleure exploitation des possibilités que l’outil informatique peut et pourra présenter. Cette partie permet de démontrer la nature systémique et complexe de la mise à contribution des TICs dans le domaine de la restitution archéologique. La multitude des acteurs, des conditions techniques, culturelles et autres, des moyens utilisés ainsi que la variété des objectifs envisagés dans les projets de reconstitution archéologiques poussent à explorer une nouvelle approche qui tient compte de cette complexité. Pour atteindre notre objectif de recherche, la poursuite de l’étude de la nature de la démarche archéologique s’impose. Il s’agit de comprendre les liens et les interrelations qui s’établissent entre les différentes unités techniques et intellectuelles en jeu ainsi que les différents modes de réflexions présents dans les projets de reconstitution archéologique du patrimoine bâti. Cette étude met en évidence le rapport direct entre le caractère subjectif de la démarche avec la grande variabilité des approches et des raisonnements mis en œuvre. La recherche est alors exploratoire et propositionnelle pour confronter notamment le caractère systémique et complexe de l’expérience concrète et à travers les publications savantes, les éléments de la réalité connaissable. L’étude des raisonnements archéologiques à travers les publications savantes nous permet de proposer une première typologie de raisonnements étudiés. Chacune de ces typologies reflète une méthodologie d’approche basée sur une organisation d’actions qui peut être consignée dans un ensemble de modules de raisonnements. Cette recherche fait ressortir, des phénomènes et des processus observés, un modèle qui représente les interrelations et les interactions ainsi que les produits spécifiques de ces liaisons complexes. Ce modèle témoigne d’un processus récursif, par essais et erreurs, au cours duquel l’acteur « expérimente » successivement, en fonction des objectifs de l’entreprise et à travers des modules de raisonnements choisis, plusieurs réponses aux questions qui se posent à lui, au titre de la définition du corpus, de la description, de la structuration, de l’interprétation et de la validation des résultats, jusqu’à ce que cette dernière lui paraisse satisfaire aux objectifs de départ. Le modèle établi est validé à travers l’étude de cas du VIIème pylône du temple de Karnak en Égypte. Les résultats obtenus montrent que les modules de raisonnements représentent une solution intéressante pour assister les archéologues dans les projets de reconstitution archéologiques. Ces modules offrent une multiplicité de combinaisons des actions et avantagent ainsi une diversité d’approches et de raisonnements pouvant être mis à contribution pour ces projets tout en maintenant la nature évolutive du système global.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quelques enzymes sont connus pour déglyquer les kétoamines résultants de la réaction de Maillard entre des sucres et des amines primaires. Il a été démontré qu’Escherichia coli possède un opéron afin de métaboliser la fructoselysine. La fructoselysine 6-kinase, de la famille des PfkB, initie le processus de déglycation permettant l’utilisation ultérieure du glucose-6-P par la bactérie. La résolution de la structure de la FL6K par cristallographie et diffraction des rayons X a permis d’identifier son site actif en présence d’ATP, d’ADP et d’AMP-PNP. La modélisation de la fructoselysine au site actif de la kinase a permis d’identifier des résidus pouvant être importants pour sa liaison et son mécanisme enzymatique. De plus, les résultats de cinétique suggèrent que le mécanisme utilisé par la FL6K semble passer par un état ternaire de type SN2. Des modifications structurales à la FL6K pourraient permettre d’augmenter la taille des substrats afin de permettre ultimement la déglycation de protéines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs : Analyser l’évolution de l’embonpoint chez les enfants québécois entre 4 et 8 ans et évaluer le rôle des différents facteurs de risque sur l’excès de poids persistant. Les données proviennent de l’étude longitudinale du développement des enfants du Québec (ÉLDEQ, 1998-2010). Cette enquête est réalisée par l’Institut de la statistique du Québec auprès d’une cohorte de 2120 nourrissons québécois nés en 1998, faisant l’objet d’un suivi annuel à partir de l’âge de 5 mois. Méthodes d’analyse : univariées, bivariées, modélisation semi-paramétrique, analyses de régressions logistique et log-linéaire (Poisson). Principaux résultats : i) L’excès de poids persistant chez les enfants âgés de 4 à 8 ans est un phénomène fluctuant, qui ne varie pas de façon significative selon le sexe ; ii) Le fait d’allaiter les enfants ne semble pas avoir un effet protecteur en ce qui concerne l’excès de poids ; iii) En ce qui concerne le poids à la naissance, les données dont on dispose ne nous permettent pas de tirer des conclusions ; iv) Le fait d’avoir une santé moins qu’excellente à la naissance semble augmenter le risque d’avoir un excès de poids persistant ; v)Ce qui influence surtout, c’est de toujours manger trop ou trop vite, ou le fait de vivre dans une famille avec un ou deux parents qui font de l’embonpoint ; vi) Les mères qui ont fume pendant leur grossesse présentent une probabilité plus élevée d’avoir des enfants avec un excès de poids persistant que celles qui n’ont pas fumé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche avait pour objectif d’évaluer l’effet du dispositif de formation « Zoom sur l’expertise pédagogique », ou, plus précisément, d’évaluer l’effet d’un parcours de formation créé grâce à ce dispositif et intégrant des exemples de pratiques sur vidéo sur les apprentissages et les intentions de changement de pratique d’un groupe d’enseignants du primaire relativement à la compétence professionnelle « Piloter des situations d’enseignement-apprentissage ». La réforme des programmes scolaires, qui s’installe progressivement depuis 2001, modifie considérablement les orientations en matière d’apprentissage et d’enseignement. Sa réussite repose notamment sur l’appropriation de nouvelles compétences professionnelles souvent difficiles à développer pour le personnel enseignant. À ces besoins de formation, les modalités de formation continue proposées ne semblaient répondre que partiellement. Le dispositif a été développé dans le but de soutenir le personnel enseignant dans l’appropriation de ce renouveau pédagogique et propose de nouvelles stratégies de formation basées principalement sur l’observation et l’analyse d’exemples de pratiques sur vidéo et enrichis de divers outils stimulant la réflexion sur la pratique. Sa conception s’inscrit dans un contexte d’émergence d’initiatives similaires. Néanmoins, beaucoup de questions restaient en suspens quant aux effets réels de ces dispositifs sur le développement professionnel des enseignants. Afin de réaliser une évaluation de ce dispositif, nous avons créé un parcours de formation que six enseignants ont réalisé. Ces personnes ont ensuite participé à deux entrevues semi-dirigées et ont partagé les notes prises durant la formation. Un cadre théorique a été développé, permettant de dégager trois questions de recherche : « Quels ont été les effets du dispositif de formation sur les savoirs relatifs aux composantes de la compétence ciblée ? » ; « Quels ont été les effets du dispositif de formation sur les intentions de changement de pratique des enseignants ? » ; « Comment améliorer le dispositif pour mieux soutenir le développement professionnel des enseignants ? ». Ce cadre a par la suite guidé l’analyse et l’interprétation des données recueillies. Une quantité substantielle d’informations a été obtenue permettant de mieux comprendre et documenter le rôle d’un tel dispositif de formation en ligne et des vidéos qui le composent. Nous avons pu confirmer leur effet positif sur le développement professionnel. Nous retenons notamment que les enseignants sont en mesure de mieux définir les composantes de la compétence ciblée par la formation, ils ont confirmé leur sentiment d’avoir appris, ils ont tous exprimé l'intention d’apporter des changements dans leur pratique. Tous ont grandement apprécié le parcours et ses vidéos, notamment la possibilité qu’elles leur offraient de s’identifier à des pairs et d’envisager des pistes de mise en application plus concrètes de leurs nouvelles connaissances. Par ailleurs, les commentaires et les suggestions des participants ont permis de dégager des pistes d’amélioration telles que la diminution de la quantité de vidéos, du nombre d’éléments de compétence présentés, ou l’augmentation de compléments pédagogiques accompagnant les vidéos. Ces pistes devraient toutefois être précisées et étudiées ce qui génère de nouvelles questions de recherches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une fois ingérées par un insecte sensible, les toxines insecticides du bacille de Thuringe doivent être activées par les protéases intestinales de cet insecte. Leur premier domaine, un ensemble de sept hélices-α amphipathiques, est responsable de leur insertion dans la membrane luminale de certaines cellules de l’intestin médian, ce qui crée des pores peu sélectifs. La toxicité et la capacité à former des pores d’une telle toxine, la Cry9Ca, de ses mutants simples R164A et R164K et d’un fragment de 55 kDa résultant d’un clivage protéolytique au niveau de son résidu 164 ont été étudiées à l’aide d’une combinaison de modélisation par homologie, de bioessais, d’expériences de gonflement osmotique avec des vésicules de membrane en bordure en brosse de larves de sphinx du tabac et de mesures électrophysiologiques sur des intestins isolés. Ni les mutations simples ni le clivage protéolytique n’ont altéré la toxicité de la Cry9Ca. Dans une solution à faible force ionique, toutefois, la formation des pores dépend fortement du pH : une augmentation de celui-ci de 6,5 à 10,5 a entraîné une baisse irrégulière et par étapes successives de la perméabilité membranaire. Les quatre préparations de toxine ont néanmoins dépolarisé la membrane apicale d’intestins médians fraîchement isolés baignant dans une solution contenant 122 mM de KCl à pH 10,5. L’activité de la Cry9Ca, et des mutants R164A et R164K, a été grandement stimulée lorsque les expériences ont été effectuées en présence de suc intestinal, de lipides extraits d’un volume équivalent de suc intestinal ou d’un cocktail d’inhibiteurs de protéases solubles dans l’eau. De plus, le rôle des boucles inter-hélicales du Domaine I lors de l’insertion dans la membrane a été étudié avec des mutants doubles de la Cry9Ca dont les mutations introduisaient, neutralisaient ou renversaient une charge électrique. À l’exception de trois d’entres eux, tous ces mutants ont conservé une toxicité et une capacité à former des pores comparables à celles de la toxine parentale. L’ensemble de ces résultats suggère que le micro-environnement de l’intestin médian contribue à minimiser l’influence des charges de surface portées par les résidus des boucles inter-hélicales du Domaine I sur la capacité des toxines du bacille de Thuringe à former des pores. Il indique aussi que, d’une part, selon le site de clivage et les conditions expérimentales utilisées, des protéolyses supplémentaires de la toxine Cry9Ca activée peuvent soit stimuler, soit nuire à son activité et que, d’autre part, le suc intestinal du sphinx du tabac contient probablement un inhibiteur de protéases qui pourrait jouer un rôle important dans l’activité des toxines du bacille de Thuringe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La douleur est une expérience perceptive comportant de nombreuses dimensions. Ces dimensions de douleur sont inter-reliées et recrutent des réseaux neuronaux qui traitent les informations correspondantes. L’élucidation de l'architecture fonctionnelle qui supporte les différents aspects perceptifs de l'expérience est donc une étape fondamentale pour notre compréhension du rôle fonctionnel des différentes régions de la matrice cérébrale de la douleur dans les circuits corticaux qui sous tendent l'expérience subjective de la douleur. Parmi les diverses régions du cerveau impliquées dans le traitement de l'information nociceptive, le cortex somatosensoriel primaire et secondaire (S1 et S2) sont les principales régions généralement associées au traitement de l'aspect sensori-discriminatif de la douleur. Toutefois, l'organisation fonctionnelle dans ces régions somato-sensorielles n’est pas complètement claire et relativement peu d'études ont examiné directement l'intégration de l'information entre les régions somatiques sensorielles. Ainsi, plusieurs questions demeurent concernant la relation hiérarchique entre S1 et S2, ainsi que le rôle fonctionnel des connexions inter-hémisphériques des régions somatiques sensorielles homologues. De même, le traitement en série ou en parallèle au sein du système somatosensoriel constitue un autre élément de questionnement qui nécessite un examen plus approfondi. Le but de la présente étude était de tester un certain nombre d'hypothèses sur la causalité dans les interactions fonctionnelle entre S1 et S2, alors que les sujets recevaient des chocs électriques douloureux. Nous avons mis en place une méthode de modélisation de la connectivité, qui utilise une description de causalité de la dynamique du système, afin d'étudier les interactions entre les sites d'activation définie par un ensemble de données provenant d'une étude d'imagerie fonctionnelle. Notre paradigme est constitué de 3 session expérimentales en utilisant des chocs électriques à trois différents niveaux d’intensité, soit modérément douloureux (niveau 3), soit légèrement douloureux (niveau 2), soit complètement non douloureux (niveau 1). Par conséquent, notre paradigme nous a permis d'étudier comment l'intensité du stimulus est codé dans notre réseau d'intérêt, et comment la connectivité des différentes régions est modulée dans les conditions de stimulation différentes. Nos résultats sont en faveur du mode sériel de traitement de l’information somatosensorielle nociceptive avec un apport prédominant de la voie thalamocorticale vers S1 controlatérale au site de stimulation. Nos résultats impliquent que l'information se propage de S1 controlatéral à travers notre réseau d'intérêt composé des cortex S1 bilatéraux et S2. Notre analyse indique que la connexion S1→S2 est renforcée par la douleur, ce qui suggère que S2 est plus élevé dans la hiérarchie du traitement de la douleur que S1, conformément aux conclusions précédentes neurophysiologiques et de magnétoencéphalographie. Enfin, notre analyse fournit des preuves de l'entrée de l'information somatosensorielle dans l'hémisphère controlatéral au côté de stimulation, avec des connexions inter-hémisphériques responsable du transfert de l'information à l'hémisphère ipsilatéral.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thérapie cellulaire est une avenue pleine de promesses pour la régénération myocardique, par le remplacement du tissu nécrosé, ou en prévenant l'apoptose du myocarde survivant, ou encore par l'amélioration de la néovascularisation. Les cellules souches de la moelle osseuse (CSMO) expriment des marqueurs cardiaques in vitro quand elles sont exposées à des inducteurs. Pour cette raison, elles ont été utilisées dans la thérapie cellulaire de l'infarctus au myocarde dans des études pre-cliniques et cliniques. Récemment, il a été soulevé de possibles effets bénéfiques de l'ocytocine (OT) lors d’infarctus. Ainsi, l’OT est un inducteur de différenciation cardiaque des cellules souches embryonnaires, et cette différenciation est véhiculée par la voie de signalisation du monoxyde d’azote (NO)-guanylyl cyclase soluble. Toutefois, des données pharmacocinétiques de l’OT lui attribue un profil non linéaire et celui-ci pourrait expliquer les effets pharmacodynamiques controversés, rapportés dans la lttérature. Les objectifs de ce programme doctoral étaient les suivants : 1) Caractériser le profil pharmacocinétique de différents schémas posologiques d'OT chez le porc, en développant une modélisation pharmacocinétique / pharmacodynamique plus adaptée à intégrer les effets biologiques (rénaux, cardiovasculaires) observés. 2) Isoler, différencier et trouver le temps optimal d’induction de la différenciation pour les CSMO porcines (CSMOp), sur la base de l'expression des facteurs de transcription et des protéines structurales cardiaques retrouvées aux différents passages. 3) Induire et quantifier la différenciation cardiaque par l’OT sur les CSMOp. 4) Vérifier le rôle du NO dans cette différenciation cardiaque sur les CSMOp. Nous avons constaté que le profil pharmacocinétique de l’OT est mieux expliqué par le modèle connu comme target-mediated drug disposition (TMDD), parce que la durée du séjour de l’OT dans l’organisme dépend de sa capacité de liaison à son récepteur, ainsi que de son élimination (métabolisme). D'ailleurs, nous avons constaté que la différenciation cardiomyogénique des CSMOp médiée par l’OT devrait être induite pendant les premiers passages, parce que le nombre de passages modifie le profile phénotypique des CSMOp, ainsi que leur potentiel de différenciation. Nous avons observé que l’OT est un inducteur de la différenciation cardiomyogénique des CSMOp, parce que les cellules induites par l’OT expriment des marqueurs cardiaques, et l'expression de protéines cardiaques spécifiques a été plus abondante dans les cellules traitées à l’OT en comparaison aux cellules traitées avec la 5-azacytidine, qui a été largement utilisée comme inducteur de différenciation cardiaque des cellules souches adultes. Aussi, l’OT a causé la prolifération des CMSOp. Finalement, nous avons observé que l'inhibition de la voie de signalisation du NO affecte de manière significative l'expression des protéines cardiaques spécifiques. En conclusion, ces études précisent un potentiel certain de l’OT dans le cadre de la thérapie cellulaire cardiomyogénique à base de cellules souches adultes, mais soulignent que son utilisation requerra de la prudence et un approfondissement des connaissances.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Selon plusieurs auteurs, l’intelligence générale et les traits de personnalité sont des construits fondamentaux nécessaires à l’adaptation psychosociale des individus. Bien que plusieurs études menées à partir d’échantillons d’adultes aient démontré des liens significatifs entre ces deux construits, peu d’entre elles ont tenté de vérifier si ces relations pouvaient être observées aussi chez les adolescents. De plus, un nombre très restreint d’études ont étudié la question de savoir si les relations entre l’intelligence générale et les traits de personnalité étaient significatives de façon prospective avec un intervalle de temps entre les évaluations. Enfin, les études disponibles ne permettent pas de déterminer si les relations entre l’intelligence générale et les traits de personnalité sont différentes selon le sexe. La présente étude visait à combler ces vides. Les objectifs étaient, d’une part, de déterminer s’il existe des relations prédictives concurrentes et prospectives entre l’intelligence générale et les traits de personnalité chez les adolescents et, d’autre part, de vérifier si ces relations sont différentes entre les garçons et les filles. Les données utilisées proviennent de l’étude longitudinale de la Stratégie d’intervention agir autrement (SIAA). Un large échantillon d’adolescents évalués une première fois en secondaire un et réévalués à nouveau quatre ans plus tard en secondaire cinq a été employé. À la première vague de collecte de données, seule l’intelligence générale a été évaluée, tandis qu’à la deuxième vague, autant l’intelligence générale que les traits de personnalité l’ont été. La modélisation par équations structurales sur des variables latentes a été utilisée pour tester les différentes hypothèses de recherche. Les résultats ont démontré que, sur le plan concurrent, l’intelligence générale et tous les traits de personnalité considérés sont reliés significativement de façon positive, ce qui va partiellement à l’encontre des données obtenues à partir des échantillons d’adultes. Sur le plan prospectif, les résultats ont confirmé que les corrélations diminuent avec le temps, et ce, pour presque tous les traits étudiés. Finalement, les modèles d’équations structurales multi-groupes ont confirmé la présence de différences significatives entre les garçons et les filles pour certains traits de personnalité. Dans l’ensemble, bien que plusieurs résultats de la présente étude obtenus à partir d’un échantillon d’adolescents soient conformes à ceux observés auprès d’échantillons d’adultes, certaines différences intéressantes sont observées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les séquences protéiques naturelles sont le résultat net de l’interaction entre les mécanismes de mutation, de sélection naturelle et de dérive stochastique au cours des temps évolutifs. Les modèles probabilistes d’évolution moléculaire qui tiennent compte de ces différents facteurs ont été substantiellement améliorés au cours des dernières années. En particulier, ont été proposés des modèles incorporant explicitement la structure des protéines et les interdépendances entre sites, ainsi que les outils statistiques pour évaluer la performance de ces modèles. Toutefois, en dépit des avancées significatives dans cette direction, seules des représentations très simplifiées de la structure protéique ont été utilisées jusqu’à présent. Dans ce contexte, le sujet général de cette thèse est la modélisation de la structure tridimensionnelle des protéines, en tenant compte des limitations pratiques imposées par l’utilisation de méthodes phylogénétiques très gourmandes en temps de calcul. Dans un premier temps, une méthode statistique générale est présentée, visant à optimiser les paramètres d’un potentiel statistique (qui est une pseudo-énergie mesurant la compatibilité séquence-structure). La forme fonctionnelle du potentiel est par la suite raffinée, en augmentant le niveau de détails dans la description structurale sans alourdir les coûts computationnels. Plusieurs éléments structuraux sont explorés : interactions entre pairs de résidus, accessibilité au solvant, conformation de la chaîne principale et flexibilité. Les potentiels sont ensuite inclus dans un modèle d’évolution et leur performance est évaluée en termes d’ajustement statistique à des données réelles, et contrastée avec des modèles d’évolution standards. Finalement, le nouveau modèle structurellement contraint ainsi obtenu est utilisé pour mieux comprendre les relations entre niveau d’expression des gènes et sélection et conservation de leur séquence protéique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse entend contribuer à la compréhension du processus de conception architecturale par le biais du concept de tectonique, notion dont l’historicité confirme une certaine diversité de significations, mais qui suscite une réflexion fondamentale sur le rapport entre l’esthétique architecturale et les moyens constructifs. La connaissance technique de la construction, constituée principalement au 18ème siècle, permettra une nouvelle réflexion sur le rapport entre l’esthétique architecturale et les moyens constructifs. Au 19ème siècle, moment de l’apparition du concept de « tectonique » dans le contexte du débat sur la notion de style, l’indéniable contribution de l’architecte et théoricien Gottfried Semper reconnaît la complexité matérielle de l’édifice. La reprise du terme au 20ème siècle par l’historien et théoricien Kenneth Frampton va quant à elle déplacer le sens de la tectonique vers l’idée d’un « potentiel d’expression constructive ». Ces deux auteurs représentent deux grandes approches tectoniques convergeant sur la nécessité, pour toute théorie de l’architecture, d’encourager une réflexion critique de la construction. Cette thèse se développe en deux parties, l’une retraçant l’histoire et les enjeux de la tectonique, l’autre, de nature plus concrète, cherchant à tester l’actualité du concept à travers une série d’analyses tectoniques de projets modernes et contemporains. À la croisée de deux contextes géographiques différents, le Canada et le Brésil, le corpus de projets de concours que nous avons constitué considère la tectonique comme un phénomène transculturel. Nous formulons l’hypothèse d’une « tectonique du projet », c’est-à-dire d’un espace théorique dans lequel les questions relatives au bâtiment s’élaborent dans des « tensions » dialectiques. L’actualité des catégories semperiennes, dans lesquelles les différents « éléments » du bâtiment représentent différentes techniques de construction, est revisitée à partir de l’étude des projets de Patkau Architects (1986) et de MMBB Arquitetos (1990). Une tension entre les expressions symbolique et formelle issues du matériau brut est plus explicite dans l’étude des projets de Ramoisy Tremblay architectes (2002) et de Brasil Arquitetura (2005). La théorie de la transformation de matériau (Stoffwechseltheorie) de Semper est réexaminée parallèlement dans les projets d’Arthur Erickson et Geoffrey Massey (1967) et de Paulo Mendes da Rocha (1969). Dans l’ensemble de tensions tectoniques présentes tout au long de la conception, nous avons retenu plus particulièrement : le contact avec le sol, la recherche d’une homogénéité constructive, ou son opposé, la recherche d’une variété matérielle et, finalement la tension entre la dimension représentationnelle et la dimension technique de l’architecture. La modélisation du concept de tectonique, par un ensemble de tensions auxquelles les concepteurs doivent s’adresser en phase de projet, confirme que des questions en apparence simplement « techniques » concernent en fait tout autant le génie de l’invention que la connaissance historique des idées architecturales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur une classe d'algorithmes d'apprentissage appelés architectures profondes. Il existe des résultats qui indiquent que les représentations peu profondes et locales ne sont pas suffisantes pour la modélisation des fonctions comportant plusieurs facteurs de variation. Nous sommes particulièrement intéressés par ce genre de données car nous espérons qu'un agent intelligent sera en mesure d'apprendre à les modéliser automatiquement; l'hypothèse est que les architectures profondes sont mieux adaptées pour les modéliser. Les travaux de Hinton (2006) furent une véritable percée, car l'idée d'utiliser un algorithme d'apprentissage non-supervisé, les machines de Boltzmann restreintes, pour l'initialisation des poids d'un réseau de neurones supervisé a été cruciale pour entraîner l'architecture profonde la plus populaire, soit les réseaux de neurones artificiels avec des poids totalement connectés. Cette idée a été reprise et reproduite avec succès dans plusieurs contextes et avec une variété de modèles. Dans le cadre de cette thèse, nous considérons les architectures profondes comme des biais inductifs. Ces biais sont représentés non seulement par les modèles eux-mêmes, mais aussi par les méthodes d'entraînement qui sont souvent utilisés en conjonction avec ceux-ci. Nous désirons définir les raisons pour lesquelles cette classe de fonctions généralise bien, les situations auxquelles ces fonctions pourront être appliquées, ainsi que les descriptions qualitatives de telles fonctions. L'objectif de cette thèse est d'obtenir une meilleure compréhension du succès des architectures profondes. Dans le premier article, nous testons la concordance entre nos intuitions---que les réseaux profonds sont nécessaires pour mieux apprendre avec des données comportant plusieurs facteurs de variation---et les résultats empiriques. Le second article est une étude approfondie de la question: pourquoi l'apprentissage non-supervisé aide à mieux généraliser dans un réseau profond? Nous explorons et évaluons plusieurs hypothèses tentant d'élucider le fonctionnement de ces modèles. Finalement, le troisième article cherche à définir de façon qualitative les fonctions modélisées par un réseau profond. Ces visualisations facilitent l'interprétation des représentations et invariances modélisées par une architecture profonde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette étude est de déterminer certains paramètres respiratoires et cardiovasculaires chez des sujets de tous âges pour utilisation, à titre d’intrants physiologiques, en modélisation toxicocinétique et en analyse du risque toxique. La base de données utilisée est tirée de la littérature. Il s’agit de mesures portant sur la dépense d’énergie quotidienne de base et la dépense d’énergie quotidienne de totale obtenues, l’une par calorimétrie indirecte, l’autre par double marquage isotopique des molécules d’eau. Selon le type d’unité retenu, les valeurs les plus élevées au 99e centile des taux quotidiens d’inhalation sont obtenues chez des adolescentes et des femmes âgées de 11 à 55 ans souffrant d’embonpoint ou d’obésité, durant leur 36e semaine de grossesse (47,31 m³/jour), ainsi que chez des garçons de poids corporel normal âgés de 2,6 à moins de 6 mois (1,138 m³/kg-jour) et de 10 à moins de 16,5 ans (22,29 m³/m²-jour). Chez les enfants et les adolescents de poids corporel normal âgés de 5 à moins de 16.5 ans, les valeurs pour l’écart entre le 2,5e au 99e centile sont généralement plus élevées que celles obtenues chez les sujets plus âgés : taux de ventilation minute, 0,132 à 0,774 L/kg-min ou 4,42 à 21,69 L/m²-min versus 0,076 à 0,461 L/kg-min ou 2,80 à 16,99 L/m²-min; taux de ventilation alvéolaire, 0,093 à 0,553 L/kg-min ou 3,09 à 15,53 L/m²-min versus 0,047 à 0,312 L/kg-min ou 1,73 à 11,63 L/m²-min; débit cardiaque, 0,065 à 0,330 L/kg-min ou 2,17 à 9,46 L/m²-min versus 0,045 à 0,201 L/kg-min ou 1,63 à 7,24 L/m²-min; ratio de ventilation-perfusion, 1,12 à 2,16 versus 0,78 à 2,40. Il faut conclure que les apports inhalés en polluants, exprimés en ug/kg-min ou ug/m²-min sont plus élevés chez les enfants que chez les sujets plus âgés pour des concentrations d’exposition comparables. D’autres données montrent qu’il en est de même pour les apports inhalés par unité de poids corporel chez les femmes enceintes et les femmes qui allaitent par rapport à des sujets males d’âge comparable. L’ensemble des résultats obtenus suggère notamment que les valeurs des NOAELH de Santé Canada pourraient être abaissées par un facteur de 2,6 par utilisation du 99e centile le plus élevé des taux quotidiens d’inhalation chez les enfants; le taux de ventilation minute de 20,83 L/min approximé pour une journée de travail de 8 heures peut être considéré comme étant conservateur ; par contre, l’utilisation du taux quotidien d’inhalation de 0,286 m³/kg-jour (c.-à-d. 20 m³/jour pour un adulte de poids corporel de 70 kg) est inappropriée en analyse et gestion du risque lorsqu’appliquée à l’ensemble de la population.