603 resultados para Macroéconomie--Modèles mathématiques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Partant des travaux séminaux de Boole, Frege et Russell, le mémoire cherche à clarifier l‟enjeu du pluralisme logique à l‟ère de la prolifération des logiques non-classiques et des développements en informatique théorique et en théorie des preuves. Deux chapitres plus « historiques » sont à l‟ordre du jour : (1) le premier chapitre articule l‟absolutisme de Frege et Russell en prenant soin de montrer comment il exclut la possibilité d‟envisager des structures et des logiques alternatives; (2) le quatrième chapitre expose le chemin qui mena Carnap à l‟adoption de la méthode syntaxique et du principe de tolérance, pour ensuite dégager l‟instrumentalisme carnapien en philosophie de la Logique et des mathématiques. Passant par l‟analyse d‟une interprétation intuitive de la logique linéaire, le deuxième chapitre se tourne ensuite vers l‟établissement d‟une forme logico-mathématique de pluralisme logique à l‟aide de la théorie des relations d‟ordre et la théorie des catégories. Le troisième chapitre délimite le terrain de jeu des positions entourant le débat entre monisme et pluralisme puis offre un argument contre la thèse qui veut que le conflit entre logiques rivales soit apparent, le tout grâce à l‟utilisation du point de vue des logiques sous-structurelles. Enfin, le cinquième chapitre démontre que chacune des trois grandes approches au concept de conséquence logique (modèle-théorétique, preuve-théorétique et dialogique) forme un cadre suffisamment général pour établir un pluralisme. Bref, le mémoire est une défense du pluralisme logique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’observation d’un modèle pratiquant une habileté motrice promeut l’apprentissage de l’habileté en question. Toutefois, peu de chercheurs se sont attardés à étudier les caractéristiques d’un bon modèle et à mettre en évidence les conditions d’observation pouvant optimiser l’apprentissage. Dans les trois études composant cette thèse, nous avons examiné les effets du niveau d’habileté du modèle, de la latéralité du modèle, du point de vue auquel l’observateur est placé, et du mode de présentation de l’information sur l’apprentissage d’une tâche de timing séquentielle composée de quatre segments. Dans la première expérience de la première étude, les participants observaient soit un novice, soit un expert, soit un novice et un expert. Les résultats des tests de rétention et de transfert ont révélé que l’observation d’un novice était moins bénéfique pour l’apprentissage que le fait d’observer un expert ou une combinaison des deux (condition mixte). Par ailleurs, il semblerait que l’observation combinée de modèles novice et expert induise un mouvement plus stable et une meilleure généralisation du timing relatif imposé comparativement aux deux autres conditions. Dans la seconde expérience, nous voulions déterminer si un certain type de performance chez un novice (très variable, avec ou sans amélioration de la performance) dans l’observation d’une condition mixte amenait un meilleur apprentissage de la tâche. Aucune différence significative n’a été observée entre les différents types de modèle novices employés dans l’observation de la condition mixte. Ces résultats suggèrent qu’une observation mixte fournit une représentation précise de ce qu’il faut faire (modèle expert) et que l’apprentissage est d’autant plus amélioré lorsque l’apprenant peut contraster cela avec la performance de modèles ayant moins de succès. Dans notre seconde étude, des participants droitiers devaient observer un modèle à la première ou à la troisième personne. L’observation d’un modèle utilisant la même main préférentielle que soi induit un meilleur apprentissage de la tâche que l’observation d’un modèle dont la dominance latérale est opposée à la sienne, et ce, quel que soit l’angle d’observation. Ce résultat suggère que le réseau d’observation de l’action (AON) est plus sensible à la latéralité du modèle qu’à l’angle de vue de l’observateur. Ainsi, le réseau d’observation de l’action semble lié à des régions sensorimotrices du cerveau qui simulent la programmation motrice comme si le mouvement observé était réalisé par sa propre main dominante. Pour finir, dans la troisième étude, nous nous sommes intéressés à déterminer si le mode de présentation (en direct ou en vidéo) influait sur l’apprentissage par observation et si cet effet est modulé par le point de vue de l’observateur (première ou troisième personne). Pour cela, les participants observaient soit un modèle en direct soit une présentation vidéo du modèle et ceci avec une vue soit à la première soit à la troisième personne. Nos résultats ont révélé que l’observation ne diffère pas significativement selon le type de présentation utilisée ou le point de vue auquel l’observateur est placé. Ces résultats sont contraires aux prédictions découlant des études d’imagerie cérébrale ayant montré une activation plus importante du cortex sensorimoteur lors d’une observation en direct comparée à une observation vidéo et de la première personne comparée à la troisième personne. Dans l’ensemble, nos résultats indiquent que le niveau d’habileté du modèle et sa latéralité sont des déterminants importants de l’apprentissage par observation alors que le point de vue de l’observateur et le moyen de présentation n’ont pas d’effets significatifs sur l’apprentissage d’une tâche motrice. De plus, nos résultats suggèrent que la plus grande activation du réseau d’observation de l’action révélée par les études en imagerie mentale durant l’observation d’une action n’induit pas nécessairement un meilleur apprentissage de la tâche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire porte sur la question de l’innovation militaire en temps de guerre et plus particulièrement sur la transition de la guerre conventionnelle vers la contre-insurrection des forces armées américaines au cours de la guerre d’Irak. Cette transition est un cas d’innovation militaire intéressant puisqu’il s’agit d’un changement radical dans les pratiques militaires de l’Armée américaine et du Corps des marines particulièrement parce qu’ils ont régulièrement tenté d’éviter les missions de contre-insurrection au cours de leur histoire. Cette recherche tentera d’expliquer comment les forces américaines ont innové au cours de la guerre d’Irak Nous considérons que le passage de la guerre conventionnelle à la contre-insurrection des forces américaines est le résultat d’un processus d’innovation militaire en temps de guerre qui se produit simultanément à partir de la base et du sommet de l’organisation militaire américaine. Tout d’abord, à la base, nous estimons que les unités américaines de l’Armée et des marines ont développé de nouvelles capacités de contre-insurrection à la suite d’un processus d’exploration de nouvelles tactiques et de nouvelles techniques sur le champ de bataille. Ensuite, à partir du sommet, nous croyons que la contre-insurrection est le résultat d’un changement stratégique au niveau des opérations des forces américaines. Ce mémoire est divisé en quatre chapitres. Le premier est consacré aux modèles théoriques d’innovation militaire. Le deuxième présente un aperçu de la guerre d’Irak de 2003 à 2007. Les chapitres 3 et 4 analysent respectivement la contre-insurrection comme un processus d’innovation militaire par la base et par le sommet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans les sphères du développement durable, des modèles d’affaires et du design de produit, certains leviers rendent le croisement de ces trois sphères de plus en plus pertinent. Au croisement de ces trois sphères se trouve une opportunité de comprendre les relations existantes entre le design de produit et les modèles d’affaires afin d’aider les décideurs à développer des solutions davantage durables. L’approche méthodologique de cette recherche utilise un système complexe et est basée sur un paradigme pragmatique. En vue de répondre à la question « Dans quelle mesure des modèles d’affaires et le design de produit sont liés dans un contexte de développement durable? », cette recherche a soigneusement analysé trois cas: Better Place, une compagnie californienne ayant développé une infrastructure permettant le chargement des voitures électriques; Interface Inc., un manufacturier mondial de tuiles de tapis commerciales établi à Atlanta; et Métacycle, un concept d’entreprise développé par une équipe de chercheurs en design à Montréal. Chaque cas a été analysé en corrélant des aspects du design de produit à des éléments de leur modèle d’affaires. Les résultats montrent que dans le contexte du développement durable, le design de produit et les modèles d’affaires sont interdépendants. Les résultats peuvent être résumés en six points: il existe des relations applicables universellement; les innovations de design substantielles jouent un rôle important dans le développement durable; la « durabilité » peut être une qualité émergente d’un modèle d’affaires; les partenariats peuvent être vitaux pour l’intégration des systèmes; un modèle de services a des bénéfices et des limitations considérables; le design peut agir comme levier à l’utilisation d’énergies renouvelables. Pratiquer simultanément l’innovation du modèle d’affaires et du produit peut apporter une valeur ajoutée, susciter des opportunités et augmenter l’efficience sur plusieurs facettes. Toutefois, les risques et les coûts de tels procédés sont souvent très élevés. En aidant à comprendre et définir comment les trois sphères mentionnées plus tôt sont interdépendantes, cette recherche pourrait idéalement inspirer des recherches supplémentaires sur le sujet. L’application par des organisations de la méthodologie et des apprentissages résultant de cette recherche peut permettre à d’autres d’utiliser le croisement entre l’innovation de produit et l’innovation du modèle d’affaires afin de résoudre des enjeux sociaux et environnementaux complexes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réaction du greffon contre l’hôte (GvH) est responsable d’un grand taux de morbidité et de mortalité chez les patients recevant des greffes de cellules souches (GCSH) allogéniques. Dans ce contexte, les cellules T régulatrices sont largement étudiées et semblent avoir un grand potentiel d’utilisation dans le domaine de la thérapie cellulaire de la GvH. Parmi les populations cellulaires T régulatrices, les lymphocytes T CD4-CD8- TCRαβ+ « Doubles-Négatifs » (DN), qui ne représentent que 1-3% des lymphocytes T, ont été décrits. Ces cellules ont des propriétés inhibitrices de la réponse immunitaire qui s’avèrent spécifiques aux antigènes auxquels elles ont préalablement été exposées. La répression de la réponse immunitaire par les cellules T DN régulatrices semble être un mécanisme important impliqué dans l’induction de la tolérance aux allo-antigènes. De plus, ces cellules confèrent une tolérance immunitaire dans des modèles de greffes allogéniques et xénogéniques. En effet, ces cellules ont la capacité d’inhiber la réaction contre un allo-antigène auquel elles ont été exposées, sans inhiber la réaction contre un allo-antigène inconnu. Les cellules T DN ont été isolées et caractérisées chez l’homme où elles ont la capacité d’interagir avec des cellules présentatrices d’antigènes (APCs) par un contact cellulaire, comme chez la souris. Cependant, leur capacité immunomodulatrice reste inconnue chez l’humain. Notre objectif consistait donc principalement à étudier le rôle et le mécanisme d’action des cellules T DN régulatrices humaines in vitro, en étudiant leur capacité à inhiber une réaction lymphocytaire mixte (MLR). Nous avons montré que les cellules T DN stimulées par un allo-antigène donné inhibent des cellules syngéniques effectrices dirigées contre ce même alloantigène mais n’inhibent pas des cellules syngéniques effectrices dirigées contre un autre alloantigène, démontrant ainsi la spécificité aux antigènes de ces cellules. De plus, les T DN non stimulées par un allo-antigène n’ont pas de rôle inhibiteur. Cependant, durant cette inhibition, nous n’observons pas de modulation de l’expression des marqueurs d’activation et d’induction de l’apoptose. Afin d’étudier le mécanisme d’action des cellules T DN, nous avons mesuré l’expression intracellulaire de la granzyme B. Les résultats démontrent que les cellules T DN stimulées expriment un niveau significativement plus élevé de granzyme B que les cellules T DN non-stimulées par l’allo-antigène. Ceci suggère que l’immunosuppression induite par les cellules T DN stimulées pourrait passer par la voie granzyme B. Le mécanisme utilisé par ces cellules reste à être confirmé par nos futures expériences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’approche Module X a été créée dans le but de concevoir de petits peptides modulateurs ayant des propriétés allostériques. Module X reproduit de petites parties des portions extracellulaires flexibles des récepteurs. Ces petits peptides vont interagir en s’interposant entre deux sous unités ou entre deux régions de la même sous-unité qui interagissent par des liens hydrogènes, des ponts salins ou des liens disulfure. Ces régions sont spécialement choisies à l’extérieur du domaine de liaison du ligand orthostérique et sont situées dans les régions inter domaines, la portion juxta membranaire ou dans les boucles. Étant donné que les boucles sont exposées durant les changements de conformation, une séquence peptidique reproduisant certaines régions de ces boucles pourrait s’insérer à un endroit approprié dans la structure où se lier à son partenaire de signalisation dans le complexe protéique, ce qui aurait comme effet de déplacer l’équilibre de l’ensemble vers un état particulier et modulerait ainsi la signalisation. De cette façon, certaines voies de signalisation pourraient être partiellement inhibées tandis que d’autres voies ne seraient pas touchées puisque le ligand orthostérique pourrait toujours se lier au récepteur. Dans une première étude, nous avons conçu des peptides inhibiteurs du récepteur de l’interleukine 1 (IL-1R/IL-1RAcP) plus précisément en reproduisant des régions flexibles de la protéine accessoire, sous-unité signalisatrice du récepteur. IL-1 est un médiateur majeur de l’inflammation, mais le seul antagoniste disponible est l’analogue naturel de IL-1, IL-1Ra qui compétitionne avec IL-1 pour le site de liaison sur le récepteur. Nous avons conçu plusieurs peptides à partir des boucles de la protéine accessoire. Un de ces peptides, rytvela (101.10) a démontré des propriétés de non-compétitivité et de sélectivité fonctionnelle caractéristiques des modulateurs allostériques. 101.10 bloque la prolifération des thymocytes et la synthèse de PGE2 avec un IC50 de 1 nM mais une efficacité de 100 % et 45 % respectivement et ne déplace pas IL-1 radioactif dans des essais de radioliaisons. De plus, 101.10 n’a qu’un effet minime sur l’affinité de IL-1 pour son récepteur. 101.10 démontre, de plus, une activité inhibitrice in vivo dans des modèles d’inflammation de l’intestin chez le rat (efficacité supérieure aux corticostéroïdes et à IL-1Ra) et de dermatite chez la souris de même que dans un modèle d’hyperthermie induite par IL-1. La deuxième étude démontre que Module X peut être utilisé pour concevoir des inhibiteurs pour une autre grande famille de récepteurs : les récepteurs couplés aux protéines G. La vasopressine joue un rôle important dans l’équilibre hydro-osmotique et un moindre rôle dans la vasomotricité. Six peptides ont été conçus à partir de régions juxta membranaires du récepteur de la vasopressine V2R. Le peptide le plus actif, VRQ397 (IC50 = 0,69 nM dans un modèle de vasorelaxation du crémastère), a démontré de la sélectivité fonctionnelle en inhibant la synthèse de prostacycline mais sans inhiber l’activation de la protéine Gs et la génération d’ AMP cyclique. Le peptide VRQ397 ne pouvait déplacer le ligand naturel AVP marqué radioactivement; de même VRQ397 radioactif ne se liait que sur V2R et non pas sur d’autres récepteurs de la même famille tel que V1R (récepteur de la vasopressine de type I). Ces études décrivent la caractérisation de petits peptides modulateurs de la signalisation de IL-1R et V2R et présentant des propriétés de modulateurs allostériques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le taux d’homicide est un bon indicateur de la violence générale dans un pays. De plus, il s’agit du crime le mieux mesuré car il est rare qu’un homicide passe inaperçu. De nombreux auteurs ont donc cherché à expliquer ce qui pouvait influencer la variation du taux d’homicide dans les pays du monde. Leurs résultats ont mis à jour certains prédicteurs qui influenceraient le taux d’homicide dans les pays du monde. Il s’agit notamment du niveau de vie mesuré à l’aide du PIB par habitant, de l’inégalité, mesuré à l’aide du coefficient GINI ou encore des facteurs démographiques. Ces facteurs criminogènes sont tous de niveau macroscopique sur lesquels il est difficile d’agir. Ce mémoire intégrera au modèle, en plus des prédicteurs déjà connus, des variables plus proximales (consommation d’alcool, de drogue, présence de criminalité organisée, corruption, taux de criminalité, etc.) afin de voir s’ils pourraient également influencer la variation du taux d’homicide. Cette étude se concentrera sur le taux d’homicide de 41 pays européens. Une sélection de nos variables sera effectuée à l’aide d’analyses bivariées (corrélation, corrélation partielle) avant d’intégrer les variables restantes dans plusieurs modèles de régression multiple qui permettra in fine d’isoler les variables ayant une réelle influence sur le taux d’homicide. Les résultats indiquent que les facteurs proximaux ont une réelle influence sur le taux d’homicide. En effet, non seulement deux variables proximales (l’abus de la consommation d’alcool, et le pourcentage de personne s’étant déclaré victime de cambriolage) sont, après avoir pris en considération de nombreuses variables de niveau macroscopique, significativement liées au taux d’homicide mais en plus, le fait d’intégrer ce type de variables dans un modèle de régression multiple fait augmenter la variance expliquée. Ces variables de type proximales ont donc une grande importance dans l’explication de la variation du taux d’homicide.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La recherche porte sur les patrons de distribution longitudinale (amont-aval) et transversale (rive nord - rive sud) des communautés de crustacés planctoniques qui ont été analysés le long du fleuve Saint-Laurent entre le lac Saint-François et la zone de transition estuarienne, à deux hydropériodes en mai (crue) et en août (étiage). Les données zooplanctoniques et environnementales ont été récoltées à 52 stations réparties sur 16 transects transversaux en 2006. Au chapitre 1, nous présentons les principaux modèles écosystémiques en rivière, une synthèse des facteurs influençant le zooplancton en rivières et les objectifs et hypothèses de recherche. Au chapitre 2, nous décrivons la structure des communautés de zooplancton dans trois zones biogéographiques du fleuve et 6 habitats longitudinaux, ainsi que les relations entre la structure du zooplancton et la distribution spatiale des masses d’eau et les variables environnementales. Au chapitre 3, nous réalisons une partition de la variation des variables spatiales AEM (basées sur la distribution des masses d’eau) et des variables environnementales pour évaluer quelle part de la variation du zooplancton est expliquée par les processus hydrologiques (variables AEM) et les conditions locales (facteurs environnementaux). Le gradient salinité-conductivité relié à la discontinuité fleuve-estuaire a déterminé la distribution à grande échelle du zooplancton. Dans les zones fluviales, la distribution du zooplancton est davantage influencée par la distribution des masses d’eau que par les facteurs environnementaux locaux. La distribution des masses d’eau explique une plus grande partie de la variation dans la distribution du zooplancton en août qu’en mai.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels modèles. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le débruitement d’images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du modèle s’interinfluencent. Nous présentons deux familles d’architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type d’expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène d’influence décrit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle développée, plus incertaine au départ, permet malgré tout d’obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Plan d’action en santé mentale institué en 2005 marque le début d’une période de changements profonds qui auront un impact significatif sur les équipes de première ligne qui assurent la plupart des services au Québec. Le changement se manifestera sur deux fronts distincts. En premier lieu, le passage de services historiquement ancrés dans un modèle biomédical vers des services centrés sur le rétablissement. En second lieu, l’adoption de processus administratifs s’inscrivant dans une philosophie de gestion axée sur les résultats qui ont pour objectif de mesurer et d’assurer l’efficacité des services. L'objectif de cette étude est d’explorer le statu du développement des pratiques axées sur le rétablissement au niveau des travailleurs sociaux de première ligne dans le contexte administratif mentionné ci-haut. Le travail de recherche qualitatif et exploratoire est construit sur l’analyse de 11 interviews semi structurés avec des travailleurs sociaux et des gestionnaires dans des équipes de première ligne en santé mentale. Les entretiens m’ont non seulement permis d’identifier et d’examiner des actions concrètes s’inscrivant dans l’effort d’implantation du Plan d’action mais aussi de sonder et d’explorer la signification qui est donnée au rétablissement par les travailleurs sociaux de première ligne. Les résultats indiquent que certains facteurs relatifs à l'organisation du travail tels que la flexibilité, l'autonomie, la réflexivité et l’interdisciplinarité peuvent favoriser une pratique orientée vers le rétablissement. Aussi, les résultats démontrent que le modèle du rétablissement et la profession du travail social partagent des valeurs fondamentales mais que la signification et l'expression du rétablissement ont été profondément influencés par les modèles organisationnels et obligations administratives en vigueur. Il appert que les travailleurs sociaux sont confrontés, dans leur pratique, à des contraintes qui dépassent leur mandat professionnel et, à certains égards, leur savoir-faire. En somme, les résultats obtenus indiquent que le passage avec succès vers la pratique de services basés sur le rétablissement est compromis par les exigences d’un modèle de gestion axé sur les résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le sujet principal de ce texte est une forme très ciblée de ségrégation démographique : la ségrégation selon le type de famille. Cependant, puisque la répartition spatiale des familles mariées, des familles en union libre, des familles monoparentales à chef féminin et de celles à chef masculin ne dépend pas uniquement de leur structure, il faut aussi considérer d'autres facettes de leur identité, notamment leurs caractéristiques socio-économiques et ethnoculturelles. La combinaison de ces facteurs engendre une ségrégation croisée que nous explorons avec les données du recensement de 2006 pour la région métropolitaine de Montréal. Nous utilisons d'abord des indices de ségrégation pour mettre en évidence une ségrégation familiale "brute", puis nous avons recours à des modèles de locational attainment pour déterminer l'effet "net" du type de famille sur le revenu médian du quartier de résidence et sur la distance qui sépare ce quartier du centre-ville. Nous trouvons qu'il existe une interaction importante entre l'appartenance ethnoculturelle, le revenu familial et le type de famille ce qui nous conduit à relativiser les résultats de recherches qui ne prennent pas en compte l'hétérogénéité interne des types de famille.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Étant donné leur facilité d’application, ces méthodes sont largement répandues dans plusieurs communautés scientifiques et bien certainement en statistique, particulièrement en analyse bayésienne. Depuis l’apparition de la première méthode MCMC en 1953, le nombre de ces algorithmes a considérablement augmenté et ce sujet continue d’être une aire de recherche active. Un nouvel algorithme MCMC avec ajustement directionnel a été récemment développé par Bédard et al. (IJSS, 9 :2008) et certaines de ses propriétés restent partiellement méconnues. L’objectif de ce mémoire est de tenter d’établir l’impact d’un paramètre clé de cette méthode sur la performance globale de l’approche. Un second objectif est de comparer cet algorithme à d’autres méthodes MCMC plus versatiles afin de juger de sa performance de façon relative.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La voie de la polarité planaire cellulaire (PCP), aussi connue sous le nom de la voie non-canonique du Frizzled/Dishevelled, contrôle le processus morphogénétique de l'extension convergente (CE) qui est essentiel pour la gastrulation et la formation du tube neural pendant l'embryogenèse. La signalisation du PCP a été récemment associée avec des anomalies du tube neural (ATN) dans des modèles animaux et chez l'humain. Prickle1 est une protéine centrale de la voie PCP, exprimée dans la ligne primitive et le mésoderme pendant l'embryogenèse de la souris. La perte ou le gain de fonction de Prickle1 mène à des mouvements de CE fautifs chez le poisson zèbre et la grenouille. PRICKLE1 interagit directement avec deux autres membres de la voie PCP, Dishevelled et Strabismus/Vang. Dans notre étude, nous avons investigué le rôle de PRICKLE1 dans l'étiologie des ATN dans une cohorte de 810 patients par le re-séquençage de son cadre de lecture et des jonctions exon-intron. Le potentiel pathogénique des mutations ainsi identifiées a été évalué par des méthodes bioinformatiques, suivi par une validation fonctionnelle in vivo dans un système poisson zèbre. Nous avons identifié dans notre cohorte un total de 9 nouvelles mutations dont sept: p.Ile69Thr, p.Asn81His, p.Thr275Met, p.Arg682Cys et p.Ser739Phe, p.Val550Met et p.Asp771Asn qui affectent des acides aminés conservés. Ces mutations ont été prédites in silico d’affecter la fonction de la protéine et sont absentes dans une large cohorte de contrôles de même origine ethnique. La co-injection de ces variantes avec le gène prickle1a de type sauvage chez l’embryon de poisson zèbre a démontré qu’une mutation, p.Arg682Cys, modifie dans un sens négatif le phénotype du défaut de la CE produit par pk1 de type sauvage. Notre étude démontre que PK1 peut agir comme facteur prédisposant pour les ATN chez l’humain et élargit encore plus nos connaissances sur le rôle des gènes de la PCP dans la pathogenèse de ces malformations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude aborde le thème de l’utilisation des modèles de mélange de lois pour analyser des données de comportements et d’habiletés cognitives mesurées à plusieurs moments au cours du développement des enfants. L’estimation des mélanges de lois multinormales en utilisant l’algorithme EM est expliquée en détail. Cet algorithme simplifie beaucoup les calculs, car il permet d’estimer les paramètres de chaque groupe séparément, permettant ainsi de modéliser plus facilement la covariance des observations à travers le temps. Ce dernier point est souvent mis de côté dans les analyses de mélanges. Cette étude porte sur les conséquences d’une mauvaise spécification de la covariance sur l’estimation du nombre de groupes formant un mélange. La conséquence principale est la surestimation du nombre de groupes, c’est-à-dire qu’on estime des groupes qui n’existent pas. En particulier, l’hypothèse d’indépendance des observations à travers le temps lorsque ces dernières étaient corrélées résultait en l’estimation de plusieurs groupes qui n’existaient pas. Cette surestimation du nombre de groupes entraîne aussi une surparamétrisation, c’est-à-dire qu’on utilise plus de paramètres qu’il n’est nécessaire pour modéliser les données. Finalement, des modèles de mélanges ont été estimés sur des données de comportements et d’habiletés cognitives. Nous avons estimé les mélanges en supposant d’abord une structure de covariance puis l’indépendance. On se rend compte que dans la plupart des cas l’ajout d’une structure de covariance a pour conséquence d’estimer moins de groupes et les résultats sont plus simples et plus clairs à interpréter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les mélanomes malins (MM) constituent le deuxième type de cancer le plus fréquent chez les jeunes adultes canadiens (entre 20 et 44 ans) ainsi qu’un des rares cancers dont l’incidence augmente annuellement. À moins que les MM ne soient excisés à temps par chirurgie, les chances de survie des patients sont pratiquement nulles puisque ce type de tumeur est très réfractaire aux traitements conventionnels. Il est bien connu que l’exposition aux rayons ultraviolets (UV), induisant des photoproduits génotoxiques, est une déterminante majeure dans l’acquisition de MM. À cet effet, la réparation par excision de nucléotides (NER) est la ligne de défense principale contre le développement des mélanomes puisqu’elle est la voie de réparation prépondérante en ce qui a trait aux dits photoproduits. Malgré cela, la contribution potentielle de défauts de la NER au développement des MM dans la population normale n’est toujours pas bien établie. Notre laboratoire a précédemment développé une méthode basée sur la cytométrie de flux qui permet de mesurer la NER en fonction du cycle cellulaire. Cette méthode a déjà mise en évidence qu’une déficience de l’activité de la protéine ATR peut mener à une déficience de la NER exclusive à la phase S dans des fibroblastes humains. Pareillement, nous avons démontré que plusieurs lignées cellulaires cancéreuses modèles comportent une déficience en NER en phase S, suggérant qu’une telle déficience puisse caractériser certains types de cancers. Nous avons voulu savoir si une déficience en NER en phase S pouvait être associée à une proportion significative de mélanomes et si le tout pouvait être attribuable à une diminution de l’activité d’ATR. Nos objectifs ont donc été de : (i) mesurer l’efficacité de la NER en fonction du cycle cellulaire dans les MM en comparaison avec les mélanocytes primaires, (ii) vérifier si le niveau d’activité d’ATR corrèle avec l’efficacité de la NER en phase S dans les lignées de MM et (iii) voir si un gène fréquemment muté dans les mélanomes (tels PTEN et BRAF) pouvait coopérer avec ATR pour réguler la NER en phase S dans les mélanomes. Nous avons démontré que 13 lignées de MM sur 16 ont une capacité grandement diminuée à réparer les photoproduits induits par UV spécifiquement en phase S. De plus, cette déficience corrèle fortement avec une réduction de l’activation d’ATR et, dans plusieurs lignées de MM, avec une phosphorylation d’Akt plus importante. L’utilisation d’ARN interférent ou d’un inhibiteur du suppresseur de tumeurs PTEN, a permis, en plus d’augmenter la phosphorylation d’Akt, de réduire la réparation des photoproduits et l’activation d’ATR dans les cellules en phase S. En addition, (i) l’expression ectopique de la protéine PTEN sauvage dans des lignées déficientes en PTEN (mais pas d’une protéine PTEN sans activité phosphatase) ou (ii) l’inhibition pharmacologique d’Akt a permis d’augmenter la réparation en phase S ainsi que l’activation d’ATR. En somme, cette étude démontre qu’une signalisation d’ATR dépendante de PTEN/Akt amenant à une réparation déficiente des photoproduits génomiques causés par les UV en phase S peut être déterminante dans le développement des mélanomes induits par UV.