967 resultados para Modèle non-standard


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M.Sc.) option expertise-conseil en soins infirmiers

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les objets d’étude de cette thèse sont les systèmes d’équations quasilinéaires du premier ordre. Dans une première partie, on fait une analyse du point de vue du groupe de Lie classique des symétries ponctuelles d’un modèle de la plasticité idéale. Les écoulements planaires dans les cas stationnaire et non-stationnaire sont étudiés. Deux nouveaux champs de vecteurs ont été obtenus, complétant ainsi l’algèbre de Lie du cas stationnaire dont les sous-algèbres sont classifiées en classes de conjugaison sous l’action du groupe. Dans le cas non-stationnaire, une classification des algèbres de Lie admissibles selon la force choisie est effectuée. Pour chaque type de force, les champs de vecteurs sont présentés. L’algèbre ayant la dimension la plus élevée possible a été obtenues en considérant les forces monogéniques et elle a été classifiée en classes de conjugaison. La méthode de réduction par symétrie est appliquée pour obtenir des solutions explicites et implicites de plusieurs types parmi lesquelles certaines s’expriment en termes d’une ou deux fonctions arbitraires d’une variable et d’autres en termes de fonctions elliptiques de Jacobi. Plusieurs solutions sont interprétées physiquement pour en déduire la forme de filières d’extrusion réalisables. Dans la seconde partie, on s’intéresse aux solutions s’exprimant en fonction d’invariants de Riemann pour les systèmes quasilinéaires du premier ordre. La méthode des caractéristiques généralisées ainsi qu’une méthode basée sur les symétries conditionnelles pour les invariants de Riemann sont étendues pour être applicables à des systèmes dans leurs régions elliptiques. Leur applicabilité est démontrée par des exemples de la plasticité idéale non-stationnaire pour un flot irrotationnel ainsi que les équations de la mécanique des fluides. Une nouvelle approche basée sur l’introduction de matrices de rotation satisfaisant certaines conditions algébriques est développée. Elle est applicable directement à des systèmes non-homogènes et non-autonomes sans avoir besoin de transformations préalables. Son efficacité est illustrée par des exemples comprenant un système qui régit l’interaction non-linéaire d’ondes et de particules. La solution générale est construite de façon explicite.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'Université de Montréal et l'Université Panthéon-Assas Paris II

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Peu différenciées à la naissance, les émotions deviendraient intelligibles en étant élevées à la conscience par le développement d’une sensibilité aux sensations internes accompagnant l’émotion, sa représentation et sa symbolisation (Gergely & Watson, 1996). La théorie du miroir affectif-parental du biofeedback social de Gergely & Watson (1996), poussée plus loin par Fonagy, Gergely, Jurist et Target (2002), explique comment une interaction de biofeedback social complexe, innée, et probablement implicite, s’établit entre parent et nouveau-né pour aider ce dernier à différencier les somatosensations accompagnant l’expérience d’une émotion, au travers d’un comportement parental de miroir. Le but de cette thèse est de réviser cette théorie, et plus particulièrement l’hypothèse du miroir « marqué » (markedness), qui serait nécessaire pour dissocier le miroir parental du parent, et permettre l’appropriation de son contenu informationnel par l’enfant. Ce processus de sensibilisation est conçu comme partie intégrante du travail de symbolisation des émotions chez les enfants autant que chez les adultes. Cependant, le miroir marqué se manifestant par une expression exagérée ou « voix de bébé » (motherese) nécessiterait l’utilisation par le thérapeute d’une « voix de patient » (therapese) (Fonagy, 2010) pour être appliqué à la psychothérapie adulte, une proposition difficile à soutenir. La révision examine comment la sensibilisation d’une émotion est accomplie : par un mécanisme d’internalisation nécessitant un miroir « marqué » ou par un mécanisme de détection de la contingence de l’enfant. Elle démontre que le détecteur de contingence du nouveau-né (d’un fonctionnement semblable au système d’entraînement par biofeedback pour adultes) est le médiateur des fonctions de sensibilisation, de représentation, et de symbolisation de la ii sensation d’une émotion par ses processus de détection de la covariance-invariance, de la maximisation, et du contrôle contingent du miroir parental. Ces processus permettent à l’émotion de devenir consciente, que le miroir parental soit ‘marqué’ ou non. Le modèle révisé devient donc applicable à la thérapie des adultes. Une vignette clinique analysée à l’aide de la perspective du Boston Change Process Study Group sur le changement est utilisée pour contraster et illustrer les processus de sensibilisation et de symbolisation des émotions, et leur application à la psychothérapie adulte. Cette thèse considère les implications cliniques du nouveau modèle, et elle spécule sur les conséquences de difficultés parentales vis-à-vis de la disponibilité requise par les besoins de biofeedback social du nouveau-né, et sur les conséquences de traumatismes déconnectant des émotions déjà sensibilisées de leurs représentations. Finalement, elle suggère que le miroir sensible des émotions en thérapie puisse remédier à ces deux sortes de difficultés, et que le modèle puisse être utilisé concurremment à d’autres modèles du changement, en facilitant la génération d’états internes ressentis et symbolisés pouvant être utilisés pour communiquer avec soi-même et les autres pour la réparation de difficultés émotionnelles et relationnelles chez les enfants et les adultes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les propriétés antioxydantes du resvératrol sont d’un grand intérêt pour contrer la dysfonction endothéliale où la contribution du stress oxydant est majeure. Cette dysfonction endothéliale est d’ailleurs bien caractérisée en hypertrophie ventriculaire gauche (HVG). Cette étude vise à explorer les effets thérapeutiques du resvératrol sur la dysfonction endothéliale des artères coronaires épicardiques associée à l’HVG. L’HVG est induite suite à un cerclage aortique (CA) sur des porcelets de 2 mois. Le resvératrol est ensuite administré à 20 mg/kg/jour per os aux animaux répertoriés dans différents groupes. Le groupe 1 comprend les animaux contrôles sans CA alors que le groupe 2 représente les porcelets ayant subit le CA sans traitement. Le groupe 3 comprend les animaux traités pendant les 60 jours après la chirurgie alors que le groupe 4 est traité seulement à partir du 30ème jour jusqu’au jour 60. Des analyses échocardiographiques et histologiques ont été effectuées afin de déterminer le degré d’hypertrophie et l’impact du resvératrol sur la progression de l’HVG alors que la réactivité vasculaire a été évaluée par des expériences de chambres d’organes. La dysfonction endothéliale a été étudiée in vitro par quantification des métabolites nitriques et des niveaux de GMPc tandis que le stress oxydant est décrit par les niveaux d’angiotensine II (Ang II) et de protéines carbonylées. Les courbes dose-réponse à la sérotonine du groupe 3 traité pendant les 60 jours au resvératrol ont démontré une relaxation vasculaire significativement améliorée comparé au groupe 2 non-traité (p<0,05). Le pourcentage de changement du rapport de la masse du ventricule gauche sur la masse corporelle (LVmass/BW) a démontré une inhibition du développement de l’HVG dans le groupe 3 alors que le groupe 4 n’a pas eu d’effets bénéfiques des 30 jours de traitement au resvératrol. La biodisponibilité du NO représentée par la mesure de ses métabolites en circulation (398,71±21,74 ; 151,04±14,95 ; 241,86±15,53 ; 208,17±26,52 uM pour les groupes 1, 2, 3 et 4 respectivement, p<0,001 pour groupe 1 et 3 vs groupe 2) et par le niveau de GMPc a été augmentée avec l’administration du polyphénol (2,54±0,63 ; 0,67±0,45 ; 1,71±0,25 ; 1,98±0,29 pmol/ml pour les groupes 1, 2, 3 et 4 respectivement, p<0,05 pour groupe 1, 3 et 4 vs groupe 2). Le rôle antioxydant du resvératrol a été confirmé avec une réduction des niveaux de protéines carbonylées chez le groupe 3 comparé aux valeurs du groupe 2 (0,14±0,05 vs 0,33±0,03 nmol/mg respectivement) sans diminution des niveaux d’Ang II. Le resvératrol a aussi réduit l’hypertrophie des cardiomyocytes et la fibrose interstitielle. Ainsi, le resvératrol peut effectivement réduire la dysfonction endothéliale des artères coronaires épicardiques et limiter l’occurrence de remodelage myocardique associé à l’HVG, principalement à travers l’activation de la signalisation dépendante du NO.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les processus Markoviens continus en temps sont largement utilisés pour tenter d’expliquer l’évolution des séquences protéiques et nucléotidiques le long des phylogénies. Des modèles probabilistes reposant sur de telles hypothèses sont conçus pour satisfaire la non-homogénéité spatiale des contraintes fonctionnelles et environnementales agissant sur celles-ci. Récemment, des modèles Markov-modulés ont été introduits pour décrire les changements temporels dans les taux d’évolution site-spécifiques (hétérotachie). Des études ont d’autre part démontré que non seulement la force mais également la nature de la contrainte sélective agissant sur un site peut varier à travers le temps. Ici nous proposons de prendre en charge cette réalité évolutive avec un modèle Markov-modulé pour les protéines sous lequel les sites sont autorisés à modifier leurs préférences en acides aminés au cours du temps. L’estimation a posteriori des différents paramètres modulants du noyau stochastique avec les méthodes de Monte Carlo est un défi de taille que nous avons su relever partiellement grâce à la programmation parallèle. Des réglages computationnels sont par ailleurs envisagés pour accélérer la convergence vers l’optimum global de ce paysage multidimensionnel relativement complexe. Qualitativement, notre modèle semble être capable de saisir des signaux d’hétérogénéité temporelle à partir d’un jeu de données dont l’histoire évolutive est reconnue pour être riche en changements de régimes substitutionnels. Des tests de performance suggèrent de plus qu’il serait mieux ajusté aux données qu’un modèle équivalent homogène en temps. Néanmoins, les histoires substitutionnelles tirées de la distribution postérieure sont bruitées et restent difficilement interprétables du point de vue biologique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur la reconstruction active de modèles 3D à l’aide d’une caméra et d’un projecteur. Les méthodes de reconstruction standards utilisent des motifs de lumière codée qui ont leurs forces et leurs faiblesses. Nous introduisons de nouveaux motifs basés sur la lumière non structurée afin de pallier aux manques des méthodes existantes. Les travaux présentés s’articulent autour de trois axes : la robustesse, la précision et finalement la comparaison des patrons de lumière non structurée aux autres méthodes. Les patrons de lumière non structurée se différencient en premier lieu par leur robustesse aux interréflexions et aux discontinuités de profondeur. Ils sont conçus de sorte à homogénéiser la quantité d’illumination indirecte causée par la projection sur des surfaces difficiles. En contrepartie, la mise en correspondance des images projetées et capturées est plus complexe qu’avec les méthodes dites structurées. Une méthode d’appariement probabiliste et efficace est proposée afin de résoudre ce problème. Un autre aspect important des reconstructions basées sur la lumière non structurée est la capacité de retrouver des correspondances sous-pixels, c’est-à-dire à un niveau de précision plus fin que le pixel. Nous présentons une méthode de génération de code de très grande longueur à partir des motifs de lumière non structurée. Ces codes ont l’avantage double de permettre l’extraction de correspondances plus précises tout en requérant l’utilisation de moins d’images. Cette contribution place notre méthode parmi les meilleures au niveau de la précision tout en garantissant une très bonne robustesse. Finalement, la dernière partie de cette thèse s’intéresse à la comparaison des méthodes existantes, en particulier sur la relation entre la quantité d’images projetées et la qualité de la reconstruction. Bien que certaines méthodes nécessitent un nombre constant d’images, d’autres, comme la nôtre, peuvent se contenter d’en utiliser moins aux dépens d’une qualité moindre. Nous proposons une méthode simple pour établir une correspondance optimale pouvant servir de référence à des fins de comparaison. Enfin, nous présentons des méthodes hybrides qui donnent de très bons résultats avec peu d’images.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

De grandes enquêtes en milieu scolaire, au Québec comme ailleurs, ont documenté depuis les années 2000 la portée des violences homophobes, particulièrement à l’école secondaire, ainsi que leurs impacts négatifs sur les élèves qui en sont victimes, qu’ils s’identifient ou non comme lesbiennes, gais, bisexuel(le)s ou en questionnement (LGBQ). La diffusion des résultats de ces enquêtes, ainsi que les constats similaires d’acteurs sur le terrain, ont fait accroitre les appels à la vigilance des écoles quant aux discriminations homophobes pouvant prendre forme en leur enceinte. Plusieurs des responsabilités résultant de cette mobilisation ont échoué par défaut aux enseignants, notamment en raison de leur proximité avec leurs élèves. Cependant, malgré la panoplie de publications et de formations visant explicitement à les outiller à ce sujet, les enseignants rapportent de manière consistante manquer de formation, d’habiletés, de soutien et d’aise à l’idée d’intervenir contre l’homophobie ou de parler de diversité sexuelle en classe. Cette thèse de doctorat vise à comprendre les pratiques d’intervention et d’enseignement que rapportent avoir les enseignants de l’école secondaire québécoise, toutes orientations sexuelles confondues, par rapport à la diversité sexuelle et à l’homophobie. Dans une perspective interdisciplinaire, nous avons interrogé la sociologie de l’éducation, les études de genre (gender studies) et les études gaies et lesbiennes, ainsi qu’emprunté aux littératures sur les pratiques enseignantes et sur l’intervention sociale. Les données colligées consistent en des entrevues semi-structurées menées auprès de 22 enseignants du secondaire, validées auprès de 243 enseignants, par le biais d’un questionnaire en ligne. Étayés dans trois articles scientifiques, les résultats de notre recherche permettent de mieux saisir la nature des pratiques enseignantes liées à la diversité sexuelle, mais également les mécanismes par lesquels elles viennent ou non à être adoptées par les enseignants. Les témoignages des enseignants ont permis d’identifier que les enseignants sont globalement au fait des attentes dont ils font l’objet en termes d’intervention contre l’homophobie. Ceci dit, en ce qu’ils sont guidés dans leurs interventions par le concept limité d’homophobie, ils ne paraissent pas toujours à même de saisir les mécanismes parfois subtils par lesquels opèrent les discriminations sur la base de l’orientation sexuelle, mais aussi des expressions de genre atypiques. De même, si la plupart disent condamner vertement l’homophobie dont ils sont témoins, les enseignants peuvent néanmoins adopter malgré eux des pratiques contribuant à reconduire l’hétérosexisme et à alimenter les mêmes phénomènes d’infériorisation que ceux qu’ils cherchent à combattre. Sauf exception, les enseignants tendent à comprendre le genre et l’expression de genre davantage comme des déterminants de type essentialiste avec lesquels ils doivent composer que comme des normes scolaires et sociales sur lesquelles ils peuvent, comme enseignants, avoir une quelconque influence. Les stratégies de gestion identitaire des enseignants LGB influencent les pratiques qu’ils rapportent être en mesure d’adopter. Ceux qui optent pour la divulgation, totale ou partielle, de leur homosexualité ou bisexualité peuvent autant rapporter adopter des pratiques inclusives que choisir de se tenir à distance de telles pratiques, alors que ceux qui favorisent la dissimulation rapportent plutôt éviter autant que possible ces pratiques, de manière à se garder de faire face à des situations potentiellement délicates. Également, alors que les enseignants LGB étaient presque exclusivement vus jusqu’ici comme ceux chez qui et par qui se jouaient ces injonctions à la vie privée, les enseignants hétérosexuels estiment également être appelés à se positionner par rapport à leur orientation sexuelle lorsqu’ils mettent en œuvre de telles pratiques. Nos résultats révèlent un double standard dans l’évocation de la vie privée des enseignants. En effet, la divulgation d’une orientation hétérosexuelle, considérée comme normale, est vue comme conciliable avec la neutralité attendue des enseignants, alors qu’une révélation similaire par un enseignant LGB est comprise comme un geste politique qui n’a pas sa place dans une salle de classe, puisqu’elle se fait au prix du bris d’une présomption d’hétérosexualité. Nos résultats suggèrent qu’il existe de fortes prescriptions normatives relatives à la mise en genre et à la mise en orientation sexuelle à l’école. Les enseignants s’inscrivent malgré eux dans cet environnement hétéronormatif. Ils peuvent être amenés à y jouer un rôle important, que ce soit en contribuant à la reconduction de ces normes (par exemple, en taisant les informations relatives à la diversité sexuelle) ou en les contestant (par exemple, en expliquant que certains stéréotypes accolés à l’homosexualité relèvent d’aprioris non fondés). Les discours des enseignants suggèrent également qu’ils sont traversés par ces normes. Ils peuvent en effet choisir de se conformer aux attentes normatives dont ils font l’objet (par exemple, en affirmant leur hétérosexualité), ou encore d’y résister (par exemple, en divulguant leur homosexualité à leurs élèves, ou en évitant de conforter les attentes dont ils font l’objet) au risque d’être conséquemment pénalisés. Bien entendu, cette influence des normes de genre diffère d’un enseignant à l’autre, mais semble jouer autant sur les enseignants hétérosexuels que LGB. Les enseignants qui choisissent de contester, explicitement ou implicitement, certaines de ces normes dominantes rapportent chercher des appuis formels à leurs démarches. Dans ce contexte, une telle quête de légitimation (par exemple, la référence aux règlements contre l’homophobie, la mobilisation des similitudes entre l’homophobie et le racisme, ou encore le rapprochement de ces enseignements avec les apprentissages prescrits pour leur matière) est à comprendre comme un outillage à la contestation normative. La formation professionnelle des enseignants sur l’homophobie et sur la diversité sexuelle constitue un autre de ces outils. Alors que les enseignants québécois continuent d’être identifiés comme des acteurs clés dans la création et le maintien d’environnements scolaires non-discriminatoires et inclusifs aux réalités de la diversité sexuelle, il est impératif de les appuyer en multipliant les signes formels tangibles sur lesquelles leurs initiatives peuvent prendre appui (politiques explicites, curriculum scolaire inclusif de ces sujets, etc.). Nos résultats plaident en faveur d’une formation enseignante sur la diversité sexuelle, qui ferait partie du tronc commun de la formation initiale des maîtres. Chez les enseignants en exercice, il nous apparait préférable de miser sur une accessibilité accrue des formations et des outils disponibles. En réponse toutefois aux limites que pose à long terme une approche cumulative des formations spécifiques portant sur différents types d’oppressions (l’homophobie, le racisme, le sexisme, etc.), nous argumentons en faveur d’un modèle d’éducation anti-oppressive au sein duquel les élèves seraient invités à considérer, non seulement la multiplicité et le caractère situé des divers types d’oppressions, mais également les mécanismes d’attribution de privilège, de constitution de la normalité et de la marginalité, et de présentation de ces arbitraires culturels comme des ordres naturels.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Au niveau interpersonnel, la psychopathie implique un manque de considération d’autrui pouvant se manifester par la tromperie, la manipulation et l’exploitation. La présente thèse a investigué la relation entre les caractéristiques psychopathiques d'individus non incarcérés et la tendance à coopérer dans un jeu du dilemme du prisonnier itératif. Un total de 85 hommes ont été recrutés via une annonce qui ciblait des traits de personnalité correspondant à des caractéristiques psychopathiques exprimées de façon non péjorative. Plusieurs méthodes ont été employées pour rejoindre les participants : 46 ont participés en personne après avoir répondu à une invitation affichée dans un journal local ainsi que sur des babillards à proximité d'une université; 39 ont complété l'étude sur Internet après avoir été recrutés via un site web de petites annonces. Chaque participant a répondu à un questionnaire incluant l’Échelle Auto-rapportée de Psychopathie (Levenson, Kiehl, & Fitzpatrick, 1995) et l’Échelle Auto-rapportée des Indicateurs de Psychopathie de l’Enfance et de l’Adolescence (Seto, Khattar, Lalumière, & Quinsey, 1997). Ils ont également complété une simulation informatique du dilemme du prisonnier itératif comprenant 90 essais. La simulation informatique utilisée pour évaluer les participants en personne ainsi que la version accessible par Internet ont été conçues et programmées spécifiquement pour la présente thèse. La simulation informatique incluait trois stratégies souvent associées au dilemme du prisonnier itératif : donnant-donnant, donnant-donnant-généreux et gagne/reste-perd/change. Les analyses préliminaires ont montré que les participants vus en personne et ceux rejoints par Internet ne différaient pas en termes de variables sociodémographiques, des caractéristiques psychopathiques, de la désirabilité sociale et des réponses au dilemme du prisonnier. Une régression multiple standard a indiqué que les mesures psychopathiques ne pouvaient pas prédire le nombre total de choix coopératifs dans le jeu. Par contre, une corrélation négative a été trouvée entre les caractéristiques interpersonnelles et affectives de la psychopathie et la coopération dans le premier tiers du jeu. De plus, les participants qui présentaient davantage de caractéristiques psychopathiques interpersonnelles et affectives avaient plus souvent réussi à exploiter l'ordinateur en dénonçant alors que la simulation informatique coopérait. Des analyses multi-niveaux ont exploré la contribution de variables au niveau de la décision et au niveau de l'individu dans la prédiction du choix de coopérer ou de dénoncer lors de chaque essai du jeu; les interactions entre ces variables ont aussi été considérées. Les résultats ont montré que les variables au niveau de la décision influençaient généralement plus fortement les chances de coopérer que les variables au niveau de l'individu. Parmi les mesures de la psychopathie, seulement les caractéristiques interpersonnelles et affectives ont montré une association significative avec les chances de coopérer; les interactions avec le premier choix effectué dans le jeu et le premier tiers du jeu étaient significatives. Ainsi, si un participant avait coopéré au premier essai, la présence de caractéristiques psychopathiques interpersonnelles et affectives était associée à une diminution de ses chances de coopérer par la suite. Aussi, durant les 30 premiers essais du jeu, la présence de caractéristiques psychopathiques interpersonnelles et affectives était associée à une diminution des chances de coopérer. La stratégie adoptée par la simulation informatique n'avait pas d'influence sur le lien entre les caractéristiques psychopathiques et la probabilité de coopérer. Toutefois, le fait de jouer contre donnant-donnant était associé à de plus fortes chances de coopérer d'un essai à l'autre pour l'ensemble des participants. Globalement, les résultats suggèrent que les hommes non incarcérés présentant des caractéristiques psychopathiques ne seraient pas nécessairement portés à choisir systématiquement la non-coopération. En fait, les caractéristiques interpersonnelles et affectives de la psychopathie ont semblé se traduire par une tendance à faire bonne impression au départ, tenter rapidement d'exploiter autrui en dénonçant, puis finir par coopérer. Cette tendance comportementale est discutée, ainsi que la pertinence d'utiliser le dilemme du prisonnier itératif et les analyses multi-niveaux pour étudier le comportement interpersonnel des psychopathes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans ce travail, j’étudierai principalement un modèle abélien de Higgs en 2+1 dimensions, dans lequel un champ scalaire interagit avec un champ de jauge. Des défauts topologiques, nommés vortex, sont créés lorsque le potentiel possède un minimum brisant spontanément la symétrie U(1). En 3+1 dimensions, ces vortex deviennent des défauts à une dimension. Ils ap- paraissent par exemple en matière condensée dans les supraconducteurs de type II comme des lignes de flux magnétique. J’analyserai comment l’énergie des solutions statiques dépend des paramètres du modèle et en particulier du nombre d’enroulement du vortex. Pour le choix habituel de potentiel (un poly- nôme quartique dit « BPS »), la relation entre les masses des deux champs mène à deux types de comportements : type I si la masse du champ de jauge est plus grande que celle du champ sca- laire et type II inversement. Selon le cas, la dépendance de l’énergie au nombre d’enroulement, n, indiquera si les vortex auront tendance à s’attirer ou à se repousser, respectivement. Lorsque le flux emprisonné est grand, les vortex présentent un profil où la paroi est mince, permettant certaines simplifications dans l’analyse. Le potentiel, un polynôme d’ordre six (« non-BPS »), est choisi tel que le centre du vortex se trouve dans le vrai vide (minimum absolu du potentiel) alors qu’à l’infini le champ scalaire se retrouve dans le faux vide (minimum relatif du potentiel). Le taux de désintégration a déjà été estimé par une approximation semi-classique pour montrer l’impact des défauts topologiques sur la stabilité du faux vide. Le projet consiste d’abord à établir l’existence de vortex classi- quement stables de façon numérique. Puis, ma contribution fut une analyse des paramètres du modèle révélant le comportement énergétique de ceux-ci en fonction du nombre d’enroulement. Ce comportement s’avèrera être différent du cas « BPS » : le ratio des masses ne réussit pas à décrire le comportement observé numériquement.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Justification: Le glaucome entraîne une perte progressive de la vision causée par la détérioration du nerf optique. Le glaucome est répandu dans le monde et cause la cécité dans environ sept millions de personnes. Le glaucome touche plus de 400 000 Canadiens et sa prévalence augmente avec le vieillissement de la population.1,2 Il s'agit d'une maladie chronique surnoise dont les symptômes se manifestent uniquement lors des stades avancés et qui peuvent mener à la cécité. Présentement, le seul moyen possible d’arrêter la progression du glaucome au stade initial est de diminuer la pression intra-oculaire (PIO). Les analogues de prostaglandines (APG) topiques sont fréquemment utilisées comme traitement de première ligne. Cependant, la recherche démontre que cette classe de médicaments peut changer certaines propriétés de la cornée, et possiblement influencer la mesure de la PIO.3 Objectif: À déterminer si l'utilisation d'APG affecte les propriétés biomécaniques de la cornée. La conclusion sera basée sur l'analyse intégrée des résultats obtenus de l'analyseur Reichert oculaire Réponse (ORA), la tonométrie par applanation de Goldmann (TAG) et la pachymétrie ultrasonographique. Le deuxième objectif potentiel de cette étude est de déterminer la corrélation, le cas échéant, entre les propriétés biomécaniques de la cornée, l'épaisseur de la cornée centrale (ECC) et la PIO chez les patients subissant un traitement d’APG topique. L'hypothèse principale de cette étude est que l’APG influence les propriétés de la cornée telles que l'épaisseur centrale, l'élasticité et la résistance. Patients et méthodes : Soixante-dix yeux de 35 patients, âgés de 50-85 ans, atteints de glaucome à angle ouvert (GAO) et traités avec APG topique ont été examinés. Seulement les sujets avec une réfraction manifeste entre -6,00 D et +4,25 D ont été inclus. Les critères d'exclusion sont: patients avec n'importe quelle autre maladie de la cornée de l’œil, telles que la dystrophie endothéliale de Fuch’s et kératocône, ou tout antécédent de traumatisme ou d'une chirurgie de la cornée, ainsi que le port de lentilles de contact. Nous avons demandé aux patients atteints du glaucome qui ont des paramètres stables et qui utilisent l’APG dans les deux yeux de cesser l’APG dans l'œil moins affecté par la PIO, et de continuer l’utilisation d’APG dans l'œil contralatéral. Le meilleur œil est défini comme celui avec moins de dommage sur le champ visuel (CV) (déviation moyenne (DM), le moins négatif) ou une PIO maximale historique plus basse si la DM est égale ou encore celui avec plus de dommage sur la tomographie par cohérence optique (TCO, Cirrus, CA) ou la tomographie confocale par balayage laser (HRT, Heidelberg, Allemagne). Toutes les mesures ont été prises avant la cessation d’APG et répétées 6 semaines après l’arrêt. Les patients ont ensuite recommencé l’utilisation d’APG et toutes les mesures ont été répétées encore une fois après une période supplémentaire de 6 semaines. Après commencer ou de changer le traitement du glaucome, le patient doit être vu environ 4-6 semaines plus tard pour évaluer l'efficacité de la goutte.4 Pour cette raison, on été décidé d'utiliser 6 semaines d'intervalle. Toutes les mesures ont été effectuées à l’institut du glaucome de Montréal par le même technicien, avec le même équipement et à la même heure de la journée. L'œil contralatéral a servi comme œil contrôle pour les analyses statistiques. La tonométrie par applanation de Goldmann a été utilisée pour mesurer la PIO, la pachymétrie ultrasonographique pour mesurer l'ECC, et l’ORA pour mesurer les propriétés biomécaniques de la cornée, incluant l'hystérèse cornéenne (HC). L’hypothèse de l'absence d'effet de l'arrêt de l’APG sur les propriétés biomécaniques a été examiné par un modèle linéaire à effets mixtes en utilisant le logiciel statistique R. Les effets aléatoires ont été définies à deux niveaux: le patient (niveau 1) et l'œil de chaque patient (niveau 2). Les effets aléatoires ont été ajoutés au modèle pour tenir compte de la variance intra-individuelle. L’âge a également été inclus dans le modèle comme variable. Les contrastes entre les yeux et les temps ont été estimés en utilisant les valeurs p ajustées pour contrôler les taux d'erreur internes de la famille en utilisant multcomp paquet dans R. Résultats: Une augmentation statistiquement significative due l 'HC a été trouvée entre les visites 1 (sur APG) et 2 (aucun APG) dans les yeux de l'étude, avec une moyenne (±erreur standard) des valeurs de 8,98 ± 0,29 mmHg et 10,35 ± 0,29 mmHg, respectivement, correspondant à une augmentation moyenne de 1,37 ± 0,18 mmHg (p <0,001). Une réduction significative de 1,25 ± 0,18 mmHg (p <0,001) a été observée entre les visites 2 et 3, avec une valeur moyenne HC finale de 9,09 ± 0,29 mmHg. En outre, une différence statistiquement significative entre l’oeil d’étude et le contrôle n'a été observée que lors de la visite 2 (1,01 ± 0,23 mmHg, p <0,001) et non lors des visites 1 et 3. Une augmentation statistiquement significative du facteur de résistance conréen (FRC) a été trouvée entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 10,23 ± 0,34 mmHg et 11,71 ± 0,34 mmHg, respectivement. Le FRC a ensuite été réduit de 1,90 ± 0,21 mmHg (p <0,001) entre les visites 2 et 3, avec une valeur moyenne FRC finale de 9,81 ± 0,34 mmHg. Une différence statistiquement significative entre l’oeil d’étude et le contrôle n'a été observée que lors de la visite 2 (1,46 ± 0,23 mmHg, p <0,001). Une augmentation statistiquement significative de l'ECC a été trouvée entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 541,83 ± 7,27 µm et 551,91 ± 7,27 µm, respectivement, ce qui correspond à une augmentation moyenne de 10,09 ± 0,94 µm (p <0,001). L'ECC a ensuite diminué de 9,40 ± 0,94 µm (p <0,001) entre les visites 2 et 3, avec une valeur moyenne finale de 542,51 ± 7,27 µm. Une différence entre l’étude et le contrôle des yeux n'a été enregistré que lors de la visite 2 (11,26 ± 1,79 µm, p <0,001). De même, on a observé une augmentation significative de la PIO entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 15,37 ± 0,54 mmHg et 18,37 ± 0,54 mmHg, respectivement, ce qui correspond à une augmentation moyenne de 3,0 ± 0,49 mmHg (p <0,001). Une réduction significative de 2,83 ± 0,49 mmHg (p <0,001) a été observée entre les visites 2 et 3, avec une valeur moyenne de la PIO finale de 15,54 ± 0,54 mmHg. L’oeil de contrôle et d’étude ne différaient que lors de la visite 2 (1,91 ± 0,49 mmHg, p <0,001), ce qui confirme l'efficacité du traitement de l’APG. Lors de la visite 1, le biais de la PIO (PIOcc - PIO Goldmann) était similaire dans les deux groupes avec des valeurs moyennes de 4,1 ± 0,54 mmHg dans les yeux de contrôles et de 4,8 ± 0,54 mmHg dans les yeux d’études. Lors de la visite 2, après un lavage de 6 semaines d’APG, le biais de la PIO dans l'œil testé a été réduit à 1,6 ± 0,54 mmHg (p <0,001), ce qui signifie que la sous-estimation de la PIO par TAG était significativement moins dans la visite 2 que de la visite 1. La différence en biais PIO moyenne entre l'étude et le contrôle des yeux lors de la visite 2, en revanche, n'a pas atteint la signification statistique (p = 0,124). On a observé une augmentation peu significative de 1,53 ± 0,60 mmHg (p = 0,055) entre les visites 2 et 3 dans les yeux de l'étude, avec une valeur de polarisation finale de la PIO moyenne de 3,10 ± 0,54 mmHg dans les yeux d'études et de 2,8 ± 0,54 mmHg dans les yeux de contrôles. Nous avons ensuite cherché à déterminer si une faible HC a été associée à un stade de glaucome plus avancé chez nos patients atteints du glaucome à angle ouvert traités avec l’APG. Lorsque l'on considère tous les yeux sur l’APG au moment de la première visite, aucune association n'a été trouvée entre les dommages sur le CV et l'HC. Cependant, si l'on considère seulement les yeux avec un glaucome plus avancé, une corrélation positive significative a été observée entre la DM et l'HC (B = 0,65, p = 0,003). Une HC inférieure a été associé à une valeur de DM de champ visuelle plus négative et donc plus de dommages liés au glaucome. Conclusions : Les prostaglandines topiques affectent les propriétés biomécaniques de la cornée. Ils réduisent l'hystérèse cornéenne, le facteur de résistance cornéen et l'épaisseur centrale de la cornée. On doit tenir compte de ces changements lors de l'évaluation des effets d’APG sur la PIO. Plus de recherche devrait être menées pour confirmer nos résultats. De plus, d’autres études pourraient être réalisées en utilisant des médicaments qui diminuent la PIO sans influencer les propriétés biomécaniques de la cornée ou à l'aide de tonomètre dynamique de Pascal ou similaire qui ne dépend pas des propriétés biomécaniques de la cornée. En ce qui concerne l'interaction entre les dommages de glaucome et l'hystérésis de la cornée, nous pouvons conclure qu' une HC inférieure a été associé à une valeur de DM de CV plus négative. Mots Clés glaucome - analogues de prostaglandines - hystérèse cornéenne – l’épaisseur de la cornée centrale - la pression intraoculaire - propriétés biomécaniques de la cornée.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le transport actif de sodium par les cellules épithéliales alvéolaires est le principal mécanisme impliqué dans la régulation du niveau de liquide dans le poumon distal. Le canal épithélial sodique (ENaC) exprimé par les cellules épithéliales alvéolaires est essentiel à la résorption du liquide des poumons à la naissance ainsi que la résolution de l'œdème pulmonaire chez l'adulte. L'activité et l'expression du canal ENaC sont modulées par de nombreux stress pathophysiologiques. L'inflammation pulmonaire constitue un facteur important dans l'inhibition de l'expression du canal ENaC et pourrait favoriser la formation d'œdème pulmonaire. Nous avons précédemment démontré que différentes cytokines pro-inflammatoires, ainsi que les lipopolysaccharides (LPS) de Pseudomonas aeruginosa, inhibent l'expression de l'ARNm αENaC par des mécanismes de régulation transcriptionnelle et post-transcriptionnelle. Ces résultats suggèrent que les mécanismes qui modulent la stabilité des ARNm αENaC pourraient jouer un rôle important dans la régulation du niveau d’expression du transcrit en condition inflammatoire. Le principal objectif de mes travaux était de caractériser les mécanismes de modulation de l’ARNm αENaC dans les cellules épithéliales alvéolaires lors de différents stress pathophysiologiques et déterminer si cette modulation pouvait s’expliquer en partie par une régulation de la stabilité du transcrit. Mes travaux montrent que les LPS et la cycloheximide inhibent l’expression de l’ARNm αENaC de façon similaire via l’activation des voies de signalisation des MAPK ERK1/2 et p38. Cependant, les mécanismes de modulation de l’expression de l'ARNm αENaC sont différents puisque les LPS répriment la transcription du gène, alors que la cycloheximide diminuerait la stabilité du transcrit via des mécanismes post-transcriptionnels impliquant la région 3' non traduite (3'UTR) de l'ARNm αENaC. Pour mieux étudier le rôle du 3'UTR dans ce processus, nous avons développé un modèle Tet-Off nous permettant de mesurer la demi-vie de l’ARNm αENaC indépendamment de l’utilisation d’un inhibiteur de la transcription comme l'actinomycine D (Act. D). Nous avons montré que la demi-vie de l’ARNm αENaC était de 100min, un temps beaucoup plus court que celui rapporté dans la littérature. Nous avons démontré que l’Act. D a un effet stabilisateur important sur l’ARNm αENaC et qu’il ne peut être utilisé pour évaluer la stabilité du transcrit. À l’aide de différents mutants de délétion, nous avons entrepris de déterminer la nature des régions du 3’UTR impliquées dans la modulation de la stabilité du transcrit. Nous avons trouvé que le 3’UTR joue un rôle à la fois de stabilisation (région 3’UTR proximale) et de déstabilisation (région 3’UTR distale) du transcrit. Notre système nous a finalement permis de confirmer que la diminution de l’ARNm αENaC observée en présence de TNF-α s’expliquait en partie par une diminution importante de la stabilité du transcrit induite par cette cytokine. Enfin, nous avons identifié la nature des protéines pouvant se lier au 3’UTR de l’ARNm αENaC et déterminé lesquelles pouvaient moduler la stabilité du transcrit. Des trois protéines candidates trouvées, nous avons confirmé que la surexpression de DHX36 et TIAL1 diminue le niveau de transcrit par un mécanisme impliquant la stabilité du messager. Les travaux présentés ici montrent la complexité des voies de signalisation induites par différents stress sur les cellules épithéliales alvéolaires et montrent comment la stabilité de l’ARNm αENaC et en particulier, les séquences du 3’UTR jouent un rôle important dans la modulation du niveau de transcrit. Le modèle Tet-Off que nous avons développé permet d’estimer le temps de demi-vie réel de l’ARNm αENaC et montre que le 3’UTR du messager joue un rôle complexe dans la stabilisation du messager en condition de base ainsi qu’en condition pro-inflammatoire. Enfin, nous avons identifié deux protéines liant l’ARNm qui pourraient jouer un rôle important dans la modulation de la stabilité du transcrit.