195 resultados para Volatilité intégré
Resumo:
Avec l’usage élargi de la CAAO, ces outils ont été largement utilisés dans le processus de conception architecturale. En dépit des fonctionnalités avancées offertes par les systèmes de CAAO, l'utilisation de la CAAO est principalement concentrée dans les étapes de production, comme un support graphique pour le dessin, la modélisation, le rendu et la simulation. Par conséquent, il est raisonnable de considérer que la situation actuelle relative à l’usage de la CAAO dans la profession d'architecte appelle à de nouvelles améliorations. En d'autres termes, nous devons trouver un moyen de mieux intégrer la technologie et les outils de CAAO dans le processus de conception architecturale, qui est notre question de recherche. Nous avons besoin de savoir comment la CAAO pourrait être utilisée pour améliorer la capacité de conception de l'architecte. Il ressort des discussions et des recherches menées pour cette étude que nous voulons un soutien de la technologie pour nous aider à mieux concevoir et non pas que la technologie conçoive à notre place. Nous aimerions avoir un système de CAAO qui pourrait nous servir d’assistant à la conception. En étudiant la situation de l'intégration des outils de CAAO dans les pratiques actuelles de conception des architectes et en examinant les approches utilisées dans les premières tentatives de développement d’un outil de CAAO intégré au processus de conception, on peut conclure que l'approche exploratoire et heuristique serait une meilleure approche qui pourrait être adaptée pour développer un système CAAO en soutien au travail de l’architecte. De plus, une étude plus approfondie a démontré que les deux sous- approches des approches exploratoires et heuristiques (approches basées sur les cas et les contraintes), sont applicables, mais aucune d'elles n'est suffisante. Par conséquent, l’approche hybride qui prend en compte les avantages de chacune des deux sous- approches précitées serait la plus applicable. Elle nous permettrait de développer un outil CAAD qui pourrait vraiment être intégré dans le processus de conception architecturale. Cette conclusion a été vérifiée par une étude complémentaire basée sur des entrevues.
Resumo:
Ce mémoire explore le concept de diffusion des archives à l’ère du Web 2.0. Dans le contexte nord-américain, la diffusion en archivistique englobe les aspects de promotion, de mise en valeur et de communication des archives. Le Web 2.0 offre un potentiel très intéressant pour la diffusion d’archives. Ce moyen de diffusion est défini comme étant un ensemble de principes et de technologies qui crée et facilite l’interaction entre plusieurs individus. Peu d’études ont été menées sur la diffusion des archives à l’ère du Web 2.0, c’est pourquoi notre recherche s’est intéressée à un milieu qui a intégré le Web 2.0 afin d’instaurer un dialogue avec ses usagers, connus et potentiels, pour exploiter ses archives et augmenter sa visibilité, soit le Musée McCord. Dans cette étude de cas simple certains membres du personnel du Musée McCord ont été rencontrés, afin de découvrir les motivations de l’institution à se lancer dans l’utilisation d’outils issus de ces technologies. De plus, l’étude a permis d’observer quels outils ont été choisis, comment et pourquoi. Ensuite, les avantages et les désavantages de cette nouvelle utilisation ont été mis en lumière. Enfin, les étapes de la mise en place d’outils du Web 2.0 sont exposées.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
L’asthme professionnel est une maladie fréquente, qui coûte cher, qui touche des travailleurs jeunes, dont le diagnostic est difficile et avec d’importantes conséquences socio-économiques. La prévention occupe une place centrale dans la gestion de l’asthme professionnel, d’un point de vue de santé publique. Ce mémoire de maîtrise présente trois articles rapportant des développements récents en matière de prévention de l’asthme professionnel. Tout d’abord, une revue de la littérature sur les agents sensibilisants de bas poids moléculaire dans l’asthme professionnel entre 2000 et 2010 recense 41 nouveaux agents et insiste sur l’importance de mettre à jour régulièrement les bases de données afin d’améliorer la prévention primaire. Ensuite, basé sur un cas clinique, la deuxième publication présente l’utilité potentielle du modèle d’analyse de risque QSAR (Quantitative Structure-Activity Relationship) dans le processus diagnostique de l’asthme professionnel, notamment lors d’une exposition multiple à des agents sensibilisants. Enfin, le troisième article présente la performance en milieu clinique du premier questionnaire de dépistage spécifique à l’asthme professionnel. Un modèle simple associant 8 items du questionnaire, l’âge des travailleurs et leur durée d’exposition professionnelle permet de discriminer 80% des 169 sujets adressés pour suspicion d’asthme professionnel. Un tel modèle pourrait être intégré dans les programmes de surveillance médicale qui constituent la base de la prévention secondaire. Ces trois publications insistent sur les possibilités d’explorer de nouveaux outils préventifs dans le domaine de l’asthme professionnel, outils qui ouvrent des perspectives de développements futurs dont les implications cliniques et socio-économiques peuvent être importantes.
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
Les titres financiers sont souvent modélisés par des équations différentielles stochastiques (ÉDS). Ces équations peuvent décrire le comportement de l'actif, et aussi parfois certains paramètres du modèle. Par exemple, le modèle de Heston (1993), qui s'inscrit dans la catégorie des modèles à volatilité stochastique, décrit le comportement de l'actif et de la variance de ce dernier. Le modèle de Heston est très intéressant puisqu'il admet des formules semi-analytiques pour certains produits dérivés, ainsi qu'un certain réalisme. Cependant, la plupart des algorithmes de simulation pour ce modèle font face à quelques problèmes lorsque la condition de Feller (1951) n'est pas respectée. Dans ce mémoire, nous introduisons trois nouveaux algorithmes de simulation pour le modèle de Heston. Ces nouveaux algorithmes visent à accélérer le célèbre algorithme de Broadie et Kaya (2006); pour ce faire, nous utiliserons, entre autres, des méthodes de Monte Carlo par chaînes de Markov (MCMC) et des approximations. Dans le premier algorithme, nous modifions la seconde étape de la méthode de Broadie et Kaya afin de l'accélérer. Alors, au lieu d'utiliser la méthode de Newton du second ordre et l'approche d'inversion, nous utilisons l'algorithme de Metropolis-Hastings (voir Hastings (1970)). Le second algorithme est une amélioration du premier. Au lieu d'utiliser la vraie densité de la variance intégrée, nous utilisons l'approximation de Smith (2007). Cette amélioration diminue la dimension de l'équation caractéristique et accélère l'algorithme. Notre dernier algorithme n'est pas basé sur une méthode MCMC. Cependant, nous essayons toujours d'accélérer la seconde étape de la méthode de Broadie et Kaya (2006). Afin de réussir ceci, nous utilisons une variable aléatoire gamma dont les moments sont appariés à la vraie variable aléatoire de la variance intégrée par rapport au temps. Selon Stewart et al. (2007), il est possible d'approximer une convolution de variables aléatoires gamma (qui ressemble beaucoup à la représentation donnée par Glasserman et Kim (2008) si le pas de temps est petit) par une simple variable aléatoire gamma.
Resumo:
La thèse examine les liens entre la vision pluraliste de la science et l’éthique de la médecine tibétaine et les nouvelles pratiques en médecine occidentale, soit la longévité et la recherche sur la génétique amélioratrice. Elle cherche à cerner l’apport que la médecine tibétaine peut apporter aux recherches occidentales sur la longévité et la génétique humaine amélioratrice. Elle traite donc d’un enjeu social clé et du débat qui s’y rattache. La découverte et la description sont centrales à la méthodologie et informent l’analyse. Nous avons examiné dans un premier temps, les travaux de recherche sur la longévité reliée à la génétique amélioratrice (mémoire et muscles). Nous nous sommes penchés également sur les fondements de la médecine tibétaine en tant que système intégré. Pour ce faire, nous avons traité des notions telles que la santé, l’identité, la perfection et l’immortalité. Notre cadre conceptuel repose sur la théorie bouddhiste de l’interdépendance qui se caractérise par la formulation de catégories qui ensuite sont synthétisées dans l’essence; les deux niveaux d’interprétation de la théorie sont décrits en détail avant de passer à une comparaison avec la notion de complexité occidentale. La médecine tibétaine de fait présente un système où l’éthique et la science sont intégrées et se prête bien à une comparaison avec la vision pluraliste de la science à partir d’une perspective éthique/bioéthique. Les commentaires recueillis auprès des experts nous ont permis de cerner comment la science, l’éthique et l’amélioration de la longévité sont définies au sein des deux paradigmes de l’Est et de l’Ouest. Nos résultats montrent six points qui se dégagent au terme de cette recherche permettent de jeter un pont sur la vision pluraliste de ces paradigmes. Ceux-ci transcendent les points de vue doctrinaux individuels de religions ainsi que du monde scientifique occidental. Plus que tout, ils laissent entrevoir un cadre de références novatrices qui contribuera à la prise de décision à l’égard de questionnements bioéthiques.
Resumo:
Thèse de doctorat effectuée en cotutelle avec la Faculté de droit de l'Université Jean Moulin Lyon III
Resumo:
Cette recherche vise à décrire l’évolution des conceptions et des pratiques relatives à la notion de phrase de cinq enseignantes de français vietnamiennes engagées dans une formation sur la syntaxe en grammaire nouvelle et la littérature de jeunesse. Afin d’examiner l’évolution des conceptions sur la phrase des enseignantes, nous avons effectué deux entrevues semi-dirigées, l’une avant et l’autre après la formation. Pour étudier l’évolution des pratiques d’enseignement de la phrase, nous avons observé une seule enseignante à deux reprises après la formation. De plus, celle-ci a décrit ses pratiques sur la phrase lors d’une entrevue téléphonique qui se déroulait à la fin de chaque mois (novembre 2011- mars 2012). Nos résultats montrent que les enseignantes ont changé leurs conceptions sur la phrase à la suite de la formation. En effet, dans la deuxième entrevue, nous avons noté une meilleure réussite dans l’identification des phrases, des critères d’identification plus convaincants, plus de précision dans les commentaires relatifs aux définitions et dans les explications des erreurs chez les cinq enseignantes. Quant aux pratiques, l’enseignante suivie a réalisé des activités autour de la phrase après la formation, ce qui constitue une évolution dans ses pratiques, puisqu’avant la formation, cette notion était négligée. Ses pratiques observées et déclarées indiquent qu’elle a intégré dans sa classe les notions clés de la grammaire nouvelle autour de la phrase et la littérature de jeunesse au service de l’enseignement de cette notion.
Resumo:
Les systèmes statistiques de traduction automatique ont pour tâche la traduction d’une langue source vers une langue cible. Dans la plupart des systèmes de traduction de référence, l'unité de base considérée dans l'analyse textuelle est la forme telle qu’observée dans un texte. Une telle conception permet d’obtenir une bonne performance quand il s'agit de traduire entre deux langues morphologiquement pauvres. Toutefois, ceci n'est plus vrai lorsqu’il s’agit de traduire vers une langue morphologiquement riche (ou complexe). Le but de notre travail est de développer un système statistique de traduction automatique comme solution pour relever les défis soulevés par la complexité morphologique. Dans ce mémoire, nous examinons, dans un premier temps, un certain nombre de méthodes considérées comme des extensions aux systèmes de traduction traditionnels et nous évaluons leurs performances. Cette évaluation est faite par rapport aux systèmes à l’état de l’art (système de référence) et ceci dans des tâches de traduction anglais-inuktitut et anglais-finnois. Nous développons ensuite un nouvel algorithme de segmentation qui prend en compte les informations provenant de la paire de langues objet de la traduction. Cet algorithme de segmentation est ensuite intégré dans le modèle de traduction à base d’unités lexicales « Phrase-Based Models » pour former notre système de traduction à base de séquences de segments. Enfin, nous combinons le système obtenu avec des algorithmes de post-traitement pour obtenir un système de traduction complet. Les résultats des expériences réalisées dans ce mémoire montrent que le système de traduction à base de séquences de segments proposé permet d’obtenir des améliorations significatives au niveau de la qualité de la traduction en terme de le métrique d’évaluation BLEU (Papineni et al., 2002) et qui sert à évaluer. Plus particulièrement, notre approche de segmentation réussie à améliorer légèrement la qualité de la traduction par rapport au système de référence et une amélioration significative de la qualité de la traduction est observée par rapport aux techniques de prétraitement de base (baseline).
Resumo:
L’intégration des soins et des services de santé est vue autant, par les décideurs, par les professionnels que par les usagers, comme une nécessité pour assurer une meilleure accessibilité, pour favoriser la continuité et la coordination et pour améliorer la qualité des soins et services tout en contrôlant les coûts. Depuis près de deux décennies, des réseaux intégrés de soins et de services de santé se développent dans les pays de l’OCDE. Ce phénomène a généré une littérature plutôt abondante sur les conditions organisationnelles supportant l’intégration des soins et plus récemment, sur l’importance du rôle et de la place des professionnels dans ces structures. Les données empiriques et les écrits mettent en évidence que les infirmières ont joué un rôle important dans la mise en place des réseaux intégrés de services depuis leurs débuts. Cette étude vise à identifier les pratiques stratégiques des infirmières qui sont impliquées dans des réseaux intégrés de services de santé et de comprendre comment ces pratiques favorisent des apprentissages organisationnels permettant l’ajustement des pratiques de l’ensemble des intervenants dans le sens de l’intégration clinique. Elle vise aussi à mettre en évidence les facteurs individuels et organisationnels impliqués dans le développement de ces pratiques et dans le processus d’apprentissage organisationnel. Une revue des écrits sur les réseaux de services intégrés et sur l’intégration clinique, ainsi que sur l’apprentissage organisationnel et sur l’analyse stratégique a confirmé que ces écrits, tout en étant complémentaires, soutenaient les objectifs de cette étude. En effet, les écrits sur l’intégration présentent des déterminants de l’intégration sans aborder les pratiques stratégiques et sont discrets sur l’apprentissage organisationnel. Les écrits sur l’apprentissage organisationnel abordent le processus d’apprentissage, mais ne décrivent pas les pratiques favorisant l’apprentissage organisationnel et sont peu loquaces sur les facteurs influençant l’apprentissage organisationnel. Enfin, les écrits sur l’analyse stratégique discutent des systèmes et des processus dynamiques en incluant les conditions individuelles et organisationnelles, mais ne font pas allusion à l’apprentissage organisationnel. Afin de découvrir les pratiques stratégiques ainsi que les apprentissages organisationnels, et de comprendre le processus d’apprentissage et les facteurs impliqués dans celui-ci, nous avons eu recours à un devis d’étude de cas multiples où nous nous sommes attardés à étudier les pratiques d’infirmières évoluant dans quatre situations visant l’intégration clinique. Ces situations faisaient partie de trois réseaux intégrés de services de santé impliquant des professionnels de différentes disciplines rattachés soit, à un centre hospitalier ou à un centre local de services communautaires. Trois études de cas ont été rédigées à partir des informations émanant des différentes sources de données. Dans le cadre de cette étude, quatre sources de données ont été utilisées soit : des entrevues individuelles avec des infirmières, d’autres professionnels et des gestionnaires (n=60), des entrevues de groupe (n=3), des séances d’observations (n=12) et l’étude de documents d’archives (n=96). À l’aide des données empiriques recueillies, il a été possible de découvrir quinze pratiques stratégiques et de préciser la nature des apprentissages qu'elles généraient. L’analyse des cas a également permis de mieux comprendre le rapport entre les pratiques stratégiques et les apprentissages organisationnels et d’apporter des précisions sur le processus d’apprentissage organisationnel. Cette étude contribue à la pratique et à la recherche, car en plus d’offrir un modèle d’apprentissage organisationnel intégré, elle précise que le processus d’apprentissage organisationnel est propulsé grâce à des boucles d’apprentissages stimulées par des pratiques stratégiques, que ces pratiques stratégiques s’actualisent grâce aux ressources individuelles des infirmières et aux facteurs organisationnels et enfin, que ces apprentissages organisationnels favorisent des changements de pratiques soutenant l’intégration clinique.
Resumo:
Au cours du vingtième siècle, le Québec a connu un bouleversement identitaire et religieux lorsqu’une majorité de Québécois a délaissé les prescriptions doctrinales catholiques, la religion identitaire du Québec, qui encadrait leur vie et s’imposait en tant que détentrice du « code exclusif du sens » (Hervieu-Léger 1993 : 155). Pour combler la perte de repères (Lemieux 2008) engendrée par les bouleversements décrits précédemment, plusieurs individus se tournèrent vers d’autres formes de spiritualité, soit en se convertissant à un nouveau système religieux ou en s’engageant dans une quête spirituelle. Certains Québécois, au cours de leur quête, ont alors découvert le druidisme, une spiritualité fondée sur le désir de retour à l’ancienne religion païenne des Celtes, et l’ont intégré en tant que composante principale ou secondaire de leur spiritualité. Le but de ce mémoire sera d’apporter quelques éléments d’explication à la présence du druidisme au Québec. Nous soulignerons l’importance du contexte moderne dans la quête de sens amorcée par l’adepte de paganisme celte, car ce contexte semble avoir servi de catalyseur dans le processus de découverte du druidisme pour ces Québécois. Puis, nous mettrons l’accent sur les raisons identitaires mises de l’avant par la CDQ pour justifier leur choix d’intégrer le druidisme à leur cheminement spirituel. Nous verrons que pour le druidisant, cette religion vient à la fois répondre à des besoins spirituels et combler un vide identitaire.
Resumo:
"Herbert Burket trace l’évolution des concepts reliés au ""droit de l’Internet"" dans le cadre du droit de l’Union Européenne. Initialement, ce domaine du droit était perçu comme une nouvelle discipline normative. Or, l’auteur soutient que le ""droit de l’Internet"" n’est pas un domaine normatif distinct, mais correspond aux domaines traditionnels auxquels il a été progressivement intégré. Le ""droit de l’Internet"" a amélioré notre compréhension du processus général d’évolution du droit. L’auteur souligne, entre autres, comment le législateur européen a réagi par diverses législations aux nouveaux impératifs technologiques. De plus, ce domaine offre une nouvelle perspective pour l’analyse de l’évolution des normes face aux innovations technologiques. Les tribunaux, les législateurs et les parties privées sont autant d’acteurs qui interviennent à différents moments et sur différents aspects du processus d’évolution du droit. Enfin, on s’attendait à ce que le droit de l’Internet conduise à la mondialisation des normes, à l’autorégulation des acteurs et à une architecture structurelle normative ouverte. L’auteur constate que la mondialisation des normes ne semble pas s’être réalisée. L’autorégulation, dans le domaine de l’Internet, fait référence aux normes de comportement établies par des acteurs privés et mixtes. Enfin, le concept d’architecture structurelle normative réfère au fait que les créateurs d’un système technologique imposent involontairement certaines règles aux utilisateurs, en dépit de l’affirmation qu’un tel système technologique est normativement neutre. L’auteur soutient que ces attentes, bien qu’elles soient toujours présentes au sein de l’activité normative, n’ont plus la même signification qu’au moment de leur formulation originale. Les concepts traditionnels de période normative, de juridiction, d’acteurs et de procédure ont aussi évolué parallèlement au développement du ""droit de l’Internet"", autant dans le cadre de l’environnement normatif de l’Union Européenne que dans celui du droit international en général. L’évolution de ces concepts modifie le processus de création du droit, ainsi que le rôle et les fonctions des intervenants impliqués dans ce processus.L’auteur conclut en soulignant que le concept même de droit a évolué en perdant ses représentations symboliques traditionnelles grâce au développement de l’accès généralisé à l’information, à l’évolution des technologies de l’information et à leur impact culturel."
Resumo:
The first two articles build procedures to simulate vector of univariate states and estimate parameters in nonlinear and non Gaussian state space models. We propose state space speci fications that offer more flexibility in modeling dynamic relationship with latent variables. Our procedures are extension of the HESSIAN method of McCausland[2012]. Thus, they use approximation of the posterior density of the vector of states that allow to : simulate directly from the state vector posterior distribution, to simulate the states vector in one bloc and jointly with the vector of parameters, and to not allow data augmentation. These properties allow to build posterior simulators with very high relative numerical efficiency. Generic, they open a new path in nonlinear and non Gaussian state space analysis with limited contribution of the modeler. The third article is an essay in commodity market analysis. Private firms coexist with farmers' cooperatives in commodity markets in subsaharan african countries. The private firms have the biggest market share while some theoretical models predict they disappearance once confronted to farmers cooperatives. Elsewhere, some empirical studies and observations link cooperative incidence in a region with interpersonal trust, and thus to farmers trust toward cooperatives. We propose a model that sustain these empirical facts. A model where the cooperative reputation is a leading factor determining the market equilibrium of a price competition between a cooperative and a private firm
Resumo:
La dystrophie musculaire de Duchenne (DMD) est une maladie très sévère, progressive et sans traitement vraiment efficace. Elle est caractérisée par l’absence fonctionnelle de la dystrophine, une protéine essentielle au maintien des muscles squelettiques. La thérapie génique est actuellement envisagée comme approche thérapeutique pour livrer la dystrophine dans les muscles. Les vecteurs adénoviraux de troisième génération (Helper-dependent adenoviral vector, HD) sont des véhicules de transfert génique très prometteurs pour traiter la DMD. Puisque les gènes adénoviraux ont été enlevés complètement du HD, ils sont peu toxiques, faiblement immunogéniques et ils possèdent un espace cargo suffisant pour transporter l’ADN codant complet de la dystrophine. Bien que le HD puisse fournir la dystrophine de façon thérapeutique chez des souris dystrophiques (mdx), l’expression du gène thérapeutique est progressivement perdue plusieurs mois suivant l’injection intramusculaire. Deux stratégies innovantes furent explorées dans cette thèse dans le but de stabiliser l’expression de la dystrophine. La première stratégie vise à l’intégration de l’ADN du HD dans les chromosomes cellulaires, ce qui pourrait le protéger contre son élimination progressive des muscles. Une intégrase site-spécifique issue du phage ΦC31 a été utilisée pour catalyser l’intégration d’un HD transportant un marqueur de sélection. Dans les cellules humaines et les myoblastes murins, l’activité de l’intégrase a été évaluée d’après son efficacité d’intégration (après sélection) et sa spécificité (dans les clones résistants). L’efficacité atteint jusqu’à 0,5 % par cellule et jusqu’à 76 % des événements d’intégration ont été réalisés de façon site-spécifique. Bien que des délétions aient été trouvées aux extrémités du vecteur, 70 % des clones analysés montraient une seule copie du vecteur intégré (le nombre attendu). Seulement une petite augmentation du nombre de brisures double-brin a été mesurée dans les myoblastes exprimant l’intégrase. En conclusion, l’intégration du HD est relativement efficace, spécifique et sécuritaire. Cette méthode est très prometteuse, car la dystrophine peut être livrée dans le muscle avec l’aide du HD et l’intégration de l’ADN du HD pourrait stabiliser son expression in vivo. La deuxième stratégie implique l’utilisation d’un nouveau promoteur musculospécifique (ΔUSEx3) pour réduire la toxicité induite liée à une expression trop étendue de la dystrophine. Dans cette étude, nous avons investigué l’effet du contexte viral sur l’activité du promoteur. Un HD et un vecteur lentiviral (LV) ont été construits avec le promoteur ΔUSEx3 pour contrôler l’expression d’un gène rapporteur. Les résultats démontrent que ΔUSEx3 confère une expression puissante, musculospécifique et stable (via le LV) in vitro. L’injection intramusculaire du HD a conduit à une expression puissante du transgène. Ces résultats contrastent avec ceux du LV, car après l’injection de ce dernier, l’expression était faible. La livraison du HD dans le muscle, mais aussi dans plusieurs organes démontre la musculospécificité de ΔUSEx3. Par conséquent, le contexte du vecteur et l’environnement musculaire modulent tous les deux l’activité de ΔUSEx3. Bien que ΔUSEx3 soit musculospécifique, d’autres études sont requises pour déterminer si le promoteur peut stabiliser l’expression de la dystrophine in vivo.