28 resultados para Augmented Lagrangians


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nombreux individus vont expérimenter avec les drogues d’abus, mais peu vont devenir toxicomanes. Plusieurs facteurs sont impliqués dans la transition d’un usage récréatif à l’addiction. Les drogues, les conditionnements et les voies d’administration qui mènent à l’augmentation rapide du taux drogue dans le cerveau favorisent cette évolution. La raison est méconnue. Nous avons émis l’hypothèse que l’injection rapide de drogue promeut des changements dans le cerveau qui mènent à l’augmentation de la consommation et de la motivation à obtenir la drogue. Nous avons comparé la consommation lors de conditions à ratio fixe (FR) et à ratio progressif (PR) chez des rats s’auto-administrant la cocaïne administrée par voie intraveineuse (i.v.) en 5 ou 90 secondes (s). Tous les rats ont été entrainés à peser sur un levier afin de s’auto administrer des injections de cocaïne de 0.25 ou 0.5 mg/kg par voie intraveineuse injectée en 5 s sous FR avant d’être divisés en groupes s’auto administrant la cocaïne injectée en 5 ou 90 s pendant 1 heure (h)/session. Pour étudier les différences potentielles en consommation, l’accès à la cocaïne à été augmenté à 6 h/session. Les différences en motivation ont été détectées par l’auto administration de la cocaïne sous PR en fonction de la dose et de la vitesse d’infusion. L’accès à la drogue pendant 1 h/session n’a pas influencé la consommation. Lorsque l’accès a été prolongé à 6 h, tous les animaux ont augmenté leur consommation, mais l’augmentation était plus prononcée chez les rats s’injectant la cocaïne en 5 s. De plus, la vitesse d’injection a influencé la motivation pour obtenir la drogue. Lors de conditions à PR, la courbe dose-réponse pour le nombre d’infusions prises a été déplacée vers le haut pour les rats s’auto administrant des injections de cocaïne en 5 s versus 90 s. De plus, des différences qualitatives on été observées en PR. La consommation de cocaïne des rats s’injectant des infusions en 5 s était dépendante de la dose, tandis que les rats s’auto administrant la drogue en 90 s ont pris la même quantité de drogue, peu importe la dose. Finalement, les rats s’auto administrant des infusions de cocaïne 0.5 mg/kg en 5 s ont consommé plus de cocaïne que les rats prenant des infusions en 90 s, peu importe si elle était injectée en 5 ou 90 s le jour du test. Ainsi, nos résultats montrent que l’injection rapide de drogue dans le cerveau mène à l’augmentation de la consommation et de la motivation pour obtenir la cocaïne, deux symptômes qui caractérisent la toxicomanie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente quelques propriétés des sous-variétés lagrangiennes monotones. On résoud d'abord une conjecture de Barraud et Cornea dans le cadre monotone en montrant que le rayon de Gromov relatif à deux lagrangiennes dans la même classe d'isotopie hamiltonienne donne une borne inférieure à la distance de Hofer entre ces deux mêmes lagrangiennes. Le cas non-monotone de cette conjecture reste ouvert encore. On définit toutes les structures nécessaires à l'énoncé et à la preuve de cette conjecture. Deuxièmement, on définit une nouvelle version d'un morphisme de Seidel relatif à l'aide des cobordismes lagrangiens de Biran et Cornea. On montre que cette version est chaîne-homotope aux différentes autres versions apparaissant dans la littérature. Que toutes ces définitions sont équivalentes fait partie du folklore mais n'apparaît pas dans la littérature. On conclut par une conjecture qui identifie un triangle exact obtenu par chirurgie lagrangienne et un autre dû à Seidel et faisant intervenir le twist de Dehn symplectique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’apoptose endothéliale initie le processus menant au remodelage vasculaire et au développement de la néointima dans la vasculopathie du greffon. La formation de néointima résulte de l’accumulation de leucocytes, de matrice extracellulaire et de cellules positives pour l’actine musculaire lisse alpha (αSMA+) dans l’intima des artères, artérioles et capillaires du greffon. Les cellules αSMA+ dans la néointima sont des cellules musculaires lisses vasculaires (CMLV) dérivées du donneur ainsi que des cellules souches dérivées du receveur, dont des cellules souches mésenchymateuses (CSM). L’acquisition d’un phénotype anti-apoptotique chez ces cellules est déterminante pour le développement de la néointima. Le laboratoire de Dre Hébert a démontré que les cellules endothéliales (CE) apoptotiques libèrent des médiateurs induisant une résistance à l’apoptose chez les CMLV et les fibroblastes. Notamment, les CE apoptotiques relâchent la cathepsine L qui clive le perlécan et ainsi libère un fragment C-terminal correspondant au troisième motif laminine G du domaine V du perlécan (LG3). Le LG3 est anti-apoptotique pour les fibroblastes. Nous avons donc émis l’hypothèse que le LG3 est un des médiateurs clés libéré par les CE apoptotiques favorisant le développement de la néointima via l’induction d’un phénotype anti-apoptotique chez les cellules néointimales αSMA+. Nous avons démontré que les médiateurs libérés par les CE apoptotiques induisent un phénotype anti-apoptotique chez les CSM dépendant de l’activation de la voie ERK1/2. De plus, le LG3 active la voie ERK1/2 via son interaction avec les intégrines beta 1 et induit une réponse anti-apoptotique chez ces cellules. Cependant l’activation de ERK1/2 par le LG3 est plus faible en comparaison de son activation par le milieu conditionné par des CE apoptotiques. Nos résultats suggèrent que les CE apoptotiques libèrent aussi de l’EGF qui agit de façon paracrine sur les CSM en coopération avec le LG3 pour induire un phénotype anti-apoptotique chez les CSM. Nous avons poursuivi l’étude de l’effet du LG3 in vivo sur le remodelage vasculaire en transplantation. Nous avons pour cela développé un modèle murin de rejet vasculaire qui consiste en une transplantation aortique entre des souris alloincompatibles. Nous avons ensuite injecté du LG3 chez les souris receveuses en post-transplantation. Nous avons observé dans ce modèle que des niveaux augmentés de LG3 sérique augmentent la formation de néointima, favorisent l’accumulation de cellules néointimales αSMA+ et diminuent le nombre de cellules CD31+ au niveau du greffon aortique. Parallèlement nous avons vérifié que le LG3 induit aussi un phénotype anti-apoptotique chez les CMLV et nous avons démontré un nouvel effet du LG3, soit une activité pro-migratoire, qui dépend de l’activation de la voie ERK1/2 chez les CMLV. Nous avons complété cette étude par l’analyse des niveaux de LG3 sérique dans une cohorte de patients receveurs d’allogreffe rénale. Nous avons observé chez ces patients, une association entre des niveaux élevés de LG3 sérique et un rejet vasculaire. Le LG3 contribue à la formation de néointima par son activité pro-migratoire et pro-survie chez les cellules néointimales et aussi de par son activité angiostatique. Nos résultats suggèrent que le LG3 est un nouveau médiateur important dans le remodelage vasculaire en transplantation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche vise à décrire comment a évolué l’évaluation de la compétence à écrire dans les épreuves uniques d’écriture de 5e secondaire, en portant spécifiquement le regard sur la composante linguistique de cette compétence. Une recherche documentaire a permis de recueillir des épreuves et autres documents les concernant pour une période allant de 1971 à 2012. Bien que notre étude porte en particulier sur les épreuves uniques d’écriture, implantées en 1986, nous avons pu remonter plus loin dans le temps afin de brosser un tableau le plus large possible de l’évaluation certificative de l’écriture en 5e secondaire. Plusieurs aspects sont analysés : le contexte des épreuves, les tâches qu’elles contiennent, les paramètres encadrant leur correction, ainsi que les seuils de réussite relatifs à la langue, les épreuves entières, la compétence à écrire et la matière français, langue d’enseignement. Nous avons également pu observer, à l’échelle provinciale, l’évolution des résultats des élèves aux épreuves uniques d’écriture. À l’aide de divers concepts théoriques reliés à l’évaluation de la compétence écrire et sa composante linguistique, un cadre méthodologique a été développé pour permettre l’analyse des épreuves d’écriture. Celle-ci révèle notamment que la nature des tâches et leurs paramètres sont restés assez constants dans le temps, particulièrement depuis 1986. Le nombre d’erreurs linguistiques permises a augmenté, alors que les résultats des élèves sont restés stables. De plus, le regard historique de cette étude montre comment le ministère de l’Éducation accorde à notre époque une grande importance à l’écriture et à la correction de l’orthographe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’hypertension artérielle est le facteur de risque le plus important dans les maladies cardiovasculaires (MCV) et les accidents vasculaires cérébraux (AVC). L’hypertension artérielle essentielle est une maladie complexe, multifactorielle et polygénique. Même si on a identifié de nombreux facteurs de risque de l’hypertension artérielle, on ne comprend pas encore clairement les mécanismes qui la régissent. Les kinases hépatocytes produisant l’érythropoïétine (Eph) constituent la plus grande famille des récepteurs tyrosine kinase qui se lient à des ligands de surface cellulaire appelés éphrines sur les cellules avoisinantes. On sait que les interactions de Eph et des éphrines sont essentielles aussi bien dans les processus de développement que dans le fonctionnement des organes et des tissus adultes. Cependant on n’a pas encore étudié la relation entre Eph/éphrines et l’hypertension artérielle. Nous avons créé des modèles de souris knockout (K.O.) Ephb6-/-, Efnb1-/- et Efnb3-/- pour cette étude. Dans le modèle EphB6-/-, nous avons observé que les souris K.O. Ephb6 castrées, mais pas les femelles, ainsi que les souris mâles non castrées présentaient une tension artérielle élevée (TA) par rapport à leurs homologues de type sauvage (TS). Ceci suggère que Ephb6 doit agir de concert avec l’hormone sexuelle mâle pour réguler la TA. Les petites artères des mâles castrés Ephb6-/- présentaient une augmentation de la contractilité, une activation de RhoA et une phosphorylation constitutive de la chaîne légère de la myosine (CLM) lorsque comparées à celles de leurs homologues TS. Ces deux derniers résultats indiquent que la phosphorylation de CLM et de RhoA passe par la voie de signalisation de Ephb6 dans les cellules du muscle lisse de la paroi vasculaire (CMLV). Nous avons démontré que la réticulation de Efnbs mais non celle de Ephb6 aboutit à une réduction de la contractilité des CMLV. Ceci montre que l’effet de Ephb6 passe par la signalisation inversée à travers Efnb. Dans le modèle Efnb1-/- conditionnel spécifique au muscle lisse, nous n’avons observé aucune différence entre Efnb1-/- et les souris de TS concernant la mesure de la TA dans des conditions normales. Cependant, la TA des souris K.O. Efnb1 lors d’un stress d’immobilisation est supérieure à celle des souris de TS. Dans les petites artères des souris K.O. Efnb1, le rétrécissement et la phosphorylation de CLM étaient élevés. In vitro, la contractilité et l’activation RhoA de la CMLV des souris TS étaient augmentées quand leur Efnb1 était réticulé. Ces résultats corroborent ceux des souris KO Ephb6 et prouvent que l’effet de Ephb6 dans le contrôle de la TA se produit au moins par l’intermédiaire d’un de ses ligands Efnb1 dans les CMLV. Dans le modèle Efnb3-/-, on a observé une augmentation de la TA et du rétrécissement des vaisseaux chez les femelles Efnb3-/-, mais non chez les mâles; l’échographie a aussi révélé une résistance accrue au débit sanguin des souris K.O. femelles. Cependant la mutation de Efnb3 ne modifie pas la phosphorylation de la CLM ou l’activation de RhoA in vivo. Dans l’expérience in vitro, les CMLV des souris femelles Efnb3-/- ont présenté une augmentation de la contractilité mais pas celle des souris mâles Efnb3-/-. La réticulation des CMLV chez les mâles ou les femelles de TS avec solide anti-Efnb3 Ab peut réduire leur contractilité. Notre étude est la première à évaluer le rôle de Eph/éphrines dans la régulation de la TA. Elle montre que les signalisations Eph/éphrines sont impliquées dans le contrôle de la TA. La signalisation inverse est principalement responsable du phénotype élevé de la TA. Bien que les Efnb1, Efnb3 appartiennent à la même famille, leur fonction et leur efficacité dans la régulation de la TA pourraient être différentes. La découverte de Eph/Efnb nous permet d’explorer plus avant les mécanismes qui gouvernent la TA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'hypertension artérielle est l'une des principales causes de morbidité et de mortalité dans le monde. La compréhension des mécanismes qui sont à la base du développement de l'hypertension offrira de nouvelles perspectives pour un meilleur contrôle de l'hypertension. Nous avons précédemment montré que le niveau des protéines Giα-2 et Giα-3 est augmenté chez les rats spontanément hypertendus (SHR) avant l'apparition de l'hypertension. Le traitement avec les inhibiteurs de l’enzyme de conversion de l’Angiotensine (IEC) est associé à une diminution de l’expression des protéines Gi. De plus, l'injection intrapertoneale de la toxine de la coqueluche inactive les deux protéines Giα et empêche le développement de l'hypertension chez les SHR. Cependant, la contribution spécifique des protéines Giα-2 et Giα-3 dans le développement de l'hypertension n'est pas encore connue. Dans la présente étude, l’Anti-sens oligodésoxynucléotide (AS-ODN) de Giα-2 et Giα-3 (1mg/Kg en poids corporel) encapsulé dans des liposomes cationiques PEG / DOTAP/ DOPE ont été administrés par voie intraveineuse aux SHR pré-hypertendus âgé de trois semaines et aux Wistar Kyoto (WKY) rats de même âge. Les contrôles des WKY et SHR non traités ont été injectés avec du PBS stérile, liposomes vides ou oligomères sens. La pression artérielle (PA) a été suivie chaque semaine en utilisant la technique manchon caudal. Les rats ont été sacrifiés à l'âge de six semaines et neuf semaines. Le coeur et l'aorte ont été utilisés pour étudier l'expression des protéines Gi. Le knockdown des protéines Giα-2 par l’injection de Giα-2-AS a empêché le développement de l'hypertension à l'âge de six semaines. Par la suite, la PA a commencé à augmenter rapidement et a atteint le niveau que l'on retrouve dans les groupes témoins à l'âge de neuf semaines. D'autre part, la PA du groupe traité avec le Giα-3-AS a commencé à augmenter à l'âge de quatre semaines. Dans le groupe des SHR-Giα-3-AS, la PA a augmenté à l’âgé de six semaines, mais moins que celle de SHR-CTL. Le coeur et l'aorte obtenues des SHR Giα-2-AS et Giα-3-AS à partir de l’âgé de six semaines ont eu une diminution significative de l’expression des protéines Giα-2 et Giα-3 respectivement. Dans le groupe des WKY Giα-2-AS et Giα-3-AS l'expression des protéines Giα-2 et Giα-3 respectivement a diminué malgré l'absence de changement dans la PA par rapport aux WKY CTL. À l'âge de neuf semaines, les SHR traités avec du Giα-2-AS et Giα-3-AS avaient la même PA et expression des protéines Gi que le SHR CTL. Ces résultats suggèrent que les deux protéines Giα-2 et Giα-3 sont impliqués dans le développement de l'hypertension chez les SHR, mais le knockdown de Giα-2 et pas de Giα-3 a empêché le développement de l'hypertension.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette dissertation, nous présentons plusieurs techniques d’apprentissage d’espaces sémantiques pour plusieurs domaines, par exemple des mots et des images, mais aussi à l’intersection de différents domaines. Un espace de représentation est appelé sémantique si des entités jugées similaires par un être humain, ont leur similarité préservée dans cet espace. La première publication présente un enchaînement de méthodes d’apprentissage incluant plusieurs techniques d’apprentissage non supervisé qui nous a permis de remporter la compétition “Unsupervised and Transfer Learning Challenge” en 2011. Le deuxième article présente une manière d’extraire de l’information à partir d’un contexte structuré (177 détecteurs d’objets à différentes positions et échelles). On montrera que l’utilisation de la structure des données combinée à un apprentissage non supervisé permet de réduire la dimensionnalité de 97% tout en améliorant les performances de reconnaissance de scènes de +5% à +11% selon l’ensemble de données. Dans le troisième travail, on s’intéresse à la structure apprise par les réseaux de neurones profonds utilisés dans les deux précédentes publications. Plusieurs hypothèses sont présentées et testées expérimentalement montrant que l’espace appris a de meilleures propriétés de mixage (facilitant l’exploration de différentes classes durant le processus d’échantillonnage). Pour la quatrième publication, on s’intéresse à résoudre un problème d’analyse syntaxique et sémantique avec des réseaux de neurones récurrents appris sur des fenêtres de contexte de mots. Dans notre cinquième travail, nous proposons une façon d’effectuer de la recherche d’image ”augmentée” en apprenant un espace sémantique joint où une recherche d’image contenant un objet retournerait aussi des images des parties de l’objet, par exemple une recherche retournant des images de ”voiture” retournerait aussi des images de ”pare-brises”, ”coffres”, ”roues” en plus des images initiales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La pratique d’activité physique fait partie intégrante des recommandations médicales pour prévenir et traiter les maladies coronariennes. Suivant un programme d’entraînement structuré, serait-il possible d’améliorer la réponse à l’exercice tout en offrant une protection cardiaque au patient? C’est ce que semblent démontrer certaines études sur le préconditionnement ischémique (PCI) induit par un test d’effort maximal. Les mêmes mécanismes physiologiques induits par le PCI sont également observés lorsqu’un brassard est utilisé pour créer des cycles d’ischémie/reperfusion sur un muscle squelettique. Cette méthode est connue sous l’appellation : préconditionnement ischémique à distance (PCID). À l’autre extrémité du spectre de l’activité physique, des sportifs ont utilisé le PCDI durant leur échauffement afin d’améliorer leurs performances. C’est dans l’objectif d’étudier ces prémisses que se sont construits les projets de recherches suivants. La première étude porte sur les effets du PCID sur des efforts supra maximaux de courte durée. Les sujets (N=16) ont exécuté un test alactique (6 * 6 sec. supra maximales) suivi d’un test lactique (30 secondes supra maximales) sur ergocycle. Les sujets avaient été aléatoirement assignés à une intervention PCID ou à une intervention contrôle (CON) avant d’entreprendre les efforts. La procédure PCID consiste à effectuer quatre cycles d’ischémie de cinq minutes à l’aide d’un brassard insufflé à 50 mm Hg de plus que la pression artérielle systolique sur le bras. Les résultats de ce projet démontrent que l’intervention PCID n’a pas d’effets significatifs sur l’amélioration de performance provenant classiquement du « système anaérobie », malgré une légère hausse de la puissance maximal en faveur du PCID sur le test de Wingate de trente secondes (795 W vs 777 W) et sur le test de force-vitesse de six secondes (856 W vs 847 W). Le deuxième essai clinique avait pour objectif d’étudier les effets du PCID, selon la méthode élaborée dans le premier projet, lors d’un effort modéré de huit minutes (75 % du seuil ventilatoire) et un effort intense de huit minutes (115 % du seuil ventilatoire) sur les cinétiques de consommation d’oxygène. Nos résultats démontrent une accélération significative des cinétiques de consommation d’oxygène lors de l’intervention PCID par rapport au CON aux deux intensités d’effort (valeur de τ1 à effort modéré : 27,2 ± 4,6 secondes par rapport à 33,7 ± 6,2, p < 0,01 et intense : 29,9 ± 4,9 secondes par rapport à 33,5 ± 4,1, p < 0,001) chez les sportifs amateurs (N=15). Cela se traduit par une réduction du déficit d’oxygène en début d’effort et une atteinte plus rapide de l’état stable. Le troisième projet consistait à effectuer une revue systématique et une méta-analyse sur la thématique du préconditionnement ischémique (PCI) induit par un test d’effort chez les patients coronariens utilisant les variables provenant de l’électrocardiogramme et des paramètres d’un test d’effort. Notre recherche bibliographique a identifié 309 articles, dont 34 qui ont été inclus dans la méta-analyse, qui représente un lot de 1 053 patients. Nos analyses statistiques démontrent que dans un effort subséquent, les patients augmentent leur temps avant d’atteindre 1 mm de sous-décalage du segment ST de 91 secondes (p < 0,001); le sous-décalage maximal diminue de 0,38 mm (p < 0,01); le double produit à 1 mm de sous-décalage du segment ST augmente de 1,80 x 103 mm Hg (p < 0,001) et le temps total d’effort augmente de 50 secondes (p < 0,001). Nos projets de recherches ont favorisé l’avancement des connaissances en sciences de l’activité physique quant à l’utilisation d’un brassard comme stimulus au PCID avant un effort physique. Nous avons évalué l’effet du PCID sur différentes voies métaboliques à l’effort pour conclure que la méthode pourrait accélérer les cinétiques de consommation d’oxygène et ainsi réduire la plage du déficit d’oxygène. Nos découvertes apportent donc un éclaircissement quant à l’amélioration des performances de type contre-la-montre étudié par d’autres auteurs. De plus, nous avons établi des paramètres cliniques permettant d’évaluer le PCI induit par un test d’effort chez les patients coronariens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le tri et le transport efficace des hydrolases acides vers le lysosome jouent un rôle critique pour la fonction des cellules. Plus de 50 maladies humaines sont dues à des mutations des enzymes lysosomales, des protéines régulant des processus-clés du transport vers le lysosome ou des enzymes effectuant des modifications posttraductionnelles importantes pour la fonction du lysosome. L’objectif de cette thèse est d’identifier des protéines et des mécanismes permettant à la cellule de réguler le transport des enzymes vers le lysosome. Nous avons formulé l’hypothèse que des protéines mutées dans des maladies lysosomales et dont les fonctions étaient inconnues pouvaient jouer un rôle dans le transport vers le lysosome. Les céroïdes-lipofuscinoses neuronales forment une famille de maladies lysosomales rares mais sont aussi les maladies neurodégénératives infantiles les plus fréquentes. Plusieurs gènes impliqués dans les NCL encodent des protéines aux fonctions inconnues. Les travaux présentés dans cette thèse ont identifié la protéine « ceroid lipofuscinosis neuronal-5 » (CLN5) qui est localisée à l’endosome et au lysosome comme élément nécessaire au recrutement et à l’activation de rab7. Rab7 est une protéine Rab-clé qui contrôle le trafic à l’endosome tardif. Cette petite GTPase est impliquée dans le recrutement de retromer, un complexe protéique qui régule le trafic de l’endosome vers l’appareil de Golgi des récepteurs de tri lysosomal comme sortilin et le récepteur du mannose-6-phosphate. Dans les cellules où CLN5 est déplété, les récepteurs de tri lysosomal sont moins recyclés plus rapidement dégradés. En utilisant des expériences de photomarquage nous avons aussi pu démontrer que Rab7 est moins activées en l’absence de CLN5. Pour exécuter leur fonction les protéines rabs doivent être recrutée à la membrane et activées par l’échange d’une molécule de GDP pour une molécule de GTP. Le recrutement des Rabs à la membrane nécessite une modification posttraductionnelle lipidique pour être facilités. En utilisant un modèle de levures nous avons démontré que l’homologue de Rab7, Ypt7 est palmitoylée. Nous avons aussi démontré que la palmitoyltransférase Swif1 est nécessaire au recrutement de Ypt7 à la membrane. Nous avons aussi remarqué que les sous- unités de retromer chez la levure sont moins recrutées lorsque les palmitoyltransférases sont déplétées. Dans les cellules de mammifères nous avons démontré que Rab7 est également palmitoylé et que cette palmitoylation est possiblement effectuée par les palmitoyltransférases DHHC1 et DHHC8. La palmitoylation de Rab7 a lieu sur les cystéines en C-terminal qui sont nécessaires au recrutement membranaire et qui auparavant étaient uniquement décrites comme prénylées. En utilisant la méthode de « click chemistry » nous avons découvert que lorsque la prénylation de Rab7 est bloquée le niveau de palmitoylation augmente. Pour caractériser l’interaction entre CLN5 et Rab7 nous avons performé des expériences afin d’établir définitivement la topologie de cette protéine. Nous avons ainsi démontré que CLN5 est une protéine hautement glycosylée qui est initialement traduite en protéine transmembranaire et subséquemment clivée par un membre de la famille des peptidase de peptide signal (SPP). Cette protéine soluble peut alors possiblement interagir avec CLN3 qui est aussi palmitoylée pour recruter et activer Rab7. Nos études suggèrent pour la première fois que CLN5 pourrait être un recruteur et un activateur de Rab7 qui agirait avec la protéine CLN3 pour séquestrer Rab7 avec les autres récepteurs palmitoylés et permettre leur recyclage vers l’appareil de Golgi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les fluctuations économiques représentent les mouvements de la croissance économique. Celle-ci peut connaître des phases d'accélération (expansion) ou de ralentissement (récession), voire même de dépression si la baisse de production est persistente. Les fluctuations économiques sont liées aux écarts entre croissance effective et croissance potentielle. Elles peuvent s'expliquer par des chocs d'offre et demande, ainsi que par le cycle du crédit. Dans le premier cas, les conditions de la production se trouvent modifiées. C'est le cas lorsque le prix des facteurs de production (salaires, prix des matières premières) ou que des facteurs externes influençant le prix des produits (taux de change) évolue. Ainsi, une hausse du prix des facteurs de production provoque un choc négatif et ralentit la croissance. Ce ralentissement peut être également dû à un choc de demande négatif provoqué par une hausse du prix des produits causée par une appréciation de la devise, engendrant une diminution des exportations. Le deuxième cas concerne les variables financières et les actifs financiers. Ainsi, en période d'expansion, les agents économiques s'endettent et ont des comportements spéculatifs en réaction à des chocs d'offre ou demande anticipés. La valeur des titres et actifs financiers augmente, provoquant une bulle qui finit par éclater et provoquer un effondrement de la valeur des biens. Dès lors, l'activité économique ne peut plus être financée. C'est ce qui génère une récession, parfois profonde, comme lors de la récente crise financière. Cette thèse inclut trois essais sur les fluctuations macroéconomiques et les cycles économiques, plus précisément sur les thèmes décrit ci-dessus. Le premier chapitre s'intéresse aux anticipations sur la politique monétaire et sur la réaction des agents écononomiques face à ces anticipations. Une emphase particulière est mise sur la consommation de biens durables et l'endettement relié à ce type de consommation. Le deuxième chapitre aborde la question de l'influence des variations du taux de change sur la demande de travail dans le secteur manufacturier canadien. Finalement, le troisième chapitre s'intéresse aux retombées économiques, parfois négatives, du marché immobilier sur la consommation des ménages et aux répercussions sur le prix des actifs immobiliers et sur l'endettement des ménages d'anticipations infondées sur la demande dans le marché immobilier. Le premier chapitre, intitulé ``Monetary Policy News Shocks and Durable Consumption'', fournit une étude sur le lien entre les dépenses en biens durables et les chocs monétaires anticipés. Nous proposons et mettons en oeuvre une nouvelle approche pour identifier les chocs anticipés (nouvelles) de politique monétaire, en les identifiant de manière récursive à partir des résidus d’une règle de Taylor estimée à l’aide de données de sondage multi-horizon. Nous utilisons ensuite les chocs anticipés inférer dans un modèle autorégressif vectoriel structurel (ARVS). L’anticipation d’une politique de resserrement monétaire mène à une augmentation de la production, de la consommation de biens non-durables et durables, ainsi qu’à une augmentation du prix réel des biens durables. Bien que les chocs anticipés expliquent une part significative des variations de la production et de la consommation, leur impact est moindre que celui des chocs non-anticipés sur les fluctuations économiques. Finalement, nous menons une analyse théorique avec un modèle d’équilibre général dynamique stochastique (EGDS) avec biens durables et rigidités nominales. Les résultats indiquent que le modèle avec les prix des biens durables rigides peut reproduire la corrélation positive entre les fonctions de réponse de la consommation de biens non-durables et durables à un choc anticipé de politique monétaire trouvées à l’aide du ARVS. Le second chapitre s'intitule ``Exchange Rate Fluctuations and Labour Market Adjustments in Canadian Manufacturing Industries''. Dans ce chapitre, nous évaluons la sensibilité de l'emploi et des heures travaillées dans les industries manufacturières canadiennes aux variations du taux de change. L’analyse est basée sur un modèle dynamique de demande de travail et utilise l’approche en deux étapes pour l'estimation des relations de cointégration en données de panel. Nos données sont prises d’un panel de 20 industries manufacturières, provenant de la base de données KLEMS de Statistique Canada, et couvrent une longue période qui inclut deux cycles complets d’appréciation-dépréciation de la valeur du dollar canadien. Les effets nets de l'appréciation du dollar canadien se sont avérés statistiquement et économiquement significatifs et négatifs pour l'emploi et les heures travaillées, et ses effets sont plus prononcés dans les industries davantage exposées au commerce international. Finalement, le dernier chapitre s'intitule ``Housing Market Dynamics and Macroprudential Policy'', dans lequel nous étudions la relation statistique suggérant un lien collatéral entre le marché immobilier and le reste de l'économique et si ce lien est davantage entraîné par des facteurs de demandes ou d'offres. Nous suivons également la littérature sur les chocs anticipés et examinons un cyle d'expansion-récession peut survenir de façon endogène la suite d'anticipations non-réalisées d'une hausse de la demande de logements. À cette fin, nous construisons un modèle néo-Keynésien au sein duquel le pouvoir d’emprunt du partie des consommateurs est limité par la valeur de leur patrimoine immobilier. Nous estimons le modèle en utilisant une méthode Bayésienne avec des données canadiennes. Nous évaluons la capacité du modèle à capter les caractéristiques principales de la consommation et du prix des maisons. Finalement, nous effectuons une analyse pour déterminer dans quelle mesure l'introduction d'un ratio prêt-à-la-valeur contracyclique peut réduire l'endettement des ménages et les fluctuations du prix des maisons comparativement à une règle de politique monétaire répondant à l'inflation du prix des maisons. Nous trouvons une relation statistique suggérant un important lien collatéral entre le marché immobilier et le reste de l'économie, et ce lien s'explique principalement par des facteurs de demande. Nous constatons également que l'introduction de chocs anticipés peut générer un cycle d'expansion-récession du marché immobilier, la récession faisant suite aux attentes non-réalisées par rapport à la demande de logements. Enfin, notre étude suggère également qu'un ratio contracyclique de prêt-à-la-valeur est une politique utile pour réduire les retombées du marché du logement sur la consommation par l'intermédiaire de la valeur garantie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière. Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale.