377 resultados para Variabilité
Resumo:
Questo elaborato di tesi presenta uno studio volto a identificare il ruolo dell’autofagia nella patogenesi della neuropatia ottica ereditaria di Leber (LHON), una patologia neurodegenerativa mitocondriale dovuta a mutazioni nel mtDNA. Tali mutazioni generano difetti nella catena respiratoria, nelle vie apoptotiche mediate dai mitocondri e nella produzione di ROS; dati preliminari hanno dimostrato una correlazione tra le mutazioni LHON e l’omeostasi mitocondriale, regolata dai processi contrapposti di autofagia e mitobiogenesi. Secondo questa ipotesi, le alterazioni LHON aumentano il flusso autofagico soprattutto negli individui affetti, mentre i portatori di mutazione sani (carrier) risultano protetti da un importante incremento nella mitobiogenesi che agisce da meccanismo compensatorio. È stata dunque caratterizzata tramite Western Blotting l’espressione proteica di due marker autofagici, LC3 e p62, in PBMCs (Peripheral Blood Mononuclear Cells) estratte da pazienti LHON, affetti e carrier, e individui di controllo. Sono stati inoltre quantificati i livelli cellulari di due proteine della membrana interna mitocondriale, COX IV e SDHA, al fine di valutare la massa mitocondriale come parametro di confronto rispetto ai livelli di autofagia. È stata infine analizzata l’influenza dell’idebenone sull’autofagia e sulla massa mitocondriale, confrontando pazienti affetti in terapia con questo farmaco e pazienti affetti non trattati. Lo studio ha in parte avvalorato i risultati preliminari; l’elevata variabilità riscontrata porta però all’esigenza, nelle analisi future, di una maggiore campionatura, nonché di indagini di diversa natura condotte in parallelo per validare i risultati.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Les ouvrages de transport d’électricité ont d’abord été pensés un par un, reliant un excédent de production à un besoin de consommation. Ils ont ainsi parfois très naturellement et dès l’origine traversé les frontières des États pour répondre à leur raison d’être. Les secteurs électriques se structurant fortement lorsque le virage électrique fut pris, les interconnexions entre pays furent conçues par les techniciens comme une mesure élémentaire de sûreté et d’équilibre de ce produit atypique qu’est l’électricité. En France plus particulièrement, lorsque la production électronucléaire se développa à partir des années 1970, ces interconnexions devinrent petit à petit sources de revenus pour l’entreprise nationale, et d’équilibre pour la balance commerciale nationale. L’intérêt grandissant porté au secteur électrique par les institutions européennes à la fin des années 1990 vient ébranler les acteurs économiques géographiques verticaux, et rebat les cartes des enjeux à adresser à une maille plus large que l’État nation. Dans ces transformations successives, les interconnexions aux frontières, et particulièrement aux frontières françaises, jouent ainsi un rôle tout à fait spécifique et de plus en plus structurant pour les économies ouvertes des pays européens. Les réseaux de transport électriques continuent ainsi une mutation entamée dans les années 1970 qui les a conduits de la condition de mal nécessaire à celle de vecteurs indispensables de transformation des économies européennes. L’objet de ce mémoire est d’illustrer la très grande capacité d’adaptation de ces organes industriels, économiques, sociétaux et politiques, dont on pourrait faussement penser qu’ils sont immobilisés par leur nature capitalistique, à travers les enjeux portés par les interconnexions aux frontières françaises. Les sources sont à la fois issues de données des opérateurs techniques, de la documentation – encore peu fréquente – sur ces sujets, ainsi que des statistiques officielles du ministère français. Cette capacité d’innovation et de développement de « couches de services » permet aujourd’hui aux grands réseaux de transport de traverser les époques et la variabilité des orientations de leurs environnements, durablement.
Resumo:
La diminution des doses administrées ou même la cessation complète d'un traitement chimiothérapeutique est souvent la conséquence de la réduction du nombre de neutrophiles, qui sont les globules blancs les plus fréquents dans le sang. Cette réduction dans le nombre absolu des neutrophiles, aussi connue sous le nom de myélosuppression, est précipitée par les effets létaux non spécifiques des médicaments anti-cancéreux, qui, parallèlement à leur effet thérapeutique, produisent aussi des effets toxiques sur les cellules saines. Dans le but d'atténuer cet impact myélosuppresseur, on administre aux patients un facteur de stimulation des colonies de granulocytes recombinant humain (rhG-CSF), une forme exogène du G-CSF, l'hormone responsable de la stimulation de la production des neutrophiles et de leurs libération dans la circulation sanguine. Bien que les bienfaits d'un traitement prophylactique avec le G-CSF pendant la chimiothérapie soient bien établis, les protocoles d'administration demeurent mal définis et sont fréquemment déterminés ad libitum par les cliniciens. Avec l'optique d'améliorer le dosage thérapeutique et rationaliser l'utilisation du rhG-CSF pendant le traitement chimiothérapeutique, nous avons développé un modèle physiologique du processus de granulopoïèse, qui incorpore les connaissances actuelles de pointe relatives à la production des neutrophiles des cellules souches hématopoïétiques dans la moelle osseuse. À ce modèle physiologique, nous avons intégré des modèles pharmacocinétiques/pharmacodynamiques (PK/PD) de deux médicaments: le PM00104 (Zalypsis®), un médicament anti-cancéreux, et le rhG-CSF (filgrastim). En se servant des principes fondamentaux sous-jacents à la physiologie, nous avons estimé les paramètres de manière exhaustive sans devoir recourir à l'ajustement des données, ce qui nous a permis de prédire des données cliniques provenant de 172 patients soumis au protocol CHOP14 (6 cycles de chimiothérapie avec une période de 14 jours où l'administration du rhG-CSF se fait du jour 4 au jour 13 post-chimiothérapie). En utilisant ce modèle physio-PK/PD, nous avons démontré que le nombre d'administrations du rhG-CSF pourrait être réduit de dix (pratique actuelle) à quatre ou même trois administrations, à condition de retarder le début du traitement prophylactique par le rhG-CSF. Dans un souci d'applicabilité clinique de notre approche de modélisation, nous avons investigué l'impact de la variabilité PK présente dans une population de patients, sur les prédictions du modèle, en intégrant des modèles PK de population (Pop-PK) des deux médicaments. En considérant des cohortes de 500 patients in silico pour chacun des cinq scénarios de variabilité plausibles et en utilisant trois marqueurs cliniques, soient le temps au nadir des neutrophiles, la valeur du nadir, ainsi que l'aire sous la courbe concentration-effet, nous avons établi qu'il n'y avait aucune différence significative dans les prédictions du modèle entre le patient-type et la population. Ceci démontre la robustesse de l'approche que nous avons développée et qui s'apparente à une approche de pharmacologie quantitative des systèmes (QSP). Motivés par l'utilisation du rhG-CSF dans le traitement d'autres maladies, comme des pathologies périodiques telles que la neutropénie cyclique, nous avons ensuite soumis l'étude du modèle au contexte des maladies dynamiques. En mettant en évidence la non validité du paradigme de la rétroaction des cytokines pour l'administration exogène des mimétiques du G-CSF, nous avons développé un modèle physiologique PK/PD novateur comprenant les concentrations libres et liées du G-CSF. Ce nouveau modèle PK a aussi nécessité des changements dans le modèle PD puisqu’il nous a permis de retracer les concentrations du G-CSF lié aux neutrophiles. Nous avons démontré que l'hypothèse sous-jacente de l'équilibre entre la concentration libre et liée, selon la loi d'action de masse, n'est plus valide pour le G-CSF aux concentrations endogènes et mènerait en fait à la surestimation de la clairance rénale du médicament. En procédant ainsi, nous avons réussi à reproduire des données cliniques obtenues dans diverses conditions (l'administration exogène du G-CSF, l'administration du PM00104, CHOP14). Nous avons aussi fourni une explication logique des mécanismes responsables de la réponse physiologique aux deux médicaments. Finalement, afin de mettre en exergue l’approche intégrative en pharmacologie adoptée dans cette thèse, nous avons démontré sa valeur inestimable pour la mise en lumière et la reconstruction des systèmes vivants complexes, en faisant le parallèle avec d’autres disciplines scientifiques telles que la paléontologie et la forensique, où une approche semblable a largement fait ses preuves. Nous avons aussi discuté du potentiel de la pharmacologie quantitative des systèmes appliquées au développement du médicament et à la médecine translationnelle, en se servant du modèle physio-PK/PD que nous avons mis au point.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Cette thèse propose l’émergence d’une poésie de l’entre deux dans la littérature expérimentale, en suivant ses développements du milieu du vingtième siècle jusqu'au début du vingt-et-unième. Cette notion d’entre-deux poétique se fonde sur une théorie du neutre (Barthes, Blanchot) comme ce qui se situe au delà ou entre l'opposition et la médiation. Le premier chapitre retrace le concept de monotonie dans la théorie esthétique depuis la période romantique où il est vu comme l'antithèse de la variabilité ou tension poétique, jusqu’à l’émergence de l’art conceptuel au vingtième siècle où il se déploie sans interruption. Ce chapitre examine alors la relation de la monotonie à la mélancolie à travers l’analyse de « The Anatomy of Monotony », poème de Wallace Stevens tiré du recueil Harmonium et l’œuvre poétique alphabet de Inger Christensen. Le deuxième chapitre aborde la réalisation d’une poésie de l’entre-deux à travers une analyse de quatre œuvres poétiques qui revisitent l’usage de l’index du livre paratextuel: l’index au long poème “A” de Louis Zukofsky, « Index to Shelley's Death » d’Alan Halsey qui apparait à la fin de l’oeuvre The Text of Shelley's Death, Cinema of the Present de Lisa Robertson, et l’oeuvre multimédia Via de Carolyn Bergvall. Le troisième chapitre retrace la politique de neutralité dans la théorie de la traduction. Face à la logique oppositionnelle de l’original contre la traduction, il propose hypothétiquement la réalisation d’une troisième texte ou « l’entre-deux », qui sert aussi à perturber les récits familiers de l’appropriation, l’absorption et l’assimilation qui effacent la différence du sujet de l’écrit. Il examine l’oeuvre hybride Secession with Insecession de Chus Pato et Erin Moure comme un exemple de poésie de l’entre-deux. A la fois pour Maurice Blanchot et Roland Barthes, le neutre représente un troisième terme potentiel qui défie le paradigme de la pensée oppositionnelle. Pour Blanchot, le neutre est la différence amenée au point de l’indifférence et de l’opacité de la transparence tandis que le désire de Barthes pour le neutre est une utopie lyrique qui se situe au-delà des contraintes de but et de marquage. La conclusion examine comment le neutre correspond au conditions de liberté gouvernant le principe de créativité de la poésie comme l’acte de faire sans intention ni raison.
Resumo:
L’imagerie musicale involontaire (IMIN) est un phénomène mental extrêmement commun. Il peut être défini en tant que type d’imagerie mentale musicale qui devient consciente sans effort ou intentionnalité et qui n’est pas pathologique. La forme la plus connue d’IMIN est le « ver d’oreille », qui se présente généralement comme un court extrait musical tournant en boucle en tête et dont on se débarrasse difficilement. L’objectif principal de la présente thèse est d’investiguer les mécanismes cognitifs sous-tendant le phénomène puisque, malgré l’intérêt répandu dans les médias populaires, son étude expérimentale est récente et un modèle intégré n’a pas encore été proposé. Dans la première étude, l’induction expérimentale a été tentée et les caractéristiques des images mentales d’épisodes d’IMIN ont été investiguées. Dans le laboratoire, des chansons accrocheuses (versus des proverbes) ont été présentées répétitivement aux participants qui devaient ensuite les chanter le plus fidèlement possible. Ils ont par après quitté le laboratoire, une enregistreuse numérique en mains, avec la consigne d’enregistrer une reproduction vocale la plus fidèle possible de ce qu’ils avaient en tête lors de tous leurs épisodes d’IMIN sur une période de quatre jours, ainsi que de décrire leur timbre. L’expérience a été répétée deux semaines plus tard. Douze des dix-huit participants du groupe expérimental ont rapporté des pièces induites comme épisodes d’IMIN, ce qui confirme l’efficacité de la procédure d’induction. La tonalité et le tempo des productions ont ensuite été analysés et comparés à ceux des pièces originales. Similairement pour les épisodes d’IMIN induits et les autres, les tempi produits et, dans une moindre mesure pour les non-musiciens, les tonalités étaient proches des originaux. Le timbre décrit était généralement une version simplifiée de l’original (un instrument et/ou une voix). Trois études se sont ensuite intéressées au lien entre le potentiel d’IMIN et la mémorabilité. Dans une étude préliminaire, 150 chansons du palmarès francophone radiophonique ont été évaluées en ligne par 164 participants, sur leur niveau de familiarité, d’appréciation et de potentiel d’IMIN. Les pièces ont ensuite été divisées en groupes de stimuli à faible et à fort potentiel d’IMIN, qui ont été utilisés dans une tâche typique de rappel libre/reconnaissance, premièrement avec des francophones (pour qui les pièces étaient familières) et ensuite avec des non-francophones (pour qui les pièces étaient non-familières). Globalement, les pièces à fort potentiel d’IMIN étaient mieux rappelées et reconnues que les pièces à faible potentiel. Une dernière étude a investigué l’impact de la variabilité inter-stimulus du timbre sur les résultats précédents, en demandant à une chanteuse d’enregistrer les lignes vocales des pièces et en répétant l’expérience avec ces nouveaux stimuli. La différence précédemment observée entre les stimuli à fort et à faible potentiel d’IMIN dans la tâche de reconnaissance a ainsi disparu, ce qui suggère que le timbre est une caractéristique importante pour le potentiel d’IMIN. En guise de conclusion, nous suggérons que les phénomènes mentaux et les mécanismes cognitifs jouant un rôle dans les autres types de souvenirs involontaires peuvent aussi s’appliquer à l’IMIN. Dépendamment du contexte, la récupération mnésique des pièces peut résulter de la répétition en mémoire à court terme, de l’amorçage à court et long terme ou de l’indiçage provenant de stimuli dans l’environnement ou les pensées. Une des plus importantes différences observables entre l’IMIN et les autres souvenirs involontaires est la répétition. Nous proposons que la nature même de la musique, qui est définie par la répétition à un niveau micro- et macro-structurel en est responsable.
Resumo:
Les organismes aquatiques sont adaptés à une grande variabilité hydrique et thermique des rivières. Malgré ceci, la régulation des eaux suscite des changements aux débits qui peuvent provoquer des impacts négatifs sur la biodiversité et les processus écologiques en rivière. Celle-ci peut aussi causer des modifications au niveau des régimes thermiques et des caractéristiques de l’habitat du poisson. Des données environnementales et biologiques décrivant l’habitat du poisson existent, mais elles sont incomplètes pour plusieurs rivières au Canada et de faible qualité, limitant les relations quantitatives débit-température-poissons à un petit nombre de rivières ou à une région étudiée. La recherche menée dans le cadre de mon doctorat concerne les impacts de la génération d'hydroélectricité sur les rivières; soit les changements aux régimes hydriques et thermiques reliés à la régulation des eaux sur la variation des communautés ichtyologiques qui habitent les rivières régulées et naturelles au Canada. Suite à une comparaison d’échantillonnage de pêche, une méthode constante pour obtenir des bons estimés de poisson (richesse, densité et biomasse des espèces) a été établie pour évaluer la structure de la communauté de poissons pour l’ensemble des rivières ciblées par l’étude. Afin de mieux comprendre ces changements environnementaux, les principales composantes décrivant ces régimes ont été identifiées et l’altération des régimes hydriques pour certaines rivières régulées a été quantifiée. Ces résultats ont servi à établir la relation significative entre le degré de changement biotique et le degré de changement hydrique pour illustrer les différences entre les régimes de régulation. Pour faire un complément aux indices biotiques déjà calculés pour l’ensemble des communautés de poissons (diversité, densité et biomasse des espèces par rivière), les différences au niveau des guildes de poissons ont été quantifiées pour expliquer les divers effets écologiques dus aux changements de régimes hydriques et thermiques provenant de la gestion des barrages. Ces derniers résultats servent à prédire pour quels traits écologiques ou groupes d’espèces de poissons les composantes hydriques et thermiques sont importantes. De plus, ces derniers résultats ont servi à mettre en valeur les variables décrivant les régimes thermiques qui ne sont pas toujours inclues dans les études hydro-écologiques. L’ensemble des résultats de cette thèse ont des retombées importantes sur la gestion des rivières en évaluant, de façon cohérente, l’impact de la régulation des rivières sur les communautés de poissons et en développant des outils de prévision pour la restauration des écosystèmes riverains.
Resumo:
Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.