212 resultados para Stratégie posturale
Resumo:
RÉSUMÉ : Chez l'homme, le manque de sélectivité des agents thérapeutiques représente souvent une limitation pour le traitement des maladies. Le ciblage de ces agents pour un tissu défini pourrait augmenter leur sélectivité et ainsi diminuer les effets secondaires en comparaison d'agents qui s'accumuleraient dans tout le corps. Cela pourrait aussi améliorer l'efficacité des traitements en permettant d'avoir une concentration localisée plus importante. Le ciblage d'agents thérapeutiques est un champ de recherche très actif. Les stratégies sont généralement basées sur les différences entre cellules normales et malades. Ces différences peuvent porter soit sur l'expression des molécules à leurs surfaces comme des récepteurs ou des transporteurs, soit sur les activités enzymatiques exprimées. Le traitement thérapeutique choisi ici est la thérapie photodynamique et est déjà utilisé pour le traitement de certains cancers. Cette thérapie repose sur l'utilisation de molécules qui réagissent à la lumière, les photosensibilisants. Elles absorbent l'énergie lumineuse et réagissent avec l'oxygène pour former des radicaux toxiques pour les cellules. Les photosensibilisants utilisés ici sont de deux natures : (i) soit ils sont tétrapyroliques (comme les porphyrines et chlorines), c'est à dire qu'ils sont directement activables par la lumière ; (ii) soit ce sont des prodrogues de photosensibilisants comme l'acide 5aminolévulinique (ALA) qui est transformé dans la cellule en protoporphyrine IX photosensibilisante. Dans le but d'augmenter la sélectivité des photosensibilisants, nous avons utilisé deux stratégies différentes : (i) le photosensibilisant est modifié par le greffage d'un agent de ciblage ; (ii) le photosensibilisant est incorporé dans des structures moléculaires de quelques centaines de nanomètres. Les sucres et l'acide folique sont des agents de ciblage largement établis et ont été utilisés ici car leurs récepteurs sont surexprimés à la surface de nombreuses cellules malades. Ainsi, des dérivés sucres ou acide folique de l'ALA ont été synthétisés et évalués in vitro sur de nombreuses lignées cellulaires cancéreuses. La stratégie utilisant l'acide folique est apparue incompatible avec l'utilisation de l'ALA puisque aucune photosensibilité n'a été induite par le composé. La stratégie utilisant les sucres a, par ailleurs, provoquée de bonnes photosensibilités mais pas d'augmentation de sélectivité. En parallèle, la combinaison entre les propriétés anticancéreuses des complexes métalliques au ruthénium avec les propriétés photosensibilisantes des porphyrines, a été évaluée. En effet, les thérapies combinées ont émergé il y a une dizaine d'années et représentent aujourd'hui de bonnes alternatives aux monothérapies classiques. Des ruthenium(I1)-arènes complexés avec la tetrapyridylporphyrine ont ainsi présenté de bonnes cytotoxicités et de bonnes phototoxicités pour des cellules de mélanomes. Des porphyrines ont aussi été compléxées avec des noyaux de diruthénium et ce type de dérivé a présenté de bonnes phototoxicités et une bonne sélectivité pour les cellules cancéreuses de l'appareil reproducteur féminin. L'incorporation de photosensibilisants tétrapyroliques a finalement été effectuée en utilisant des nanoparticules (NP) biocompatibles composées de chitosan et de hyaluronate. L'effet de ces NP a été évalué pour le traitement de la polyarthrite rhumatoïde (PR). Les NP ont d'abord été testées in vitro avec des macrophages de souris et les résultats ont mis en évidence de bonnes sélectivités et photosensibilités pour ces cellules. In vivo chez un modèle marin de la PR, l'utilisation de ces NP a révélé un plus grand temps de résidence des NP dans le genou de la souris en comparaison du temps obtenu avec le photosensibilisant seul. Le traitement par PDT a aussi démontré une bonne efficacité par ailleurs égale à celle obtenue avec les corticoïdes utilisés en clinique. Pour finir, les NP ont aussi démontré une bonne efficacité sur les myelomonocytes phagocytaires humains et sur les cellules contenues dans le liquide synovial de patients présentant une PR. Tous ces résultats suggèrent que les deux stratégies de ciblage peuvent être efficaces pour les agents thérapeutiques. Afm d'obtenir de bons résultats, il est toutefois nécessaire de réaliser une analyse minutieuse de la cible et du mode d'action de l'agent thérapeutique. Concernant les perspectives, la combinaison des deux stratégies c'est à dire incorporer des agents thérapeutiques dans des nanostructures porteuses d'agents de ciblage, représente probablement une solution très prometteuse. SUMMARY : In humans, the lack of selectivity of drugs and their high effective concentrations often represent limitations for the treatment of diseases. Targeting the therapeutical agents to a defined tissue could enhance their selectivity and then diminish their side effects when compared to drugs that accumulate in the entire body and could also improve treatment efûciency by allowing a localized high concentration of the agents. Targeting therapeutics to defined cells in human pathologies is a main challenge and a very active field of research. Strategies are generally based on the different behaviors and patterns of expression of diseased cells compared to normal cells such as receptors, proteases or trans-membrane carriers. The therapeutic treatment chosen here is the photodynamic therapy and is already used in the treatment of many cancers. This therapy relies on the administration of a photosensitizer (PS) which will under light, react with oxygen and induce formation of reactive oxygen species which are toxic for cells. The PSs used here are either tetrapyrolic (i. e. porphyries and chlorins) or prodrugs of PS (5-aminolevulinic acid precursor of the endogenous protoporphyrin Imo. In order to improve PS internalization and selectivity, we have used two different strategies: the modification of the PSs with diseased cell-targeting agents as well as their encapsulation into nanostructures. Sugars and folic acid are well established as targeting entities for diseased cells and were used here since their transporters are overexpressed on the surface of many cancer cells. Therefore sugar- and folic acid-derivatives of 5-aminolevulinic acid (ALA) were synthesized and evaluated in vitro in several cancer cell lines. The folic acid strategy appeared to be incompatible with ALA since no photosensitivity was induced while the strategy with sugars induced good photosensitivites but no increase of selectivity. Alternatively, the feasibility of combining the antineoplastic properties of ruthenium complexes with the porphyrin's photosensitizing properties, was evaluated since combined therapies have emerged as good alternatives to classical treatments. Tetrapyridylporphyrins complexed to ruthenium (I17 arenes presented good cytotoxicities and good phototoxicities toward melanoma cells. Porphyries were also complexed to diruthenium cores and this type of compound presented good phototoxicities and good selectivity for female reproductive cancer cells. The encapsulation of tetrapyrolic PSs was finally investigated using biocompatible nanogels composed of chitosan and hyaluronate. The behavior of these nanoparticles was evaluated for the treatment of rheumatoid arthritis (RA). They were first tested in vitro in mouse macrophages and results revealed good selectivities and phototoxicities toward these cells. In vivo in mice model of RA, the use of such nanoparticles instead of free PS showed longer time of residence in mice knees. Photodynamic protocols also demonstrated good efficiency of the treatment comparable to the corticoid injection used in the clinic. Finally our system was also efficient in human cells using phagocytic myelomonocytes or using cells of synovial fluids taken from patients with RA. Altogether, these results revealed that both strategies of modification or encapsulation of drugs can be successful in the targeting of diseased cells. However, a careful analysis of the target and of the mode of action of the drug, are needed in order to obtain good results. Looking ahead to the future, the combination of the two strategies (i.e. drugs loaded into nanostructures bearing the targeting agents) would represent probably the best solution.
Resumo:
La gestion des risques est souvent appréhendée par l'utilisation de méthodes linéaires mettant l'accent sur des raisonnements de positionnement et de type causal : à tel événement correspond tel risque et telle conséquence. Une prise en compte des interrelations entre risques est souvent occultée et les risques sont rarement analysés dans leurs dynamiques et composantes non linéaires. Ce travail présente ce que les méthodes systémiques et notamment l'étude des systèmes complexes sont susceptibles d'apporter en matière de compréhension, de management et d'anticipation et de gestion des risques d'entreprise, tant sur le plan conceptuel que de matière appliquée. En partant des définitions relatives aux notions de systèmes et de risques dans différents domaines, ainsi que des méthodes qui sont utilisées pour maîtriser les risques, ce travail confronte cet ensemble à ce qu'apportent les approches d'analyse systémique et de modélisation des systèmes complexes. En mettant en évidence les effets parfois réducteurs des méthodes de prise en compte des risques en entreprise ainsi que les limitations des univers de risques dues, notamment, à des définitions mal adaptées, ce travail propose également, pour la Direction d'entreprise, une palette des outils et approches différentes, qui tiennent mieux compte de la complexité, pour gérer les risques, pour aligner stratégie et management des risques, ainsi que des méthodes d'analyse du niveau de maturité de l'entreprise en matière de gestion des risques. - Risk management is often assessed through linear methods which stress positioning and causal logical frameworks: to such events correspond such consequences and such risks accordingly. Consideration of the interrelationships between risks is often overlooked and risks are rarely analyzed in their dynamic and nonlinear components. This work shows what systemic methods, including the study of complex systems, are likely to bring to knowledge, management, anticipation of business risks, both on the conceptual and the practical sides. Based on the definitions of systems and risks in various areas, as well as methods used to manage risk, this work confronts these concepts with approaches of complex systems analysis and modeling. This work highlights the reducing effects of some business risk analysis methods as well as limitations of risk universes caused in particular by unsuitable definitions. As a result this work also provides chief officers with a range of different tools and approaches which allows them a better understanding of complexity and as such a gain in efficiency in their risk management practices. It results in a better fit between strategy and risk management. Ultimately the firm gains in its maturity of risk management.
Resumo:
La Bible est l'un des plus fabuleux trésors d'histoires de l'humanité. Car depuis la nuit des temps, les croyants racontent. Mais pas n'importe quoi. Longuement façonnés dans l'oralité, patiemment rédigés, les récits bibliques obéissent à de subtiles règles de composition. Derrière les histoires apparemment naives se cache la fine stratégie d'un narrateur. Grâce à ses qualités pédagogiques, le livre de Daniel Marguerat et Yvan Bourquin s'est imposé comme un manuel de référence pour l'initiation à l'analyse narrative des textes bibliques. Il a été traduit en plusieurs langue.
Resumo:
Im Februar 1998 schuf der Bundesrat mit der Strategie für eine Informationsgesellschaft in der Schweiz die Grundlage für eine heute noch aktuelle Politik. Diese wird in der vorliegenden Arbeit einer empirischen, quellenbasierten Analyse unterzogen. Hierbei wird gefragt, welches Bild einer realen, möglichen oder künftigen Informationsgesellschaft den untersuchten Texten zugrundeliegt und wie es sich während der Umsetzung der Strategie im Laufe von zehn Jahren verändert hat. Als Vergleichsmassstab dient das entsprechende Programm der UNO, das auf dem World Summit on the Information Society 2003 und 2005 formuliert wurde. In einer Detailanalyse wird darüber hinaus beschrieben, wie sich die Strategie für eine Informationsgesellschaft auf die Arbeit in Schweizer Archiven und Bibliotheken ausgewirkt hat. Insgesamt entsteht das Bild einer in Zielen und Inhalten erstaunlich variablen und wirtschaftsorientierten Politik. En adoptant la Stratégie pour une société de l'information en Suisse, en février 1998, le Conseil fédéral a jeté les bases d'une politique qui a gardé toute son actualité. Dans le présent travail, celle-ci fait l'objet d'une analyse empirique, basée sur les sources. On y cherche à savoir sur quelle vision d'une société d'information réelle, possible ou future reposent les textes étudiés, et de quelle manière cette image s'est modifiée sur une période de dix ans de mise en oeuvre de la stratégie. Le programme de même type de l'ONU, élaboré en 2003 et 2005 lors du World Summit on the Information Society, fait office de base de comparaison. Une analyse détaillée décrit par ailleurs quels effets la Stratégie pour une société de l'information a eus sur le travail des archives et bibliothèques suisses. Il en résulte un tableau d'ensemble d'une politique étonnamment diversifiée et proche de la réalité économique, tant sur le plan des objectifs que du contenu.
Resumo:
La Bible est l'un des plus fabuleux trésors d'histoires de l'humanité. Car depuis la nuit des temps, les croyants racontent. Mais pas n'importe quoi. Longuement façonnés dans l'oralité, patiemment rédigés, les récits bibliques obéissent à de subtiles règles de composition. Derrière les histoires apparemment naives se cache la fine stratégie d'un narrateur. Grâce à ses qualités pédagogiques, le livre de Daniel Marguerat et Yvan Bourquin s'est imposé comme un manuel de référence pour l'initiation à l'analyse narrative des textes bibliques. Il a été traduit en plusieurs langue. Pour cette 4e édition, l'étude de l'intrigue et de la construction des personnages a été renouvelée. Avec clarté, ses auteurs ont aménagé un parcours qui permet de découvrir les outils de l'analyse narrative, d'étudier leur application, d'évaluer leur efficacité. Toute la magie de la lecture biblique s'en trouve éclairée.
Resumo:
This thesis focuses on theoretical asset pricing models and their empirical applications. I aim to investigate the following noteworthy problems: i) if the relationship between asset prices and investors' propensities to gamble and to fear disaster is time varying, ii) if the conflicting evidence for the firm and market level skewness can be explained by downside risk, Hi) if costly learning drives liquidity risk. Moreover, empirical tests support the above assumptions and provide novel findings in asset pricing, investment decisions, and firms' funding liquidity. The first chapter considers a partial equilibrium model where investors have heterogeneous propensities to gamble and fear disaster. Skewness preference represents the desire to gamble, while kurtosis aversion represents fear of extreme returns. Using US data from 1988 to 2012, my model demonstrates that in bad times, risk aversion is higher, more people fear disaster, and fewer people gamble, in contrast to good times. This leads to a new empirical finding: gambling preference has a greater impact on asset prices during market downturns than during booms. The second chapter consists of two essays. The first essay introduces a foramula based on conditional CAPM for decomposing the market skewness. We find that the major market upward and downward movements can be well preadicted by the asymmetric comovement of betas, which is characterized by an indicator called "Systematic Downside Risk" (SDR). We find that SDR can efafectively forecast future stock market movements and we obtain out-of-sample R-squares (compared with a strategy using historical mean) of more than 2.27% with monthly data. The second essay reconciles a well-known empirical fact: aggregating positively skewed firm returns leads to negatively skewed market return. We reconcile this fact through firms' greater response to negative maraket news than positive market news. We also propose several market return predictors, such as downside idiosyncratic skewness. The third chapter studies the funding liquidity risk based on a general equialibrium model which features two agents: one entrepreneur and one external investor. Only the investor needs to acquire information to estimate the unobservable fundamentals driving the economic outputs. The novelty is that information acquisition is more costly in bad times than in good times, i.e. counter-cyclical information cost, as supported by previous empirical evidence. Later we show that liquidity risks are principally driven by costly learning. Résumé Cette thèse présente des modèles théoriques dévaluation des actifs et leurs applications empiriques. Mon objectif est d'étudier les problèmes suivants: la relation entre l'évaluation des actifs et les tendances des investisseurs à parier et à crainadre le désastre varie selon le temps ; les indications contraires pour l'entreprise et l'asymétrie des niveaux de marché peuvent être expliquées par les risques de perte en cas de baisse; l'apprentissage coûteux augmente le risque de liquidité. En outre, des tests empiriques confirment les suppositions ci-dessus et fournissent de nouvelles découvertes en ce qui concerne l'évaluation des actifs, les décisions relatives aux investissements et la liquidité de financement des entreprises. Le premier chapitre examine un modèle d'équilibre où les investisseurs ont des tendances hétérogènes à parier et à craindre le désastre. La préférence asymétrique représente le désir de parier, alors que le kurtosis d'aversion représente la crainte du désastre. En utilisant les données des Etats-Unis de 1988 à 2012, mon modèle démontre que dans les mauvaises périodes, l'aversion du risque est plus grande, plus de gens craignent le désastre et moins de gens parient, conatrairement aux bonnes périodes. Ceci mène à une nouvelle découverte empirique: la préférence relative au pari a un plus grand impact sur les évaluations des actifs durant les ralentissements de marché que durant les booms économiques. Exploitant uniquement cette relation générera un revenu excédentaire annuel de 7,74% qui n'est pas expliqué par les modèles factoriels populaires. Le second chapitre comprend deux essais. Le premier essai introduit une foramule base sur le CAPM conditionnel pour décomposer l'asymétrie du marché. Nous avons découvert que les mouvements de hausses et de baisses majeures du marché peuvent être prédits par les mouvements communs des bêtas. Un inadicateur appelé Systematic Downside Risk, SDR (risque de ralentissement systématique) est créé pour caractériser cette asymétrie dans les mouvements communs des bêtas. Nous avons découvert que le risque de ralentissement systématique peut prévoir les prochains mouvements des marchés boursiers de manière efficace, et nous obtenons des carrés R hors échantillon (comparés avec une stratégie utilisant des moyens historiques) de plus de 2,272% avec des données mensuelles. Un investisseur qui évalue le marché en utilisant le risque de ralentissement systématique aurait obtenu une forte hausse du ratio de 0,206. Le second essai fait cadrer un fait empirique bien connu dans l'asymétrie des niveaux de march et d'entreprise, le total des revenus des entreprises positiveament asymétriques conduit à un revenu de marché négativement asymétrique. Nous décomposons l'asymétrie des revenus du marché au niveau de l'entreprise et faisons cadrer ce fait par une plus grande réaction des entreprises aux nouvelles négatives du marché qu'aux nouvelles positives du marché. Cette décomposition révélé plusieurs variables de revenus de marché efficaces tels que l'asymétrie caractéristique pondérée par la volatilité ainsi que l'asymétrie caractéristique de ralentissement. Le troisième chapitre fournit une nouvelle base théorique pour les problèmes de liquidité qui varient selon le temps au sein d'un environnement de marché incomplet. Nous proposons un modèle d'équilibre général avec deux agents: un entrepreneur et un investisseur externe. Seul l'investisseur a besoin de connaitre le véritable état de l'entreprise, par conséquent, les informations de paiement coutent de l'argent. La nouveauté est que l'acquisition de l'information coute plus cher durant les mauvaises périodes que durant les bonnes périodes, comme cela a été confirmé par de précédentes expériences. Lorsque la récession comamence, l'apprentissage coûteux fait augmenter les primes de liquidité causant un problème d'évaporation de liquidité, comme cela a été aussi confirmé par de précédentes expériences.
Resumo:
Dans le domaine de l'analyse et la détection de produits pharmaceutiques contrefaits, différentes techniques analytiques ont été appliquées afin de discriminer les produits authentiques des contrefaçons. Parmi celles-ci, les spectroscopies proche infrarouge (NIR) et Raman ont fourni des résultats prometteurs. L'objectif de cette étude était de développer une méthodologie, basée sur l'établissement de liens chimiques entre les saisies de produits contrefaits, permettant de fournir des informations utiles pour les acteurs impliqués dans la lutte à la prolifération de ces produits. Une banque de données de spectres NIR et Raman a été créée et différents algorithmes de classification non-supervisée (i.e., analyse en composantes principales (ACP) et analyse factorielle discriminante (AFD) - elus ter onolysis) ont été utilisées afin d'identifier les différents groupes de produits présents. Ces classes ont été comparées aux profils chimiques mis en évidence par la spectroscopie infrarouge à transformée de Fourier (FT-IR) et par la chromatographie gazeuse couplée à la spectrométrie de masse (GC -MS). La stratégie de classification proposée, fondée sur les classes identifiées par spectroscopie NIR et Raman, utilise un algorithme de classification basé sur des mesures de distance et des courbes Receiver Operating Characteristics (ROC). Le modèle est capable de comparer le spectre d'une nouvelle contrefaçon à ceux des saisies précédemment analysées afin de déterminer si le nouveau spécimen appartient à l'une des classes existantes, permettant ainsi de le lier à d'autres saisies dans la base de données.
Resumo:
(Résumé de l'ouvrage) Cet ouvrage présente les résultats du premier Colloque international consacré à l'analyse narrative de la Bible (Lausanne, mars 2002). De la Genèse à l'Apocalypse, la Bible est un immense trésor d'histoires. Une nouvelle lecture explore depuis peu cet art du raconter. Ses outils sont empruntés à Paul Ricoeur, Gérard Genette, Meir Sternberg ou Jan Fokkelman. Les biblistes sont ainsi à même d'exhumer la stratégie narrative des auteurs bibliques: temporalité du récit, gestion de l'espace, construction des personnages, point de vue du narrateur. Certains des plus grands spécialistes de l'Ancien comme du Nouveau Testament explicitent ici ces texte fondateurs à la lumière de la narratologie.
Resumo:
(Résumé de l'ouvrage) Cet ouvrage présente les résultats du premier Colloque international consacré à l'analyse narrative de la Bible (Lausanne, mars 2002). De la Genèse à l'Apocalypse, la Bible est un immense trésor d'histoires. Une nouvelle lecture explore depuis peu cet art du raconter. Ses outils sont empruntés à Paul Ricoeur, Gérard Genette, Meir Sternberg ou Jan Fokkelman. Les biblistes sont ainsi à même d'exhumer la stratégie narrative des auteurs bibliques: temporalité du récit, gestion de l'espace, construction des personnages, point de vue du narrateur. Certains des plus grands spécialistes de l'Ancien comme du Nouveau Testament explicitent ici ces texte fondateurs à la lumière de la narratologie
Resumo:
(Résumé de l'ouvrage) Cet ouvrage présente les résultats du premier Colloque international consacré à l'analyse narrative de la Bible (Lausanne, mars 2002). De la Genèse à l'Apocalypse, la Bible est un immense trésor d'histoires. Une nouvelle lecture explore depuis peu cet art du raconter. Ses outils sont empruntés à Paul Ricoeur, Gérard Genette, Meir Sternberg ou Jan Fokkelman. Les biblistes sont ainsi à même d'exhumer la stratégie narrative des auteurs bibliques: temporalité du récit, gestion de l'espace, construction des personnages, point de vue du narrateur. Certains des plus grands spécialistes de l'Ancien comme du Nouveau Testament explicitent ici ces texte fondateurs à la lumière de la narratologie.
Resumo:
Cet ouvrage présente les résultats du premier Colloque international consacré à l'analyse narrative de la Bible (Lausanne, mars 2002). De la Genèse à l'Apocalypse, la Bible est un immense trésor d'histoires. Une nouvelle lecture explore depuis peu cet art du raconter. Ses outils sont empruntés à Paul Ricoeur, Gérard Genette, Meir Sternberg ou Jan Fokkelman. Les biblistes sont ainsi à même d'exhumer la stratégie narrative des auteurs bibliques: temporalité du récit, gestion de l'espace, construction des personnages, point de vue du narrateur. Certains des plus grands spécialistes de l'Ancien comme du Nouveau Testament explicitent ici ces texte fondateurs à la lumière de la narratologie.
Resumo:
SummaryResearch projects presented in this thesis aimed to investigate two major aspects of the arenaviruses life cycle in the host cell: viral entry and the biosynthesis of the viral envelope glycoprotein.Old World arenaviruses (OWAV), such as Lassa virus (LASV) and lymphocytic choriomeningitis virus (LCMV), attach to the cell by binding to their receptor, alpha-dystroglycan. Virions are then internalized by a largely unknown pathway of endocytosis and delivered to the late endosome/lysosome where fusion occurs at low pH. In the major project of my thesis, we sought to identify cellular factors involved in OWAV cell entry. Our work indicates that OWAV cell entry requires microtubular transport and a functional multivesicular body (MVB) compartment. Infection indeed depends on phosphatidyl inositol 3-kinase (PI3K) activity and lysobisphosphatidic acid (LBPA), a lipid found in membranes of intraluminal vesicles (ILVs) of the MVB. We further found a requirement of factors that are part of the endosomal sorting complex required for transport (ESCRT), involved in the formation of ILVs. This suggests an ESCRT-mediated sorting of virus- receptor complex during the entry process.During viral replication, biosynthesis of viral glycoprotein takes place in the endoplasmic reticulum (ER) of the host cell. When protein load exceeds the folding capacity of the ER, the accumulation of unfolded proteins is sensed by three ER resident proteins, activating transcription factor 6 (ATF6), inositol-requiring enzyme 1 (IRE1) and PKR-like ER kinase (PERK), whose signaling induces the cellular unfolded protein response (UPR). Our results indicate that acute LCMV infection transiently induces the activation of the ATF6 branch of the UPR, whereas the PERK, and IRE1 axis of UPR are neither triggered nor blocked during infection. Our data also demonstrate that activation of ATF6 pathway is required for optimal viral replication during acute infection.The formation of the mature, fusion-active form of arenaviruses glycoproteins requires proteolytic cleavage mediated by the cellular protease subtilisin kexin isozyme-1 (SKI-l)/site-l protease (SIP). We show that targeting the SKI-1/S1P enzymatic activity with specific inhibitors is a powerful strategy to block arenaviruses productive infection. Moreover, characterization of protease function highlights differences in processing between cellular and viral substrates, opening new possibilities in term of drug development against human pathogenic arenaviruses.RésuméLes projets de recherche présentés dans cette thèse visaient à étudier deux aspects du cycle de vie des arenavirus: l'entrée du virus dans la cellule hôte et la biosynthèse de la glycoprotéine durant la réplication virale.Les arenavirus du vieux monde (OWAV), tels que le virus de Lassa (LASV) et le virus de la chorioméningite lymphocytaire (LCMV) s'attachent à la cellule hôte en se liant à leur récepteur, l'alpha-dystroglycane. Les virions sont ensuite intemalisés par une voie d'endocytose inconnue et livrés à l'endosome tardif/lysosome, où le pH acide permet la fusion entre l'enveloppe virale et la membrane du compartiment. Le projet principal de ma thèse consistait à identifier les facteurs cellulaires impliqués dans l'entrée des OWAV dans la cellule hôte. Nos résultats indiquent que l'entrée des OWAV nécessite le transport microtubulaire et la présence d'un corps multivésiculaire (MVB) fonctionnel. L'infection dépend en effet de l'activité de phosphatidyl inositol 3-kinase (PI3K) et de lysobisphosphatidic acid (LBPA), un lipide présent dans les membranes des vésicules intraluminales (ILVs) du MVB. Nous avons également trouvé l'implication de facteurs constituant l'endosomal sorting complex required for sorting (ESCRT) qui joue un rôle dans la formation des ILVs. Ces donnés suggèrent l'incorporation du complexe virus-récepteur dans des ILVs durant le processus d'entrée.Lors de la réplication virale, la biosynthèse de la glycoprotéine virale a lieu dans le réticulum endoplasmique (ER) de la cellule hôte. Lorsque la charge de protéines nouvellement synthétisées excède la capacité de pliage des protéines dans le ER, l'accumulation de protéines mal pliées est détectée par trois facteurs: activating transcription factor 6 (ATF6), inositol-requiring enzyme 1 (IRE1) et PKR-like ER kinase (PERK). Leur signalisation constitue la réponse cellulaire face aux protéines mal pliées (UPR). Nos résultats montrent que l'infection aiguë avec LCMV induit transitoirement l'activation de la voie de signalisation ATF6 alors que les axes PERK et IRE1 de l'UPR ne sont ni induits ni bloqués pendant l'infection. Nos données prouvent également que l'activation de la voie ATF6 est nécessaire à une réplication virale optimale lors de l'infection aiguë avec LCMV.La maturation des glycoprotéines des arenavirus nécessite un clivage protéolytique par la protéase cellulaire subtilisin kexin isozyme-1 (SKI-l)/site-l protease (SIP). Nous avons démontré que le ciblage de l'activité enzymatique de SKI-1/SIΡ avec des inhibiteurs spécifiques est une stratégie prometteuse pour bloquer l'infection par les arenavirus. La caractérisation du mécanisme d'action de la protéase a, par ailleurs, révélé des différences au niveau du clivage entre les substrats cellulaires et viraux, ce qui ouvre de nouvelles perspectives en terme de développement de médicaments contre les arenavirus pathogènes pour l'homme.
Resumo:
Le présent mémoire traite de l'implication des hôpitaux universitaires en évaluation des technologies de la santé. Le champ d'étude est vaste : - L'évaluation des technologies de la santé est une discipline dont l'étendue fait appel aux sciences exactes (physique, statistiques, ingénierie, méthodologie de la recherche analytique, etc.) ainsi qu'aux sciences sociales (économie, éthique, etc.) - L'hôpital universitaire est une organisation des plus complexes qui soit. Le "produit final" - l'amélioration de la santé du patient - est totalement non standardisé, il n'existe pas de modèle d'hôpital universitaire type et unique (inclusion ou non d'un centre de recherche, d'une faculté de médecine, d'un comité de gestion politique, etc.) et les corps de métiers qui le composent sont des plus variés et représentés en grand nombre Ainsi, l'étendue du champ relève des domaines interdépendants tels que la technologie (elle-même incluse dans le domaine de l'innovation aujourd'hui en développement), le management (ou administration des soins, du système de santé dans lequel s'inscrit l'hôpital universitaire), le financement de l'institution (mais aussi la rémunération des professionnels) et enfin la stratégie de l'hôpital. Le présent travail ne fait qu'effleurer ce large spectre d'investigation. La thématique de l'évaluation des technologies de la santé n'est guère connue en Suisse, ou plutôt elle n'est que peu développée et reconnue comme une science interdisciplinaire destinée à porter un jugement de valeur afin d'aider la prise de décision, sens profond qui la définit dans d'autres pays tel le Canada et plus particulièrement le Québec. Enfin, il convient de souligner que le présent travail n'a pas comme objectif de comparer les systèmes de santé québécois et suisse ou de réaliser toute autre critique de l'un ou de l'autre. Le but du stage ([à l'Université de Montréal], cf. Préambule) était d'observer des structures reconnues au niveau international et nullement de juger de l'ensemble du système de santé. Si l'on peut s'inspirer des réussites ailleurs, il convient de s'en tenir à l'inspiration de celles-ci pour ensuite, éventuellement, les contextualiser dans d'autres lieux. Ainsi, à chaque fois qu'il sera fait mention du Québec par la suite, ce sera dans l'intention de démontrer l'originalité de la démarche et d'élargir le débat dans le contexte qui nous intéresse. [Auteur p. 7]
Resumo:
La maladie de Parkinson (MP) est une maladie neurodégénérative atteignant 1-2% des¦personnes de plus de 60 ans (1). Ses signes cliniques ont été décrits par James Parkinson¦en 1817 dans : « An essay on the Shaking palsy» (2). Les signes cardinaux sont le¦tremblement de repos, la rigidité et la bradykinésie. Certaines définitions y ajoutent l'instabilité¦posturale. D'autres manifestations, non motrices, telles qu'une dysfonction autonome et¦sensitive, des troubles de l'humeur, des troubles du sommeil et des démences peuvent¦apparaître en cours d'évolution. Le traitement actuel de la MP est principalement¦pharmacologique. Il consiste en l'administration du précurseur de la dopamine, la levodopa¦(L-dopa). Pourtant, l'utilisation à long terme de la L-dopa induit des fluctuations motrices telles¦que dyskinésies et dystonies. Au cours du siècle dernier, de nombreux traitements¦chirurgicaux ont été tentés, en particulier des procédures ablatives (thalamotomie,¦pallidotomie, subthalamotomie). Elles ont le désavantage d'induire des séquelles non¦négligeables telles que des parésies et des troubles neurocognitifs. La chirurgie ablative a¦été abandonnée avec l'arrivée de la L-dopa dans les années 1960. Les limitations de la¦thérapie par la L-dopa associées aux améliorations de la neuro-imagerie, de la sécurité des¦procédures neurochirurgicales ainsi que des techniques d'implantation ont permis le¦développement de procédures stimulatrices dans les années 1990. La stimulation cérébrale¦profonde des noyaux sous-thalamiques est devenue une stratégie thérapeutique bien établie¦chez les patients atteints d'une MP avancée. Malgré une excellente réponse motrice des¦membres, l'impact de la stimulation cérébrale profonde sur la parole est controversé (2).¦Le but de cette étude est de déterminer l'influence aigüe des stimulateurs sous-thalamiques¦sur des paramètres objectifs et quantitatifs, ainsi que sur un paramètre subjectif de la¦dysarthrie parkinsonienne. Nous allons comparer dans notre groupe de patients deux¦conditions successives: patient avec stimulateurs éteints et sans médication (OFF/nm)¦versus avec stimulateurs allumés et sans médication (ON/nm). Nous allons ensuite effectuer¦des analyses statistiques afin de déterminer si les stimulateurs sous-thalamiques ont un effet¦aigu bénéfique ou non sur certains paramètres vocaux, puis sur l'intelligibilité globale de la¦parole. En effet, l'intelligibilité nous informe sur la capacité de communication du patient avec¦son entourage.
Resumo:
Dans les dernières années du 20ème siècle, l'aluminium a fait l'objet de beaucoup de communications outrancières et divergentes cautionnées par des scientifiques et des organismes faisant autorité. En 1986, la société PECHINEY le décrète perpétuel tel le mouvement « L'aluminium est éternel. Il est recyclable indéfiniment sans que ses propriétés soient altérées », ce qui nous avait alors irrité. Peu de temps après, en 1990, une communication tout aussi outrancière et irritante d'une grande organisation environnementale, le World Wild Fund, décrète que « le recyclage de l'aluminium est la pire menace pour l'environnement. Il doit être abandonné ». C'est ensuite à partir de la fin des années 1990, l'explosion des publications relatives au développement durable, le bien mal nommé. Au développement, synonyme de croissance obligatoire, nous préférons société ou organisation humaine et à durable, mauvaise traduction de l'anglais « sustainable », nous préférons supportable : idéalement, nous aurions souhaité parler de société durable, mais, pour être compris de tous, nous nous sommes limités à parler dorénavant de développement supportable. Pour l'essentiel, ces publications reconnaissent les très graves défauts de la métallurgie extractive de l'aluminium à partir du minerai et aussi les mérites extraordinaires du recyclage de l'aluminium puisqu'il représente moins de 10% de la consommation d'énergie de la métallurgie extractive à partir du minerai (on verra que c'est aussi moins de 10% de la pollution et du capital). C'est précisément sur le recyclage que se fondent les campagnes de promotion de l'emballage boisson, en Suisse en particulier. Cependant, les données concernant le recyclage de l'aluminium publiées par l'industrie de l'aluminium reflètent seulement en partie ces mérites. Dans les années 1970, les taux de croissance de la production recyclée sont devenus plus élevés que ceux de la production électrolytique. Par contre, les taux de recyclage, établis à indicateur identique, sont unanimement tous médiocres comparativement à d'autres matériaux tels le cuivre et le fer. Composante de l'industrie de l'aluminium, le recyclage bénéficie d'une image favorable auprès du grand public, démontrant le succès des campagnes de communication. A l'inverse, à l'intérieur de l'industrie de l'aluminium, c'est une image dévalorisée. Les opinions émises par tous les acteurs, commerçants, techniciens, dirigeants, encore recueillies pendant ce travail, sont les suivantes : métier de chiffonnier, métier misérable, métier peu technique mais très difficile (un recycleur 15 d'aluminium n'a-t-il pas dit que son métier était un métier d'homme alors que celui du recycleur de cuivre était un jeu d'enfant). A notre avis ces opinions appartiennent à un passé révolu qu'elles retraduisent cependant fidèlement car le recyclage est aujourd'hui reconnu comme une contribution majeure au développement supportable de l'aluminium. C'est bien pour cette raison que, en 2000, l'industrie de l'aluminium mondiale a décidé d'abandonner le qualificatif « secondaire » jusque là utilisé pour désigner le métal recyclé. C'est en raison de toutes ces données discordantes et parfois contradictoires qu'a débuté ce travail encouragé par de nombreuses personnalités. Notre engagement a été incontestablement facilité par notre connaissance des savoirs indispensables (métallurgie, économie, statistiques) et surtout notre expérience acquise au cours d'une vie professionnelle menée à l'échelle mondiale dans (recherche et développement, production), pour (recherche, développement, marketing, stratégie) et autour (marketing, stratégie de produits connexes, les ferro-alliages, et concurrents, le fer) de l'industrie de l'aluminium. Notre objectif est de faire la vérité sur le recyclage de l'aluminium, un matériau qui a très largement contribué à faire le 20ème siècle, grâce à une revue critique embrassant tous les aspects de cette activité méconnue ; ainsi il n'y a pas d'histoire du recyclage de l'aluminium alors qu'il est plus que centenaire. Plus qu'une simple compilation, cette revue critique a été conduite comme une enquête scientifique, technique, économique, historique, socio-écologique faisant ressortir les faits principaux ayant marqué l'évolution du recyclage de l'aluminium. Elle conclut sur l'état réel du recyclage, qui se révèle globalement satisfaisant avec ses forces et ses faiblesses, et au-delà du recyclage sur l'adéquation de l'aluminium au développement supportable, adéquation largement insuffisante. C'est pourquoi, elle suggère les thèmes d'études intéressant tous ceux scientifiques, techniciens, historiens, économistes, juristes concernés par une industrie très représentative de notre monde en devenir, un monde où la place de l'aluminium dépendra de son aptitude à satisfaire les critères du développement supportable. ABSTRACT Owing to recycling, the aluminium industry's global energetic and environmental prints are much lower than its ore extractive metallurgy's ones. Likewise, recycling will allow the complete use of the expected avalanche of old scraps, consequently to the dramatic explosion of aluminium consumption since the 50's. The recycling state is characterized by: i) raw materials split in two groups :one, the new scrap, internal and prompt, proportional to semi-finished and finished products quantities, exhibits a fairly good and regular quality. The other, the old scrap, proportional to the finished products arrivïng at their end-of--life, about 22 years later on an average, exhibits a variable quality depending on the collect mode. ii) a poor recycling rate, near by that of steel. The aluminium industry generates too much new internal scrap and doesn't collect all the availa~e old scrap. About 50% of it is not recycled (when steel is recycling about 70% of the old scrap flow). iii) recycling techniques, all based on melting, are well handled in spite of aluminium atiiníty to oxygen and the practical impossibility to purify aluminium from any impurity. Sorting and first collect are critical issues before melting. iv) products and markets of recycled aluminium :New scraps have still been recycled in the production lines from where there are coming (closed loop). Old scraps, mainly those mixed, have been first recycled in different production lines (open loop) :steel deoxidation products followed during the 30's, with the development of the foundry alloys, by foundry pieces of which the main market is the automotive industry. During the 80's, the commercial development of the beverage can in North America has permitted the first old scrap recycling closed loop which is developing. v) an economy with low and erratic margins because the electrolytic aluminium quotation fixes scrap purchasing price and recycled aluminium selling price. vi) an industrial organisation historically based on the scrap group and the loop mode. New scrap is recycled either by the transformation industry itself or by the recycling industry, the remelter, old scrap by the refiner, the other component of the recycling industry. The big companies, the "majors" are often involved in the closed loop recycling and very seldom in the open loop one. To-day, aluminium industry's global energetic and environmental prints are too unbeara~ e and the sustainaЫe development criteria are not fully met. Critical issues for the aluminium industry are to better produce, to better consume and to better recycle in order to become a real sustainaЫe development industry. Specific issues to recycling are a very efficient recycling industry, a "sustainaЫe development" economy, a complete old scrap collect favouring the closed loop. Also, indirectly connected to the recycling, are a very efficient transformation industry generating much less new scrap and a finished products industry delivering only products fulfilling sustainaЫe development criteria.