968 resultados para Poisson-Boltzmann
Resumo:
The optical cross section of PS I in whole cells of Porphyridium cruentum (UTEX 161), held in either state 1 or state 2, was determined by measuring the change in absorbance at 820nm, an indication of P700+; the X-section of PS2 was determined by measuring the variable fluorescence, (Fv-Fo)/Fo, from PS2. Both cross-sections were 7 determined by fitting Poisson distribution equations to the light saturation curves obtained with single turnover laser flashes which varied in intensity from zero to a level where maximum yield occurred. Flash wavelengths of 574nm, 626nm, and 668nm were used, energy absorbed by PBS, by PBS and chla, and by chla respectively. There were two populations of both PSi and PS2. A fraction of PSi is associated with PBS, and a fraction of PS2 is free from PBS. On the transition S1->S2, only with PBS-absorbed energy (574nm) did the average X-section of PSi increase (27%), and that of PS2 decrease (40%). The fraction of PSi associated with PBS decreased, from 0.65 to 0.35, and the Xsection of this associated PS 1 increased, from 135±65 A2 to 400±300A2. The cross section of PS2 associated with PBS decreased from 150±50 A2 to 85±45 A2, but the fraction of PS2 associated with PBS, approximately 0.75, did not change significantly. The increase in PSi cross section could not be completely accounted for by postulating that several PSi are associated with a single PBS and that in the transition to state2, fewer PSi share the same number of PBS, resulting in a larger X-section. It is postulated that small changes occur in the attachment of PS2 to PBS causing energy to be diverted to the attached PSi. These experiments support neither the mobile-PBS model of state transitions nor that of spillover. From cross section changes there was no evidence of energy transfer from PS2 to PSi with 668nm light. The decrease in PS2 fluorescence which occurred at this wavelength cannot be explained by energy transfer; another explanation must be sought. No explanation was found for an observed decrease in PSi yield at high flash intensities.
Resumo:
A ~si MAS NMR study of spin-lattice relaxation behaviour
in paramagnetic-doped crystalline silicates was undertaken,
using synthetic magnesium orthosilicate (forsterite) and
synthetic zinc orthosilicate (willemite) doped with 0.1% to
20% of Co(II), Ni(II), or CU(II), as experimental systems.
All of the samples studied exhibited a longitudinal
magnetization return to the Boltzmann distribution of nuclear
spin states which followed a stretched-exponential function of
time:
Y=exp [- (tjTn) n], O
Resumo:
UANL
Resumo:
L’objectif de la présente étude visait à évaluer les effets différentiels de la privation de sommeil (PS) sur le fonctionnement cognitif sous-tendu par les substrats cérébraux distincts, impliqués dans le réseau fronto-pariétal attentionnel, lors de l’administration d’une tâche simple et de courte durée. Les potentiels évoqués cognitifs, avec sites d’enregistrement multiples, ont été prévilégiés afin d’apprécier les effets de la PS sur l’activité cognitive rapide et ses corrélats topographiques. Le matin suivant une PS totale d’une durée de 24 heures et suivant une nuit de sommeil normale, vingt participants ont exécuté une tâche oddball visuelle à 3 stimuli. L’amplitude et la latence ont été analysées pour la P200 et la N200 à titre d’indices frontaux, tandis que la P300 a été analysée, à titre de composante à contribution à la fois frontale et pariétale. Suite à la PS, une augmentation non spécifique de l’amplitude de la P200 frontale à l’hémisphère gauche, ainsi qu’une perte de latéralisation spécifique à la présentation des stimuli cibles, ont été observées. À l’opposé, l’amplitude de la P300 était réduite de façon prédominante dans la région pariétale pour les stimuli cibles. Enfin, un délai de latence non spécifique pour la N200 et la P300, ainsi qu’une atteinte de la performance (temps de réaction ralentis et nombre d’erreurs plus élevé) ont également été objectivées. Les résultats confirment qu’une PS de durée modérée entraîne une altération des processus attentionnels pouvant être objectivée à la fois par les mesures comportementales et électrophysiologiques. Ces modifications sont présentes à toutes les étapes de traitement, tel que démontré par les effets touchant la P200, la N200 et la P300. Qui plus est, la PS affecte différemment les composantes à prédominance frontale et pariétale.
Resumo:
Une cascade de facteurs de transcription composée de SIM1, ARNT2, OTP, BRN2 et SIM2 est requise pour la différenciation des cinq types cellulaires qui peuplent le noyau paraventriculaire (PVN) de l’hypothalamus, un régulateur critique de plusieurs processus physiologiques essentiels à la survie. De plus, l’haploinsuffisance de Sim1 est aussi une cause d’hyperphagie isolée chez la souris et chez l’homme. Nous désirons disséquer le programme développemental du PVN, via une approche intégrative, afin d’identifier de nouveaux gènes qui ont le potentiel de réguler l’homéostasie chez l’individu adulte. Premièrement, nous avons utilisé une approche incluant l’analyse du transcriptome du PVN à différents stades du développement de la souris pour identifier de tels gènes. Nous avons comparé les transcriptomes de l’hypothalamus antérieur chez des embryons de souris Sim1+/+ et Sim1-/- à E12.5 issus de la même portée. De cette manière, nous avons identifié 56 gènes agissant en aval de Sim1 dont 5 facteurs de transcription - Irx3, Sax1, Rxrg, Ror et Neurod6. Nous avons également proposé un modèle de développement à deux couches de l’hypothalamus antérieur. Selon ce modèle, les gènes qui occupent un domaine médial dans la zone du manteau caractérisent des cellules qui peupleront le PVN alors que les gènes qui ont une expression latérale identifient des cellules qui donneront plus tard naissance aux structures ventrolatérales de l’hypothalamus. Nous avons aussi démontré que Sim1 est impliqué à la fois dans la différenciation, la migration et la prolifération des neurones qui peuplent le PVN tout comme Otp. Nous avons également isolé par microdissection au laser le PVN et l’hypothalamus médiobasal chez des souris de type sauvage à E14.5 pour en comparer les transcriptomes. Ceci nous a permis d’identifier 34 facteurs de transcription spécifiques au PVN et 76 facteurs spécifiques à l’hypothalamus médiobasal. Ces gènes représentent des régulateurs potentiels du développement hypothalamique. Deuxièmement, nous avons identifié 3 blocs de séquences au sein de la région 5’ d’Otp qui sont conservés chez l’homme, la souris et le poisson. Nous avons construit un transgène qui est composé d’un fragment de 7 kb contenant ces blocs de séquences et d’un gène rapporteur. L’analyse de 4 lignées de souris a montré que ce transgène est uniquement exprimé dans le PVN en développement. Nous avons généré un deuxième transgène dans lequel le fragment de 7 kb est inséré en amont de l’ADNc de Brn2 ou Sim1 et de Gfp. Nous avons obtenu quatre lignées de souris dans lesquels le profil d’expression de Brn2 et de Gfp reproduit celui d’Otp. Nous étudierons le développement du PVN et la prise alimentaire chez ces souris. En parallèle, nous croisons ces lignées avec les souris déficientes en Sim1 pour déterminer si l’expression de Brn2 permet le développement des cellules du PVN en absence de Sim1. En résumé, nous avons généré le premier transgène qui est exprimé spécifiquement dans le PVN. Ce transgène constitue un outil critique pour la dissection du programme développemental de l’hypothalamus. Troisièmement, nous avons caractérisé le développement de l’hypothalamus antérieur chez l’embryon de poulet qui représente un modèle intéressant pour réaliser des études de perte et de gain de fonction au cours du développement de cette structure. Il faut souligner que le modèle de développement à deux couches de l’hypothalamus antérieur semble être conservé chez l’embryon de poulet où il est aussi possible de classer les gènes selon leur profil d’expression médio-latéral et le devenir des régions qu’ils définissent. Finalement, nous croyons que cette approche intégrative nous permettra d’identifier et de caractériser des régulateurs du développement du PVN qui pourront potentiellement être associés à des pathologies chez l’adulte telles que l’obésité ou l’hypertension.
Resumo:
Les tâches de vision artificielle telles que la reconnaissance d’objets demeurent irrésolues à ce jour. Les algorithmes d’apprentissage tels que les Réseaux de Neurones Artificiels (RNA), représentent une approche prometteuse permettant d’apprendre des caractéristiques utiles pour ces tâches. Ce processus d’optimisation est néanmoins difficile. Les réseaux profonds à base de Machine de Boltzmann Restreintes (RBM) ont récemment été proposés afin de guider l’extraction de représentations intermédiaires, grâce à un algorithme d’apprentissage non-supervisé. Ce mémoire présente, par l’entremise de trois articles, des contributions à ce domaine de recherche. Le premier article traite de la RBM convolutionelle. L’usage de champs réceptifs locaux ainsi que le regroupement d’unités cachées en couches partageant les même paramètres, réduit considérablement le nombre de paramètres à apprendre et engendre des détecteurs de caractéristiques locaux et équivariant aux translations. Ceci mène à des modèles ayant une meilleure vraisemblance, comparativement aux RBMs entraînées sur des segments d’images. Le deuxième article est motivé par des découvertes récentes en neurosciences. Il analyse l’impact d’unités quadratiques sur des tâches de classification visuelles, ainsi que celui d’une nouvelle fonction d’activation. Nous observons que les RNAs à base d’unités quadratiques utilisant la fonction softsign, donnent de meilleures performances de généralisation. Le dernière article quand à lui, offre une vision critique des algorithmes populaires d’entraînement de RBMs. Nous montrons que l’algorithme de Divergence Contrastive (CD) et la CD Persistente ne sont pas robustes : tous deux nécessitent une surface d’énergie relativement plate afin que leur chaîne négative puisse mixer. La PCD à "poids rapides" contourne ce problème en perturbant légèrement le modèle, cependant, ceci génère des échantillons bruités. L’usage de chaînes tempérées dans la phase négative est une façon robuste d’adresser ces problèmes et mène à de meilleurs modèles génératifs.
Resumo:
Ce travail a été réalisé avec l'appui du Centre Collaborateur de l'OMS sur la Transition Nutritionnelle et le Développement (TRANSNUT) de l'Université de Montréal, en collaboration avec deux parténaires du Bénin: l'Institut de Sciences Biomédicales Appliquées (ISBA) de Cotonou et l'Institut Régional de Santé Publique de Ouidah.
Resumo:
L'un des modèles d'apprentissage non-supervisé générant le plus de recherche active est la machine de Boltzmann --- en particulier la machine de Boltzmann restreinte, ou RBM. Un aspect important de l'entraînement ainsi que l'exploitation d'un tel modèle est la prise d'échantillons. Deux développements récents, la divergence contrastive persistante rapide (FPCD) et le herding, visent à améliorer cet aspect, se concentrant principalement sur le processus d'apprentissage en tant que tel. Notamment, le herding renonce à obtenir un estimé précis des paramètres de la RBM, définissant plutôt une distribution par un système dynamique guidé par les exemples d'entraînement. Nous généralisons ces idées afin d'obtenir des algorithmes permettant d'exploiter la distribution de probabilités définie par une RBM pré-entraînée, par tirage d'échantillons qui en sont représentatifs, et ce sans que l'ensemble d'entraînement ne soit nécessaire. Nous présentons trois méthodes: la pénalisation d'échantillon (basée sur une intuition théorique) ainsi que la FPCD et le herding utilisant des statistiques constantes pour la phase positive. Ces méthodes définissent des systèmes dynamiques produisant des échantillons ayant les statistiques voulues et nous les évaluons à l'aide d'une méthode d'estimation de densité non-paramétrique. Nous montrons que ces méthodes mixent substantiellement mieux que la méthode conventionnelle, l'échantillonnage de Gibbs.
Resumo:
Dans les cellules eucaryotes, le trafic intracellulaire de nombreuses protéines est assuré par des vésicules de transport tapissées de clathrine. Les complexes adaptateurs de clathrine (AP) sont responsables de l’assemblage de ces vésicules et de la sélection des protéines qui seront transportées. Nous avons étudié cinq familles atteintes du syndrome neurocutané MEDNIK qui est caractérisé par un retard mental, une entéropathie, une surdité, une neuropathie périphérique, de l’icthyose et de la kératodermie. Tous les cas connus de cette maladie à transmission autosomique récessive sont originaires de la région de Kamouraska, dans la province de Québec. Par séquençage direct des gènes candidats, nous avons identifié une mutation impliquant le site accepteur de l’épissage de l’intron 2 du gène codant pour la sous-unité σ1 du complexe AP1 (AP1S1). Cette mutation fondatrice a été retrouvée chez tous les individus atteints du syndrome MEDNIK et altère l’épissage normal du gène, menant à un codon stop prématuré. Afin de valider l’effet pathogène de la mutation, nous avons bloqué la traduction de cette protéine chez le poisson zébré en injectant une séquence d’oligonucléotides antisenses spécifique à AP1S1. À 48 heures après la fertilisation, les larves knock down pour AP1S1 montrent une réduction de la pigmentation, une désorganisation de la structure de l’épiderme et une perturbation du développement moteur. Alors que la surexpression de l’AP1S1 humain dans ce modèle a permis la récupération du phénotype normal, l’expression de l’AP1S1 mutant fut sans effet sur les phénotypes moteurs et cutanés des larves knock down. Les résultats obtenus montrent que la mutation du AP1S1 responsable du syndrome de MEDNIK est associée à une perte de fonction et que la sous-unité σ1 du complexe AP1 joue un rôle crucial dans l’organisation de l’épiderme et le développement de la moelle épinière.
Resumo:
On présente une nouvelle approche de simulation pour la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine, pour des modèles de risque déterminés par des subordinateurs de Lévy. Cette approche s'inspire de la décomposition "Ladder height" pour la probabilité de ruine dans le Modèle Classique. Ce modèle, déterminé par un processus de Poisson composé, est un cas particulier du modèle plus général déterminé par un subordinateur, pour lequel la décomposition "Ladder height" de la probabilité de ruine s'applique aussi. La Fonction de Pénalité Escomptée, encore appelée Fonction Gerber-Shiu (Fonction GS), a apporté une approche unificatrice dans l'étude des quantités liées à l'événement de la ruine été introduite. La probabilité de ruine et la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine sont des cas particuliers de la Fonction GS. On retrouve, dans la littérature, des expressions pour exprimer ces deux quantités, mais elles sont difficilement exploitables de par leurs formes de séries infinies de convolutions sans formes analytiques fermées. Cependant, puisqu'elles sont dérivées de la Fonction GS, les expressions pour les deux quantités partagent une certaine ressemblance qui nous permet de nous inspirer de la décomposition "Ladder height" de la probabilité de ruine pour dériver une approche de simulation pour cette fonction de densité conjointe. On présente une introduction détaillée des modèles de risque que nous étudions dans ce mémoire et pour lesquels il est possible de réaliser la simulation. Afin de motiver ce travail, on introduit brièvement le vaste domaine des mesures de risque, afin d'en calculer quelques unes pour ces modèles de risque. Ce travail contribue à une meilleure compréhension du comportement des modèles de risques déterminés par des subordinateurs face à l'éventualité de la ruine, puisqu'il apporte un point de vue numérique absent de la littérature.
Resumo:
Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).
Resumo:
La consommation de poisson et de mammifères marins représente une source importante d’acides gras oméga-3 connus pour leurs effets bénéfiques sur le développement des fonctions cérébrales et notamment, sur le développement du système visuel. Afin de tester l’hypothèse selon laquelle l’exposition prénatale aux acides gras oméga-3 a des effets bénéfiques à long terme, nous avons examiné les fonctions visuelles chez des enfants Inuits d’âge scolaire exposés à de grandes quantités d’oméga-3 durant la période de gestation. Des enfants Inuits (n = 136; moyenne d’âge = 11.3 ans) du nord du Québec (Nunavik) ont participé à cette étude. Un protocole de potentiels évoqués visuels (PEVs) utilisant des stimuli en couleur et en mouvement a été employé afin d’appréhender les réponses parvo- et magnocellulaires respectivement. Les concentrations d’acide docosahexaénoïque (ADH) ont été mesurées à la naissance à partir du sang de cordon ombilical et au moment du testing, reflétant ainsi les expositions pré- et post-natales. Les relations entre les niveaux sanguins d’ADH et les PEVs ont été examinées à l’aide d’analyses de régression multiples, en tenant compte des contaminants environnementaux et d’autres variables potentiellement confondantes. Aucune association significative n’a été trouvée en ce qui concerne les stimuli de mouvement. Cependant, après ajustement pour les covariables, les concentrations d’ADH à la naissance étaient associées à une latence plus courte des composantes N1 et P1 des PEVs couleur. Notre étude démontre, pour la première fois, des effets bénéfiques de l’exposition prénatale à l’ADH sur le système parvocellulaire à l’âge scolaire.
Resumo:
La caractérisation de matériaux par spectroscopie optique d’émission d’un plasma induit par laser (LIPS) suscite un intérêt qui ne va que s’amplifiant, et dont les applications se multiplient. L’objectif de ce mémoire est de vérifier l’influence du choix des raies spectrales sur certaines mesures du plasma, soit la densité électronique et la température d’excitation des atomes neutres et ionisés une fois, ainsi que la température d’ionisation. Nos mesures sont intégrées spatialement et résolues temporellement, ce qui est typique des conditions opératoires du LIPS, et nous avons utilisé pour nos travaux des cibles binaires d’aluminium contenant des éléments à l’état de trace (Al-Fe et Al-Mg). Premièrement, nous avons mesuré la densité électronique à l’aide de l’élargissement Stark de raies de plusieurs espèces (Al II, Fe II, Mg II, Fe I, Mg I, Halpha). Nous avons observé que les densités absolues avaient un comportement temporel différent en fonction de l’espèce. Les raies ioniques donnent des densités électroniques systématiquement plus élevées (jusqu’à 50 % à 200 ns après l’allumage du plasma), et décroissent plus rapidement que les densités issues des raies neutres. Par ailleurs, les densités obtenues par les éléments traces Fe et Mg sont moindres que les densités obtenues par l’observation de la raie communément utilisée Al II à 281,618 nm. Nous avons parallèlement étudié la densité électronique déterminée à l’aide de la raie de l’hydrogène Halpha, et la densité électronique ainsi obtenue a un comportement temporel similaire à celle obtenue par la raie Al II à 281,618 nm. Les deux espèces partagent probablement la même distribution spatiale à l’intérieur du plasma. Finalement, nous avons mesuré la température d’excitation du fer (neutre et ionisé, à l’état de trace dans nos cibles), ainsi que la température d’ionisation, à l’aide de diagrammes de Boltzmann et de Saha-Boltzmann, respectivement. À l’instar de travaux antérieurs (Barthélémy et al., 2005), il nous est apparu que les différentes températures convergeaient vers une température unique (considérant nos incertitudes) après 2-3 microsecondes. Les différentes températures mesurées de 0 à 2 microsecondes ne se recoupent pas, ce qui pourrait s’expliquer soit par un écart à l’équilibre thermodynamique local, soit en considérant un plasma inhomogène où la distribution des éléments dans la plume n’est pas similaire d’un élément à l’autre, les espèces énergétiques se retrouvant au cœur du plasma, plus chaud, alors que les espèces de moindre énergie se retrouvant principalement en périphérie.
Resumo:
Objectifs : Analyser l’évolution de l’embonpoint chez les enfants québécois entre 4 et 8 ans et évaluer le rôle des différents facteurs de risque sur l’excès de poids persistant. Les données proviennent de l’étude longitudinale du développement des enfants du Québec (ÉLDEQ, 1998-2010). Cette enquête est réalisée par l’Institut de la statistique du Québec auprès d’une cohorte de 2120 nourrissons québécois nés en 1998, faisant l’objet d’un suivi annuel à partir de l’âge de 5 mois. Méthodes d’analyse : univariées, bivariées, modélisation semi-paramétrique, analyses de régressions logistique et log-linéaire (Poisson). Principaux résultats : i) L’excès de poids persistant chez les enfants âgés de 4 à 8 ans est un phénomène fluctuant, qui ne varie pas de façon significative selon le sexe ; ii) Le fait d’allaiter les enfants ne semble pas avoir un effet protecteur en ce qui concerne l’excès de poids ; iii) En ce qui concerne le poids à la naissance, les données dont on dispose ne nous permettent pas de tirer des conclusions ; iv) Le fait d’avoir une santé moins qu’excellente à la naissance semble augmenter le risque d’avoir un excès de poids persistant ; v)Ce qui influence surtout, c’est de toujours manger trop ou trop vite, ou le fait de vivre dans une famille avec un ou deux parents qui font de l’embonpoint ; vi) Les mères qui ont fume pendant leur grossesse présentent une probabilité plus élevée d’avoir des enfants avec un excès de poids persistant que celles qui n’ont pas fumé.
Resumo:
Le virus de l’hépatite C (VHC) est une des principales causes d’hépatite chronique. La protéine F du VHC est codée par un cadre de lecture alternatif du gène de la capside, Core. La protéine F a été découverte après que l’on ait associé Core à plusieurs des fonctions pathogènes du VHC. Nous proposons donc que certaines fonctions biologiques et pathogènes attribuées à la protéine Core résultent de l’activité de la protéine F. Nous avons choisi de développer trois lignées de poissons zébrés (Danio rerio) qui expriment différentes versions de la protéine F afin d’étudier les effets de la protéine F et leur incidence dans la pathogenèse du VHC. Deux versions de la séquence codant pour la protéine F (AF11 et AUG26) et une version mutante du gène core (CoremutI) ont été introduites sur les vecteurs d’un système d’expression répressible spécifique au foie. Ces vecteurs ont été co-injectés dans des embryons unicellulaires de poissons zébrés pour générer les poissons fondateurs des lignées transgéniques. 19, 21 et 36 poissons ont été choisis comme fondateurs pour les lignées AF11, AUG26 et CoremutI respectivement. De ce nombre, 9, 11 et 11 poissons ont atteint la maturité, dans l’ordre pour les mêmes lignées, et seront croisés pour donner naissance à des lignées transgéniques stables. Les résultats de ces expériences nous permettront de mieux cerner les propriétés biologiques de la protéine F et de définir son rôle dans la pathogenèse du VHC.