998 resultados para Possibilité


Relevância:

10.00% 10.00%

Publicador:

Resumo:

9 mai 1891. Le prie d'envoyer 300 francs à son fils Pierre. - 30 juin 1891. Le prie de donner 200 francs à sa fille. - 29 juillet 1891. Lui demande 300 francs d'avance. - 16 août 1891. Au sujet de "Néron" qui pourrait être repris sur la scène du théâtre de Nice. Evoque la distribution qui paraît la plus adéquate et ses relations avec le compositeur Antoine Rubinstein. Barbier voit dans cette reprise un avantage, celui de "mettre enfin la pièce au point, ce qu'[il n'a] pu encore faire, avec la diable de collaboration fantaisiste et vagabonde de Rubinstein.". - 20 août 1891. Au sujet de "Néron" et de la distribution la plus convenable : "Ce qui me séduit le plus, c'est la possibilité de parfaire l'ouvrage et d'en donner enfin une version définitive et dont je sois content". - 23 août 1891. Au sujet de "Néron". S'incline devant les choix de son éditeur et le met en garde sur le compositeur : "Avec son génie (car il en a), c'est un homme à rater tous les succès du monde! Son art l'aveugle et lui masque les nécessités du théâtre". - 12 septembre 1891. Au sujet de "Néron" et des hésitations d'Eugène Bertrand à monter la pièce. Le directeur de théâtre préfèrerait monter "Paul et Virginie". - 15 septembre 1891. Lui renvoie son "traité" signé de "Paul et Virginie" et lui demande une avance

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT (English)An accurate processing of the order between sensory events at the millisecond time scale is crucial for both sensori-motor and cognitive functions. Temporal order judgment (TOJ) tasks, is the ability of discriminating the order of presentation of several stimuli presented in a rapid succession. The aim of the present thesis is to further investigate the spatio-temporal brain mechanisms supporting TOJ. In three studies we focus on the dependency of TOJ accuracy on the brain states preceding the presentation of TOJ stimuli, the neural correlates of accurate vs. inaccurate TOJ and whether and how TOJ performance can be improved with training.In "Pre-stimulus beta oscillations within left posterior sylvian regions impact auditory temporal order judgment accuracy" (Bernasconi et al., 2011), we investigated if the brain activity immediately preceding the presentation of the stimuli modulates TOJ performance. By contrasting the electrophysiological activity before the stimulus presentation as a function of TOJ accuracy we observed a stronger pre-stimulus beta (20Hz) oscillatory activity within the left posterior sylvian region (PSR) before accurate than inaccurate TOJ trials.In "Interhemispheric coupling between the posterior sylvian regions impacts successful auditory temporal order judgment" (Bernasconi et al., 2010a), and "Plastic brain mechanisms for attaining auditory temporal order judgment proficiency" (Bernasconi et al., 2010b), we investigated the spatio-temporal brain dynamics underlying auditory TOJ. In both studies we observed a topographic modulation as a function of TOJ performance at ~40ms after the onset of the first sound, indicating the engagement of distinct configurations of intracranial generators. Source estimations in the first study revealed a bilateral PSR activity for both accurate and inaccurate TOJ trials. Moreover, activity within left, but not right, PSR correlated with TOJ performance. Source estimations in the second study revealed a training-induced left lateralization of the initial bilateral (i.e. PSR) brain response. Moreover, the activity within the left PSR region correlated with TOJ performance.Based on these results, we suggest that a "temporal stamp" is established within left PSR on the first sound within the pair at early stages (i.e. ~40ms) of cortical processes, but is critically modulated by inputs from right PSR (Bernasconi et al., 2010a; b). The "temporal stamp" on the first sound may be established via a sensory gating or prior entry mechanism.Behavioral and brain responses to identical stimuli can vary due to attention modulation, vary with experimental and task parameters or "internal noise". In a fourth experiment (Bernasconi et al., 2011b) we investigated where and when "neural noise" manifest during the stimulus processing. Contrasting the AEPs of identical sound perceived as High vs. Low pitch, a topographic modulation occurred at ca. 100ms after the onset of the sound. Source estimation revealed activity within regions compatible with pitch discrimination. Thus, we provided neurophysiological evidence for the variation in perception induced by "neural noise".ABSTRACT (French)Un traitement précis de l'ordre des événements sensoriels sur une échelle de temps de milliseconde est crucial pour les fonctions sensori-motrices et cognitives. Les tâches de jugement d'ordre temporel (JOT), consistant à présenter plusieurs stimuli en succession rapide, sont traditionnellement employées pour étudier les mécanismes neuronaux soutenant le traitement d'informations sensorielles qui varient rapidement. Le but de cette thèse est d'étudier le mécanisme cérébral soutenant JOT. Dans les trois études présentées nous nous sommes concentrés sur les états du cerveau précédant la présentation des stimuli de JOT, les bases neurales pour un JOT correct vs. incorrect et sur la possibilité et les moyens d'améliorer l'exécution du JOT grâce à un entraînement.Dans "Pre-stimulus beta oscillations within left posterior sylvian regions impact auditory temporal order judgment accuracy" (Bernasconi et al., 2011),, nous nous sommes intéressé à savoir si l'activité oscillatoire du cerveau au pré-stimulus modulait la performance du JOT. Nous avons contrasté l'activité électrophysiologique en fonction de la performance TOJ, mesurant une activité oscillatoire beta au pré-stimulus plus fort dans la région sylvian postérieure gauche (PSR) liée à un JOT correct.Dans "Interhemispheric coupling between the posterior sylvian regions impacts successful auditory temporal order judgment" (Bernasconi et al., 2010a), et "Plastic brain mechanisms for attaining auditory temporal order judgment proficiency" (Bernasconi et al., 2010b), nous avons étudié la dynamique spatio-temporelle dans le cerveau impliqué dans le traitement du JOT auditif. Dans ses deux études, nous avons observé une modulation topographique à ~40ms après le début du premier son, en fonction de la performance JOT, indiquant l'engagement des configurations de générateurs intra- crâniens distincts. La localisation de source dans la première étude indique une activité bilatérale de PSR pour des JOT corrects vs. incorrects. Par ailleurs, l'activité dans PSR gauche, mais pas dans le droit, est corrélée avec la performance du JOT. La localisation de source dans la deuxième étude indiquait une latéralisation gauche induite par l'entraînement d'une réponse initialement bilatérale du cerveau. D'ailleurs, l'activité dans la région PSR gauche corrèlait avec la performance de TOJ.Basé sur ces résultats, nous proposons qu'un « timbre-temporel » soit établi très tôt (c.-à-d. à ~40ms) sur le premier son par le PSR gauche, mais module par l'activité du PSR droite (Bernasconi et al., 2010a ; b). « Le timbre- temporel » sur le premier son peut être établi par le mécanisme neuronal de type « sensory gating » ou « prior entry ».Les réponses comportementales et du cerveau aux stimuli identiques peut varier du à des modulations d'attention ou à des variations dans les paramètres des tâches ou au bruit interne du cerveau. Dans une quatrième expérience (Bernasconi et al. 2011B), nous avons étudié où et quand le »bruit neuronal« se manifeste pendant le traitement des stimuli. En contrastant les AEPs de sons identiques perçus comme aigus vs. grave, nous avons mesuré une modulation topographique à env. 100ms après l'apparition du son. L'estimation de source a révélé une activité dans les régions compatibles avec la discrimination de fréquences. Ainsi, nous avons fourni des preuves neurophysiologiques de la variation de la perception induite par le «bruit neuronal».

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le rein participe directement ou indirectement à de nombreux processus pathologiques s'accompagnant d'une rétention hydrosodée. L'étude des mécanismes impliqués et de leur localisation intrarénale est un élément important pour l'élaboration d'un diagnostic et d'une thérapeutique rationnelle. Des outils sont nécessaires à cette fin. Il y a 25 ans, Thomsen et Schou ont proposé la clairance du lithium comme marqueur de la réabsorption de fluide et de sodium au niveau du tubule rénal proximal. L'administration de lithium exogène semble cependant perturber l'homéostasie électrolytique rénale en entraînant une natriurèse transitoire. Depuis peu, la possibilité existe de quantifier le lithium présent en trace dans le corps humain et de déterminer ainsi sa clairance rénale. Cette nouvelle approche évite toute altération de l'homéostasie du sodium et ouvre un vaste champ d'étude. Il permet de préciser certains problèmes diagnostiques, d'éclairer des mécanismes physiopathologiques, et mène ainsi à des thérapies plus judicieuses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary Acquisition of lineage-specific cell cycle duration is an important feature of metazoan development. In Caenorhabditis a/egans, differences in cell cycle duration are already apparent in two-cell stage embryos, when the larger anterior blastomere AB divides before the smaller posterior blastomere P1. This time difference is under the control of anterior-posterior (A-P) polarity cues set by the PAR proteins. The mechanism by which these cues regulate the cell cycle machinery differentially in AB and P1 are incompletely understood. Previous work established that retardation of P1 cell division is due in part to preferential activation of an ATL1/CHK-1 dependent checkpoint in P1 but how the remaining time difference is controlled was not known at the onset of my work. The principal line of work in this thesis established that differential timing relies also on a mechanism that promotes mitosis onset preferentially in AB. The polo-like kinase PLK-1, a positive regulator of mitotic entry, is distributed in an asymmetric manner in two-cell stage embryos, with more protein present in AB than in P1. We find that PLK-1 asymmetry is regulated by anterior-posterior (A-P) polarity cues through preferential protein retention in the embryo anterior. Importantly, mild inactivation of plk-1 by RNAi delays entry into mitosis in P1 but not in AB, in a manner that is independent of ATL-1/CHK-1. Together, these findings favor a model in which differential timing of mitotic entry in C. elegans embryos relies on two complementary mechanisms: ATL-1/CHK-1 dependent preferential retardation in P1 and PLK-1 dependent preferential promotion in AB, which together couple polarity cues and cell cycle progression during early development. Besides analyzing PLK-1 asymmetry and its role in differential timing of two-cells stage embryos, we also characterized t2190, a mutant that exhibits reduced differential timing between AB and P1. We found this mutant to be a new allele of par-1. Additionally, we analyzed the role of NMY-2 in regulating the asynchrony of two-cell stage embryos, which may be uncoupled from its role in A-P polarity establishment and carried out a preliminary analysis of the mechanism underlying CDC-25 asymmetry between AB and P,. Overall, our works bring new insights into the mechanism controlling cell cycle progression in early C. elegans embryos. As most of the players important in C. elegans are conserved in other organisms, analogous mechanisms may be utilized in polarized cells of other species. Résumé Au cours du développement, les processus de division cellulaire sont régulés dans l'espace et le temps afin d'aboutir à la formation d'un organisme fonctionnel. Chez les Métazoaires, l'un des mécanismes de contrôle s'effectue au niveau de la durée du cycle cellulaire, celle-ci étant specifiée selon la lignée cellulaire. L'embryon du nématode Caenorhabditis elegans apparaît comme un excellent modèle d'étude de la régulation temporelle du cycle cellulaire. En effet, suite à la première division du zygote, l'embryon est alors composé de deux cellules de taille et d'identité différentes, appelées blastomères AB et P1. Ces deux cellules vont ensuite se diviser de manière asynchrone, le grand blastomère antérieur AB se divisant plus rapidement que le petit blastomère postérieur P1. Cette asynchronie de division est sous le contrôle des protéines PAR qui sont impliquées dans l'établissement de l'axe antéro-postérieur de l'embryon. A ce jour, les mécanismes moléculaires gouvernant ce processus d'asynchronie ne sont que partiellement compris. Des études menées précédemment ont établit que le retard de division observé dans le petit blastomère postérieur P1 était dû, en partie, à l'activation préférentielle dans cette cellule de ATL-1/CHK-1, protéines contrôlant la réponse à des erreurs dans le processus de réplication de l'ADN. L'analyse des autres mécanismes responsables de la différence temporelle d'entrée en mitose des deux cellules a été entreprise au cours de cette thèse. Nous avons considéré la possibilité que l'asynchronie de division était du à l'entrée préférentielle en mitose du grand blastomère AB. Nous avons établi que la protéine kinase PLK-1 (polo-like kinase 1), impliquée dans la régulation positive de la mitose, était distribuée de manière asymétrique dans l'embryon deux cellules. PLK-1 est en effet enrichi dans le blastomère AB. Cette localisation asymétrique de PLK-1 est sous le contrôle des protéines PAR et semble établie via une rétention de PLK-1 dans la cellule AB. Par ailleurs, nous avons démontré que l'inactivation partielle de plk-7 par interférence à ARN (RNAi) conduit à un délai de l'entrée en mitose de la cellule P1 spécifiquement, indépendamment des protéines régulatrices ATL-1/CHK-1. En conclusion, nous proposons un modèle de régulation temporelle de l'entrée en mitose dans l'embryon deux cellules de C. elegans basé sur deux mécanismes complémentaires. Le premier implique l'activation préférentielle des protéines ATL-1/CHK-1, et conduit à un retard d'entrée en mitose spécifiquement dans la cellule P1. Le second est basé sur la localisation asymétrique de la protéine kinase PLK-1 dans la cellule AB et induit une entrée précoce en mitose de cette cellule. Par ailleurs, nous avons étudié un mutant appelé t2190 qui réduit la différence temporelle d'entrée en mitose entre les cellules AB et P1. Nous avons démontré que ce mutant correspondait à un nouvel allèle du Bene par-1. De plus, nous avons analysé le rôle de NMY-2, une protéine myosine qui agit comme moteur moléculaire sur les filaments d'active; dans la régulation de l'asynchronie de division des blastomères AB et P1, indépendamment de sa fonction dans l'établissement de l'axe antéro-postérieur. Par ailleurs, nous avons commencé l'étude du mécanisme moléculaire régulant la localisation asymétrique entre les cellules AB et P1 de la protéine phosphatase CDC25, qui est également un important régulateur de l'entrée en mitose. En conclusion, ce travail de thèse a permis une meilleure compréhension des mécanismes gouvernant la progression du cycle cellulaire dans l'embryon précoce de C. elegans. Etant donné que la plupart des protéines impliquées dans ces processus sont conservées chez d'autres organismes multicellulaires, il apparaît probable que les mécanismes moléculaires révélés dans cette étude soit aussi utilisés chez ceux-ci.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une expertise collective sur l'évaluation des risques liés aux nanomatériaux pour la population générale et pour l'environnement a identifié plusieurs centaines de produits de grande consommation contenant des nanomatériaux, présents dans notre quotidien : textiles, cosmétiques, alimentaires, équipements sportifs, matériaux de construction... Des études nouvelles suggèrent la possibilité de risques pour la santé et pour l'environnement de certains produits. Face à cette situation d'incertitude, l'Afsset recommande d'agir sans attendre au nom du principe de précaution et de 1) Rendre obligatoire la traçabilité des nanomatériaux. Cela passe par une obligation de déclaration par les industriels, 2) la mise en place un étiquetage clair qui mentionne la présence de nanomatériaux dans les produits et informe sur la possibilité de relargage à l'usage, 3) d'aller jusqu'à l'interdiction de certains usages des nanomatériaux pour lesquels l'utilité est faible par rapport aux dangers potentiels, 4) l'harmonisation des cadres réglementaires français et européens pour généraliser les meilleures pratiques : déclaration, autorisation, substitution. En particulier, une révision de REACh s'impose pour prendre en compte les nanomatériaux manufacturés de manière spécifique et quel que soit leur tonnage. L'expertise fait également des recommandations pour construire une méthode renouvelée d'évaluation des risques sanitaires qui soit adaptée aux spécificités des nanomatériaux. Pour cela l'Afsset a testé les méthodologies classiques d'évaluation des risques sur 4 produits particuliers et courants : la chaussette antibactérienne (nanoparticules d'argent), le ciment autonettoyant et le lait solaire (nanoparticules de dioxyde de titane), la silice alimentaire à l'état nanométrique. Ces 4 produits représentent bien les voies d'exposition de l'homme (cutanée, inhalation, ingestion) et la possibilité de dispersion environnementale. Ces travaux font apparaître une urgence à faire progresser les connaissances sur les expositions et les dangers potentiels des nanomatériaux. Aujourd'hui, seuls 2% des études publiées sur les nanomatériaux concernent leurs risques pour la santé et l'environnement. Le premier effort devra porter sur la normalisation des caractéristiques des nanomatériaux. Les priorités de la recherche devront cibler la toxicologie, l'écotoxicologie et la mesure des expositions. Enfin, l'Afsset prévoit de s'autosaisir pour définir en 2 ans, avec son groupe de travail, un outil simplifié d'évaluation des risques. Il s'agit d'une grille de cotation des risques qui permet de catégoriser les produits en plusieurs gammes de risques. Face à ce chantier considérable, une mise en réseau entre les organismes européens et internationaux pour se partager le travail est nécessaire. Elle a commencé autour de l'OCDE qui coordonne des travaux d'évaluation des risques et de l'ISO qui travaille à la mise en place de nouvelles normes. [Auteurs]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'introduction des technologies de séquençage de nouvelle génération est en vue de révolutionner la médecine moderne. L'impact de ces nouveaux outils a déjà contribué à la découverte de nouveaux gènes et de voies cellulaires impliqués dans la pathologie de maladies génétiques rares ou communes. En revanche, l'énorme quantité de données générées par ces systèmes ainsi que la complexité des analyses bioinformatiques nécessaires, engendre un goulet d'étranglement pour résoudre les cas les plus difficiles. L'objectif de cette thèse a été d'identifier les causes génétiques de deux maladies héréditaires utilisant ces nouvelles techniques de séquençage, couplées à des technologies d'enrichissement de gènes. Dans ce cadre, nous avons développé notre propre méthode de travail (pipeline) pour l'alignement des fragments de séquence (reads). Suite à l'identification de gènes, nous avons réalisé une analyse fonctionnelle pour élucider leur rôle dans la maladie. Dans un premier temps, nous avons étudié et identifié des mutations impliquées dans une forme récessive de la rétinite pigmentaire qui est à ce jour la dégénérescence rétinienne héréditaire la plus fréquente. En particulier, nous avons constaté que des mutations faux-sens dans le gène FAM161A étaient la cause de la rétinite pigmentaire préalablement associé avec le locus RP28. De plus, nous avons démontré que ce gène avait des fonctions au niveau du cil du photorécepteur, complétant le large spectre des cilliopathies rétiniennes héréditaires. Dans un second temps, nous avons exploré la possibilité qu'un syndrome, relativement fréquent en pédiatrie de fièvre récurrente, appelé PFAPA (acronyme de fièvre périodique avec adénite stomatite, pharyngite et cervical aphteuse) puisse avoir une origine génétique. L'étiologie de cette maladie n'étant pas claire, nous avons tenté d'identifier le spectre génétique de patients PFAPA. Comme nous n'avons pas pu mettre à jour un nouveau gène unique muté et responsable de la maladie chez tous les individus dépistés, il semblerait qu'un modèle génétique plus complexe suggérant l'implication de plusieurs gènes dans la pathologie ait été identifié chez les patients touchés. Ces gènes seraient notamment impliqués dans des processus liés à l'inflammation ce qui élargirait l'impact de ces études à d'autres maladies auto-inflammatoires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent travail a eu comme but la comparaison de la performance de deux méthodes d'imagerie diagnostique pour la détection de métastases hépatiques du mélanome uvéal : la tomographie d'émission par positons au F-18-fluorodésoxyglucose (TEP FDG) couplée à la tomodensitométrie (TDM) et l'imagerie par résonance magnétique (IRM). Dans cette étude rétrospective, nous avons analysé les données radiologiques de patients inclus dans une étude multicentrique randomisée de phase III de l'Uveal Melanoma Group of the European Organization for Research and Treatment of Cancer (EORTC). L'IRM s'est révélée nettement plus sensible que le FDG-PET/CT pour mettre en évidence les métastases hépatiques notamment de taille infra-centimétrique. Néanmoins, l'analyse des changements de l'accumulation du traceur métabolique par les métastases hépatiques au cours du traitement suggère la possibilité d'évaluer, de manière précoce, la réponse des métastases hépatiques à la chimiothérapie. Le nombre de cas étudiés est trop faible pour déterminer la précision et la valeur clinique d'une telle évaluation mais les résultats obtenus dans cette étude pilote justifient une étude plus étendue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : J'ai souvent vu des experts être d'avis contraires. Je n'en ai jamais vu aucun avoir tort. Auguste Detoeuf Propos d'O.L. Brenton, confiseur, Editions du Tambourinaire, 1948. En choisissant volontairement une problématique comptable typiquement empirique, ce travail s'est attelé à tenter de démontrer la possibilité de produire des enseignements purement comptables (ie à l'intérieur du schème de représentation de la Comptabilité) en s'interdisant l'emprunt systématique de theories clé-en-main à l'Économie -sauf quant cela s'avère réellement nécessaire et légitime, comme dans l'utilisation du CAPM au chapitre précédent. Encore une fois, rappelons que cette thèse n'est pas un réquisitoire contre l'approche économique en tant que telle, mais un plaidoyer visant à mitiger une telle approche en Comptabilité. En relation avec le positionnement épistémologique effectué au premier chapitre, il a été cherché à mettre en valeur l'apport et la place de la Comptabilité dans l'Économie par le positionnement de la Comptabilité en tant que discipline pourvoyeuse de mesures de représentation de l'activité économique. Il nous paraît clair que si l'activité économique, en tant que sémiosphère comptable directe, dicte les observations comptables, la mesure de ces dernières doit, tant que faire se peut, tenter de s'affranchir de toute dépendance à la discipline économique et aux théories-méthodes qui lui sont liées, en adoptant un mode opératoire orthogonal, rationnel et systématique dans le cadre d'axiomes lui appartenant en propre. Cette prise de position entraîne la définition d'un nouveau cadre épistémologique par rapport à l'approche positive de la Comptabilité. Cette dernière peut se décrire comme l'expression philosophique de l'investissement de la recherche comptable par une réflexion méthodique propre à la recherche économique. Afin d'être au moins partiellement validé, ce nouveau cadre -que nous voyons dérivé du constructivisme -devrait faire montre de sa capacité à traiter de manière satisfaisante une problématique classique de comptabilité empirico-positive. Cette problématique spécifique a été choisie sous la forme de traitement-validation du principe de continuité de l'exploitation. Le principe de continuité de l'exploitation postule (énonciation d'une hypothèse) et établit (vérification de l'hypothèse) que l'entreprise produit ses états financiers dans la perspective d'une poursuite normale de ses activités. Il y a rupture du principe de continuité de l'exploitation (qui devra alors être écartée au profit du principe de liquidation ou de cession) dans le cas de cessation d'activité, totale ou partielle, volontaire ou involontaire, ou la constatation de faits de nature à compromettre la continuité de l'exploitation. Ces faits concernent la situation financière, économique et sociale de l'entreprise et représentent l'ensemble des événements objectifs 33, survenus ou pouvant survenir, susceptibles d'affecter la poursuite de l'activité dans un avenir prévisible. A l'instar de tous les principes comptables, le principe de continuité de l'exploitation procède d'une considération purement théorique. Sa vérification requiert toutefois une analyse concrète, portant réellement et de manière mesurable à conséquence, raison pour laquelle il représente un thème de recherche fort apprécié en comptabilité positive, tant il peut (faussement) se confondre avec les études relatives à la banqueroute et la faillite des entreprises. Dans la pratique, certaines de ces études, basées sur des analyses multivariées discriminantes (VIDA), sont devenues pour l'auditeur de véritables outils de travail de par leur simplicité d'utilisation et d'interprétation. À travers la problématique de ce travail de thèse, il a été tenté de s'acquitter de nombreux objectifs pouvant être regroupés en deux ensembles : celui des objectifs liés à la démarche méthodologique et celui relevant de la mesure-calibration. Ces deux groupes-objectifs ont permis dans une dernière étape la construction d'un modèle se voulant une conséquence logique des choix et hypothèses retenus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ Plusieurs auteurs ont étudié la perception en fonction de la psychopathologie. Dans cette optique, Borgeat, David, Saucier et Dumont en 1994 et Borgeat, Sauvageau, David et Saucier en 1997 ont utilisé la méthode tachistoscopique afin de comparer, dans une étude prospective, la perception de stimuli émotionnels entre des femmes souffrant d'une dépression du post- partum et des femmes non atteintes. Par ailleurs, des études antérieures, notamment les travaux de MacLeod et Rutherford en 1992, avaient montré la possibilité d'un processus de perception différent entre sujets anxieux et non anxieux. L'étude actuelle pose l'hypothèse d'une interaction entre caractéristiques du stimulus et trouble anxieux du sujet. Cette hypothèse suppose donc un processus préconscient de l'information, avec analyse sémantique de cette dernière, à même d'influencer (inhiber ou faciliter) la perception de certains stimuli en fonction de leur charge affective. L'étude que nous présentons a pour but d'évaluer la perception de stimuli anxiogènes chez les patients atteints de troubles anxieux, et plus particulièrement chez des sujets souffrant d'attaque de panique et de troubles obsessionnels-compulsifs. A cette fin, nous avons choisi, contrairement à la plupart des études effectuées jusqu'à présent où la méthode Stroop avait été utilisée, la technique tachistoscopique qui, à notre avis, permet une mesure plus directe de la rapidité du processus perceptuel. Ainsi, trois groupes de sujets ont pris part à l'étude : un groupe contrôle (N = 22), un groupe de patients souffrant d'attaques de panique (N = 21) et un groupe de patients atteints de troubles obsessionnels-compulsifs (N = 20). Ces 63 sujets, âgés entre 18 et 60 ans, ont à la fois répondu au Fear Questionnaire ainsi qu'au Questionnaire Beck 13 pour la dépression et procédé à la reconnaissance de 42 mots (six groupes de sept mots) présentés aléatoirement à l'ordinateur, en cycles successifs de 15 millisecondes. Cinq parmi les six groupes de mots se référaient à un trouble anxieux spécifique, le sixième étant considéré comme un groupe de mots « neutres ». Le temps, en millisecondes, nécessaire à la reconnaissance de chaque mot a été enregistré. Les résultats montrent une lenteur de la part des patients souffrant d'attaques de panique pour la reconnaissance de tous les stimuli par rapport aux sujets contrôle, avec une performance intermédiaire entre les deux groupes pour les patients atteints de troubles obsessionnels-compulsifs. De plus, l'analyse statistique a révélé deux effets d'interaction : les patients atteints d'attaques de panique sont plus rapides à reconnaître le groupe de mots en rapport avec leur angoisse, de même que les patients soufflant de troubles obsessionnels- compulsifs ont un temps moyen de reconnaissance des mots en rapport avec leur trouble plus bas que prévu. Ces résultats amènent à une double conclusion. La première est que les patients anxieux manifestent une défense perceptuelle globale face aux stimuli anxiogènes en général, et que cette défense est plus marquée chez les patients atteints d'attaques de panique que chez les sujets souffrant de troubles obsessionnels-compulsifs. La deuxième est que ces mêmes patients, confrontés à des stimuli en rapport avec leur propre angoisse, montrent une vigilance accrue. Ainsi, ces données évoquent une double stratégie de traitement de l'information chez les patients anxieux : un évitement perceptuel général face à l'information émotionnellement chargée, et un traitement sélectif de l'information ayant un rapport direct avec l'angoisse dont ils soufflent. SUMMARY Prior research by MacLeod and Rutherford (1992) indicates that anxious subjects could have perceptual strategies different from nonanxious subjects. 42 verbal stimuli of six types (disease, social anxiety, panic, agoraphobia, obsessive-compulsive, and neutral) were tachistoscopically presented to three groups of subjects, aged 18 to 60 years: Panic Disorder group (n =21: 13 women and 8 men), and Obsessive-Compulsive Disorder group (n=20: 14 women and 6 men), recruited from an outpatient clinic, and a Control group (n=22: 14 women and 8 men), recruited among students and hospital staff. The times required for correct identification were generally longer for anxious subjects but quicker for stimuli specifically related to their disorder. The data could indicate a two-step perceptual strategy or two distinct ways of perceiving, usually, a generalized perceptual defense for a majority of anxiety-loaded stimuli, but also a selectively facilitated processing for stimuli specific to the disorder.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au moment où débutent les chasses aux sorcières, dans la première moitié du XVe siècle, des écrits de différente nature décrivent les méfaits des sectes de sorciers et tentent d'expliquer la possibilité et la réalité de leurs actes afin de donner aux tribunaux d'inquisition ou aux justices séculières un cadre d'action acceptable. Les traités de démonologie, qui prennent leur essor au même moment, ne proposent pas seulement une réflexion sur la nouvelle croyance au sabbat des sorcières, mais ils s'efforcent aussi de rassembler tout le savoir relatif au diable et aux démons et à leur pouvoir d'action sur le monde et sur les êtres humains. Ils examinent les relations possibles entre les démons et les hommes dans le cadre de la sorcellerie, de la magie ou de la possession, tout en indiquant les moyens de se protéger des attaques démoniaques.Les démonologues, experts dans la 'science des démons', cherchent à insérer la croyance au sabbat dans le cadre traditionnel de la démonologie chrétienne, qu'ils contribuent à redéfinir. Leurs écrits, qui sont à la fois des synthèses et des oeuvres de rupture, sont le produit d'une méthode intellectuelle pensée comme scientifique et rationnelle.La présente étude est basée sur l'analyse thématique de plusieurs traités de démonologie inédits, parmi lesquels le Tractatus contra invocatores demonum, du théologien dominicain Jean Vinet (c.1450), le Flagellum hereticorum fascinariorum de l'inquisiteur dominicain Nicolas Jacquier (1458), ainsi que le Flagellum maleficorum de Pierre Mamoris, professeur de théologie à Poitiers (avant 1462). Ces textes anticipent d'une trentaine d'années le contenu du fameux Marteau des sorcières (1486), considéré souvent à tort comme le premier traité du genre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse se propose d'étudier la question de la littérature dans l'oeuvre de Theodor W. Adorno. Elle fait apparaître la fonction utopique que le philosophe allemand attribue à la littérature en tant que celle-ci dessine l'horizon d'une « langue sans terre », ligne de fuite hors de la « Dialektik der Aufklàrung » et de l'autodestruction de la Raison. Tandis que le discours philosophique a sans cesse reproduit dans son appareil conceptuel la violence mythico- rationnelle à l'encontre du singulier non-identique, la langue littéraire semble en mesure d'indiquer la possibilité de parvenir par le concept au-delà du concept, ce qui constitue le désir utopique de la pensée comme dialectique négative. L'enjeu n'est pas seulement épistémique : il est bien éthico-politique, lié à la possibilité d'établir des rapports à l'autre libérés de la contrainte de l'identité.¦Dans les oeuvres littéraires dont il entreprend la lecture - qu'il s'agisse de celles d'Eichendorff, de Hôlderlin, de Proust, de Valéry, de Beckett ou encore de Kafka - Adorno ne cherche cependant pas une figure concrète de l'utopie, mais la trace de « ce qui nous appartient en propre et qui a été laissé en blanc» - aussi bien dans les textes que dans l'Histoire. La littérature porte alors en creux ce possible impossible dont la puissance hante le présent entre ses lignes ; elle est de la réconciliation ( Versôhnung) une image sans image, tout à la fois ressource de la critique radicale des conditions existantes et réserve du désir d'un autre à venir.¦A partir d'une esquisse du geste inaugural de l'utopie de la littérature dans le premier romantisme de Iéna, la thèse expose les enjeux philosophiques, esthétiques et politiques de la littérature dans la pensée adornienne, puis procède - et c'est là le coeur du travail - à une « lecture de lectures », à une traversée des essais qu'Adorno consacra, tout au long de sa vie, aux textes littéraires, pour trouver en ceux-ci les indices de l'utopie à l'oeuvre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La collaboration CLIC (Compact LInear Collider, collisionneur linéaire compact) étudie la possibilité de réaliser un collisionneur électron-positon linéaire à haute énergie (3 TeV dans le centre de masse) et haute luminosité (1034 cm-2s-1), pour la recherche en physique des particules. Le projet CLIC se fonde sur l'utilisation de cavités accélératrices à haute fréquence (30 GHz). La puissance nécessaire à ces cavités est fournie par un faisceau d'électrons de basse énergie et de haute intensité, appelé faisceau de puissance, circulant parallèlement à l'accélérateur linéaire principal (procédé appelé « Accélération à Double Faisceau »). Dans ce schéma, un des principaux défis est la réalisation du faisceau de puissance, qui est d'abord généré dans un complexe accélérateur à basse fréquence, puis transformé pour obtenir une structure temporelle à haute fréquence nécessaire à l'alimentation des cavités accélératrices de l'accélérateur linéaire principal. La structure temporelle à haute fréquence des paquets d'électrons est obtenue par le procédé de multiplication de fréquence, dont la manipulation principale consiste à faire circuler le faisceau d'électrons dans un anneau isochrone en utilisant des déflecteurs radio-fréquence (déflecteurs RF) pour injecter et combiner les paquets d'électrons. Cependant, ce type de manipulation n'a jamais été réalisé auparavant et la première phase de la troisième installation de test pour CLIC (CLIC Test Facility 3 ou CTF3) a pour but la démonstration à faible charge du procédé de multiplication de fréquence par injection RF dans un anneau isochrone. Cette expérience, qui a été réalisée avec succès au CERN au cours de l'année 2002 en utilisant une version modifiée du pré-injecteur du grand collisionneur électron-positon LEP (Large Electron Positron), est le sujet central de ce rapport. L'expérience de combinaison des paquets d'électrons consiste à accélérer cinq impulsions dont les paquets d'électrons sont espacés de 10 cm, puis à les combiner dans un anneau isochrone pour obtenir une seule impulsion dont les paquets d'électrons sont espacés de 2 cm, multipliant ainsi la fréquence des paquets d'électrons, ainsi que la charge par impulsion, par cinq. Cette combinaison est réalisée au moyen de structures RF résonnantes sur un mode déflecteur, qui créent dans l'anneau une déformation locale et dépendante du temps de l'orbite du faisceau. Ce mécanisme impose plusieurs contraintes de dynamique de faisceau comme l'isochronicité, ainsi que des tolérances spécifiques sur les paquets d'électrons, qui sont définies dans ce rapport. Les études pour la conception de la Phase Préliminaire du CTF3 sont détaillées, en particulier le nouveau procédé d'injection avec les déflecteurs RF. Les tests de haute puissance réalisés sur ces cavités déflectrices avant leur installation dans l'anneau sont également décrits. L'activité de mise en fonctionnement de l'expérience est présentée en comparant les mesures faites avec le faisceau aux simulations et calculs théoriques. Finalement, les expériences de multiplication de fréquence des paquets d'électrons sont décrites et analysées. On montre qu'une très bonne efficacité de combinaison est possible après optimisation des paramètres de l'injection et des déflecteurs RF. En plus de l'expérience acquise sur l'utilisation de ces déflecteurs, des conclusions importantes pour les futures activités CTF3 et CLIC sont tirées de cette première démonstration de la multiplication de fréquence des paquets d'électrons par injection RF dans un anneau isochrone.<br/><br/>The Compact LInear Collider (CLIC) collaboration studies the possibility of building a multi-TeV (3 TeV centre-of-mass), high-luminosity (1034 cm-2s-1) electron-positron collider for particle physics. The CLIC scheme is based on high-frequency (30 GHz) linear accelerators powered by a low-energy, high-intensity drive beam running parallel to the main linear accelerators (Two-Beam Acceleration concept). One of the main challenges to realize this scheme is to generate the drive beam in a low-frequency accelerator and to achieve the required high-frequency bunch structure needed for the final acceleration. In order to provide bunch frequency multiplication, the main manipulation consists in sending the beam through an isochronous combiner ring using radio-frequency (RF) deflectors to inject and combine electron bunches. However, such a scheme has never been used before, and the first stage of the CLIC Test Facility 3 (CTF3) project aims at a low-charge demonstration of the bunch frequency multiplication by RF injection into an isochronous ring. This proof-of-principle experiment, which was successfully performed at CERN in 2002 using a modified version of the LEP (Large Electron Positron) pre-injector complex, is the central subject of this report. The bunch combination experiment consists in accelerating in a linear accelerator five pulses in which the electron bunches are spaced by 10 cm, and combining them in an isochronous ring to obtain one pulse in which the electron bunches are spaced by 2 cm, thus achieving a bunch frequency multiplication of a factor five, and increasing the charge per pulse by a factor five. The combination is done by means of RF deflecting cavities that create a time-dependent bump inside the ring, thus allowing the interleaving of the bunches of the five pulses. This process imposes several beam dynamics constraints, such as isochronicity, and specific tolerances on the electron bunches that are defined in this report. The design studies of the CTF3 Preliminary Phase are detailed, with emphasis on the novel injection process using RF deflectors. The high power tests performed on the RF deflectors prior to their installation in the ring are also reported. The commissioning activity is presented by comparing beam measurements to model simulations and theoretical expectations. Eventually, the bunch frequency multiplication experiments are described and analysed. It is shown that the process of bunch frequency multiplication is feasible with a very good efficiency after a careful optimisation of the injection and RF deflector parameters. In addition to the experience acquired in the operation of these RF deflectors, important conclusions for future CTF3 and CLIC activities are drawn from this first demonstration of the bunch frequency multiplication by RF injection into an isochronous ring.<br/><br/>La collaboration CLIC (Compact LInear Collider, collisionneur linéaire compact) étudie la possibilité de réaliser un collisionneur électron-positon linéaire à haute énergie (3 TeV) pour la recherche en physique des particules. Le projet CLIC se fonde sur l'utilisation de cavités accélératrices à haute fréquence (30 GHz). La puissance nécessaire à ces cavités est fournie par un faisceau d'électrons de basse énergie et de haut courant, appelé faisceau de puissance, circulant parallèlement à l'accélérateur linéaire principal (procédé appelé « Accélération à Double Faisceau »). Dans ce schéma, un des principaux défis est la réalisation du faisceau de puissance, qui est d'abord généré dans un complexe accélérateur à basse fréquence, puis transformé pour obtenir une structure temporelle à haute fréquence nécessaire à l'alimentation des cavités accélératrices de l'accélérateur linéaire principal. La structure temporelle à haute fréquence des paquets d'électrons est obtenue par le procédé de multiplication de fréquence, dont la manipulation principale consiste à faire circuler le faisceau d'électrons dans un anneau isochrone en utilisant des déflecteurs radio-fréquence (déflecteurs RF) pour injecter et combiner les paquets d'électrons. Cependant, ce type de manipulation n'a jamais été réalisé auparavant et la première phase de la troisième installation de test pour CLIC (CLIC Test Facility 3 ou CTF3) a pour but la démonstration à faible charge du procédé de multiplication de fréquence par injection RF dans un anneau isochrone. L'expérience consiste à accélérer cinq impulsions, puis à les combiner dans un anneau isochrone pour obtenir une seule impulsion dans laquelle la fréquence des paquets d'électrons et le courant sont multipliés par cinq. Cette combinaison est réalisée au moyen de structures déflectrices RF qui créent dans l'anneau une déformation locale et dépendante du temps de la trajectoire du faisceau. Les résultats de cette expérience, qui a été réalisée avec succès au CERN au cours de l?année 2002 en utilisant une version modifiée du pré-injecteur du grand collisionneur électron-positon LEP (Large Electron Positon), sont présentés en détail.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L?objectif de ce travail de thèse est l?étude des changements conformationels des biomacromolecules à l?échelle d?une molécule unique. Pour cela on a utilisé la Microscopie à Force Atomique (AFM) appliqué à l?étude des protéines et des acides nucléiques déposés sur une surface. Dans ce type de microscopie, une pointe très fine attachée à l?extrémité d?un levier est balayée au dessus d?une surface. L?interaction de la pointe avec la surface de l?échantillon induit la déflection du levier et ce phénomène permet de reconstruire la topographie de l?échantillon. Très importante dans cette technique est la possibilité de travailler en liquide. Cela permet de étudier les biomolécules en conditions quasi-physiologiques sans qu?elles perdent leur activité. On a étudié GroEL, la chaperonin de E.coli, qui est un homo oligomère avec une structure à double anneau qui joue un rôle très important dans le repliement des protéines dénaturées et celles qui viennent d?être synthétisées. En particulier on a focalisé notre attention sur la stabilité mécanique et sur les changements conformationels qui ont lieu pendant l?activité de GroEL. Une analyse détaillée des changements dans la stabilité mécanique et des effets produits par la liaison et l?hydrolyse de l?ATP est présentée dans ce travail. On a montré que le point le plus faible dans la structure de GroEL est l?interface entre les deux anneaux et que l?étape critique dans l?affaiblissement de la structure est l?hydrolyse de l?ATP. En ce qui concerne le changement conformationel, le passage d?une surface hydrophobe à hydrophile, induit par l?hydrolyse de l?ATP, a été montré. Ensuite on a étudié le changement dans la conformation et dans la topologie de l?ADN résultant de l?interaction avec des molécules spécifiques et en réponse à l?exposition des cellules de E.coli à des conditions de stress. Le niveau de surenroulement est un paramètre très sensible, de façon variée, à tous ces facteurs. Les cellules qui ont crus à de températures plus élevées que leur température optimale ont la tendance à diminuer le nombre de surenroulements négatif pour augmenter la stabilité thermique de leur plasmides. L?interaction avec des agents intercalant induit une transition d?un surenroulement négatif à un surenroulement positif d?une façon dépendante de la température. Finalement, l?effet de l?interaction de l?ADN avec des surfaces différentes a été étudié et une application pratique sur les noeuds d?ADN est présentée.<br/><br/>The aim of the present thesis work is to study the conformational changes of biomacromolecules at the single molecule level. To that end, Atomic Force Microcopy (AFM) imaging was performed on proteins and nucleic acids adsorbed onto a surface. In this microcopy technique a very sharp tip attached at the end of a soft cantilever is scanned over a surface, the interaction of the tip with the sample?s surface will induce the deflection of the cantilever and thus it will make possible to reconstruct the topography. A very important feature of AFM is the possibility to operate in liquid, it means with the sample immersed in a buffer solution. This allows one to study biomolecules in quasi-physiological conditions without loosing their activity. We have studied GroEL, the chaperonin of E.coli, which is a double-ring homooligomer which pays a very important role in the refolding of unfolded and newly synthetized polypeptides. In particular we focus our attention on its mechanical stability and on the conformational change that it undergoes during its activity cycle. A detailed analysis of the change in mechanical stability and how it is affected by the binding and hydrolysis of nucleotides is presented. It has been shown that the weak point of the chaperonin complex is the interface between the two rings and that the critical step to weaken the structure is the hydrolysis of ATP. Concerning the conformational change we have directly measured, with a nanometer scale resolution, the switching from a hydrophobic surface to a hydrophilic one taking place inside its cavity induced by the ATP hydrolysis. We have further studied the change in the DNA conformation and topology as a consequence of the interaction with specific DNA-binding molecules and the exposition of the E.coli cells to stress conditions. The level of supercoiling has been shown to be a very sensitive parameter, even if at different extents, to all these factors. Cells grown at temperatures higher than their optimum one tend to decrease the number of the negative superhelical turns in their plasmids in order to increase their thermal stability. The interaction with intercalating molecules induced a transition from positive to negative supercoiling in a temperature dependent way. The effect of the interaction of the DNA with different surfaces has been investigated and a practical application to DNA complex knots is reported.<br/><br/>Observer les objets biologiques en le touchant Schématiquement le Microscope a Force Atomique (AFM) consiste en une pointe très fine fixée a l?extrémité d?un levier Lors de l?imagerie, la pointe de l?AFM gratte la surface de l?échantillon, la topographie de celui-ci induit des déflections du levier qui sont enregistrées au moyen d?un rayon laser réfléchi par le levier. Ces donnés sont ensuit utilisés par un ordinateur pour reconstituer en 3D la surface de l?échantillon. La résolution de l?instrument est fonction entre autre de la dureté, de la rugosité de l?échantillon et de la forme de la pointe. Selon l?échantillon et la pointe utilisée la résolution de l?AFM peut aller de 0.1 A (sur des cristaux) a quelque dizaine de nanomètres (sur des cellules). Cet instrument est particulierment intéressant en biologie en raison de sa capacité à imager des échantillons immergés dans un liquide, c?est à dire dans des conditions quasiphysiologiques. Dans le cadre de ce travail nous avons étudié les changements conformationels de molécules biologiques soumises à des stimulations externes. Nous avons essentielment concentré notre attention sur des complexes protéiques nommé Chaperons Moléculaires et sur des molécules d?ADN circulaire (plasmides). Les Chaperons sont impliqués entre autre dans la résistance des organismes vivants aux stress thermiques et osmotiques. Leur activité consiste essentielment à aider les autres protéines à être bien pliés dans leur conformation finale et, en conséquence, à eviter que ils soient dénaturées et que ils puissent s?agréger. L?ADN, quant à lui est la molécule qui conserve, dans sa séquence, l?information génétique de tous les organismes vivants. Ce travail a spécifiquement concerné l?étude des changements conformationels des chaperonins suit a leur activation par l?ATP. Ces travaux ont montrés a l?échelle de molécule unique la capacité de ces protéines de changer leur surface de hydrophobique a hydrophilique. Nous avons également utilisé l?AFM pour étudier le changement du nombre des surenroulements des molécules d?ADN circulaire lors d?une exposition à un changement de température et de force ionique. Ces travaux ont permis de montrer comment la cellule regle le nombre de surenroulements dans ces molécules pour répondre et contrôler l?expression génétique même dans de conditions extrêmes. Pour les deux molécules en général, c?était très important d?avoir la possibilité de observer leur transitions d?une conformation a l?autre directement a l?échelle d?une seul molécule et, surtout, avec une résolution largement au dessous des la longueur d?onde de la lumière visible que représente le limite pour l?imagerie optique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1. Abstract Cervical cancer is thought to be the consequence of infection by human papillomaviruses (HPV). In the majority of cases, DNA from HPV type 16 (HPV16) is found in malignant cervical lesions. The initial steps leading to transformation of an infected cell are not clearly understood but in most cases, disruption and integration of the episomal viral DNA must take place. As a consequence, the E2 and E4 genes are usually not expressed whereas the E6 and E7 oncogenes are highly expressed. However, in a normal infection in which the viral DNA is maintained as an episome, all viral genes are expressed. The pattern according to which the viral proteins are made, and therefore the life cycle of the virus, is tightly linked to the differentiation process of the host keratinocyte. The study of the viral oncogenes E6 and E7 has revealed crucial functions in the process of malignant transformation such as degradation of the p53 tumor suppressor protein, deregulation of the Retinoblastoma protein pathway and activation of the telomerase ribonucleoprotein. All these steps are necessary for cancerous lesions to develop. However, the loss of the E2 gene product seems to be necessary for sufficient expression of E6 and E7 in order to achieve such effects. In normal infections, the E4 protein is made abundantly in the later stages of the viral life cycle. Though extensive amounts of work have been carried out to define the function of E4, it still remains unclear. In this study, several approaches have been used to try and determine the functions of E4. First, a cell-penetrating fusion protein was designed and produced in order to circumvent the chronic difficulties of expressing E4 in mammalian cells. Unfortunately, this approach was not successful due to precipitation of the purified fusion protein. Second, the observation that E4 accumulates in cells having modified their adhesion properties led to the hypothesis that E4 might be involved in the differentiation process of keratinocytes. Preliminary results suggest that E4 triggers differentiation. Last, as E4 has been reported to collapse the cytokeratin network of keratinocytes, a direct approach using atomic force microscopy has allowed us to test the potential modification of mechanical properties of cells harboring reorganized cytokeratin networks. If so, a potential role for E4 in viral particle release could be hypothesized. 2. Résumé Il a été établi que le cancer du col de l'utérus se développe essentiellement à la suite d'une infection par le virus du papillome humain (HPV). Dans la majorité des cas analysés, de l'ADN du HPV de type 16 (HPV16) est détecté. Les étapes initiales de la transformation d'une cellule infectée sont mal connues mais il semble qu'une rupture du génome viral, normalement épisomal, suivi d'une intégration dans le génome de la cellule hôte soient des étapes nécessaires dans la plupart des cas. Or il semble qu'il y ait une sélection pour les cas où l'expression des oncogènes viraux E6 et E7 soit favorisée alors que l'expression des gènes E2 et E4 est en général impossible. Par contre, dans une infection dite normale où le génome viral n'est pas rompu, il n'y pas développement de cancer et tous les gènes viraux sont exprimés. L'ordre dans lequel les protéines virales sont produites, et donc le cycle de réplication du virus, est intimement lié au processus de différentiation de la cellule hôte. L'étude des protéines oncogènes E6 et E7 a révélé des fonctions clés dans le processus de transformation des cellules infectées telles que la dégradation du suppresseur de tumeur p53, la dérégulation de la voie de signalisation Rb ainsi que l'activation de la télomérase. Toutes ces activités sont nécessaires au développement de lésions cancéreuses. Toutefois, il semble que l'expression du gène E2 doit être empêchée afin que suffisamment des protéines E6 et E7 soient produites. Lorsque le gène E2 est exprimé, et donc lorsque le génome viral n'est pas rompu, les protéines E6 et E7 n'entraînent pas de telles conséquences. Le gène E4, qui se trouve dans la séquence codante de E2, a aussi besoin d'un génome viral intact pour être exprimé. Dans une infection normale, le gène E4 est exprimé abondamment dans les dernières étapes de la réplication du virus. Bien que de nombreuses études aient été menées afin de déterminer la fonction virale à E4, aucun résultat n'apparaît évident. Dans ce travail, plusieurs approches ont été utilisées afin d'adresser cette question. Premièrement, une protéine de fusion TAT-E4 a été produite et purifiée. Cette protéine, pouvant entrer dans les cellules vivantes par diffusion au travers de la membrane plasmique, aurait permis d'éviter ainsi les problèmes chroniques rencontrés lors de l'expression de E4 dans les cellules mammifères. Malheureusement, cette stratégie n'a pas pu être utilisée à cause de la précipitation de la protéine purifiée. Ensuite, l'observation que E4 s'accumule dans les cellules ayant modifié leurs propriétés d'adhésion a suggéré que E4 pourrait être impliqué dans le procédé de différentiation des kératinocytes. Des résultats préliminaires supportent cette possibilité. Enfin, il a été montré que E4 pouvait induire une réorganisation du réseau des cytokératines. Une approche directe utilisant le microscope à force atomique nous a ainsi permis de tester une potentielle modification des propriétés mécaniques de cellules ayant modifié leur réseau de cytokératines en présence de E4. Si tel est le cas, un rôle dans la libération de particules virales peut être proposé pour E4.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.