998 resultados para troubles de la communication
Resumo:
Les carences en compétences en santé touchent principalement certaines populations à risques en limitant l'accès aux soins, l'interaction avec les soignants et l'autoprise en charge. L'utilisation systématique d'instruments de dépistage n'est pas recommandée et les interventions préconisées en pratique consistent plutôt à diminuer les obstacles entravant la communication patient-soignant. Il s'agit d'intégrer non seulement les compétences de la population en matière de santé mais aussi les compétences communicationnelles d'un système de santé qui se complexifie. Health literacy is defined as "the degree to which individuals have the capacity to obtain, process, and understand basic health information and services needed to make appropriate health decisions." Low health literacy mainly affects certain populations at risk limiting access to care, interaction with caregivers and self-management. If there are screening tests, their routine use is not advisable and recommended interventions in practice consist rather to reduce barriers to patient-caregiver communication. It is thus important to include not only population's health literacy but also communication skills of a health system wich tend to become more complex.
Resumo:
The proportion of population living in or around cites is more important than ever. Urban sprawl and car dependence have taken over the pedestrian-friendly compact city. Environmental problems like air pollution, land waste or noise, and health problems are the result of this still continuing process. The urban planners have to find solutions to these complex problems, and at the same time insure the economic performance of the city and its surroundings. At the same time, an increasing quantity of socio-economic and environmental data is acquired. In order to get a better understanding of the processes and phenomena taking place in the complex urban environment, these data should be analysed. Numerous methods for modelling and simulating such a system exist and are still under development and can be exploited by the urban geographers for improving our understanding of the urban metabolism. Modern and innovative visualisation techniques help in communicating the results of such models and simulations. This thesis covers several methods for analysis, modelling, simulation and visualisation of problems related to urban geography. The analysis of high dimensional socio-economic data using artificial neural network techniques, especially self-organising maps, is showed using two examples at different scales. The problem of spatiotemporal modelling and data representation is treated and some possible solutions are shown. The simulation of urban dynamics and more specifically the traffic due to commuting to work is illustrated using multi-agent micro-simulation techniques. A section on visualisation methods presents cartograms for transforming the geographic space into a feature space, and the distance circle map, a centre-based map representation particularly useful for urban agglomerations. Some issues on the importance of scale in urban analysis and clustering of urban phenomena are exposed. A new approach on how to define urban areas at different scales is developed, and the link with percolation theory established. Fractal statistics, especially the lacunarity measure, and scale laws are used for characterising urban clusters. In a last section, the population evolution is modelled using a model close to the well-established gravity model. The work covers quite a wide range of methods useful in urban geography. Methods should still be developed further and at the same time find their way into the daily work and decision process of urban planners. La part de personnes vivant dans une région urbaine est plus élevé que jamais et continue à croître. L'étalement urbain et la dépendance automobile ont supplanté la ville compacte adaptée aux piétons. La pollution de l'air, le gaspillage du sol, le bruit, et des problèmes de santé pour les habitants en sont la conséquence. Les urbanistes doivent trouver, ensemble avec toute la société, des solutions à ces problèmes complexes. En même temps, il faut assurer la performance économique de la ville et de sa région. Actuellement, une quantité grandissante de données socio-économiques et environnementales est récoltée. Pour mieux comprendre les processus et phénomènes du système complexe "ville", ces données doivent être traitées et analysées. Des nombreuses méthodes pour modéliser et simuler un tel système existent et sont continuellement en développement. Elles peuvent être exploitées par le géographe urbain pour améliorer sa connaissance du métabolisme urbain. Des techniques modernes et innovatrices de visualisation aident dans la communication des résultats de tels modèles et simulations. Cette thèse décrit plusieurs méthodes permettant d'analyser, de modéliser, de simuler et de visualiser des phénomènes urbains. L'analyse de données socio-économiques à très haute dimension à l'aide de réseaux de neurones artificiels, notamment des cartes auto-organisatrices, est montré à travers deux exemples aux échelles différentes. Le problème de modélisation spatio-temporelle et de représentation des données est discuté et quelques ébauches de solutions esquissées. La simulation de la dynamique urbaine, et plus spécifiquement du trafic automobile engendré par les pendulaires est illustrée à l'aide d'une simulation multi-agents. Une section sur les méthodes de visualisation montre des cartes en anamorphoses permettant de transformer l'espace géographique en espace fonctionnel. Un autre type de carte, les cartes circulaires, est présenté. Ce type de carte est particulièrement utile pour les agglomérations urbaines. Quelques questions liées à l'importance de l'échelle dans l'analyse urbaine sont également discutées. Une nouvelle approche pour définir des clusters urbains à des échelles différentes est développée, et le lien avec la théorie de la percolation est établi. Des statistiques fractales, notamment la lacunarité, sont utilisées pour caractériser ces clusters urbains. L'évolution de la population est modélisée à l'aide d'un modèle proche du modèle gravitaire bien connu. Le travail couvre une large panoplie de méthodes utiles en géographie urbaine. Toutefois, il est toujours nécessaire de développer plus loin ces méthodes et en même temps, elles doivent trouver leur chemin dans la vie quotidienne des urbanistes et planificateurs.
Resumo:
Messages à retenir: Connaître le principe des principales chirurgies du segment I de l'aorte (Tirone David, Ross, Bentall..). Le scanner MD est l'imagerie clé pour visualiser la réimplantation des coronaires natives ou un pontage associé. Le protocole scanographique le plus courant est une acquisition synchronisée en mode prospectif. Le mode rétrospectif peut être utilisé en cas de suspicion de dysfonction d'une valve mécanique. Après une TAVI, le scanner est un examen clé pour juger de la hauteur, de la circularité, de l'adossement de la prothèse et de son rapport avec les coronaires. Résumé: Les aspects post opératoires de l'aorte ascendante sont au mieux étudiés par un scanner multidétecteur injecté avec synchronisation ECG. Le mode prospectif avec bas kilovoltage est privilégié pour réduire la dose dans cette population majoritairement jeune. La communication avec l'équipe chirurgicale est importante pour l'analyse des images (le radiologue doit connaître le type de montage effectué). Parmi les gestes de cardiologie interventionnelle, la TAVI est devenue courante et les éléments de contrôle de la procédure par le scanner doivent être connus.
Resumo:
Rapport de synthèseLes troubles de la glycosylation (Congenital Disorders of Glycosylation, CDG) regroupent une famille de maladies multi-systémiques héréditaires causées par des défauts dans la synthèse de glycoconjugés. La glycosylation est une réaction enzymatique consistant à lier de façon covalente un glucide à une chaîne peptidique ou une protéine. Il existe deux types de glycosylation. La N-gjycosylation est l'addition de glucides aux chaînes peptidiques en croissance dès leur entrée dans la lumière du réticulum endoplasmique. Elle s'effectue sur les futures glycoprotéines membranaires et conduit à des chaînes de sucres courtes et ramifiées. La O-glycosylation est l'addition de glucides au niveau des résidus hydroxylés des acides aminés sérine et thréonine des chaînes peptidiques déjà présentes dans la lumière de l'appareil de Golgi. Elle est, dans la plupart des cas, effectuée sur îes protéoglycanes et conduit à des chaînes de sucres longues et non ramifiées. La classification des CDG repose sur le niveau de l'étape limitante de la glycosylation. Les CDG de type 1, plus fréquents, regroupent les déficits enzymatiques se situant en amont du transfert de Poligosaccharide sur la chaîne peptidique. Les CDG de type 2 regroupent ceux ayant lieu en aval de ce transfert. Parmi les nombreux différents sous-types de CDG, le CDG de type ld est causé par une anomalie de la mannosyltransferase, enzyme codée par le gène ALG3 (chromosome 3q27). Jusqu'à ce jour, six patients atteints de CDG ld ont été reportés dans la littérature. Notre travail a permis de décrire un septième patient et d'affiner les caractéristiques cliniques, biologiques, neuroradiologiques et moléculaires du CDG ld. Notre patient est notamment porteur d'une nouvelle mutation de type missense sur le gène ALG3. Tous les patients atteints de CDG ld présentent une encéphalopathie progressive avec microcéphalie, retard psychomoteur sévère et épilepsie. Une ostéopénie marquée est présente chez certains patients. Elle est parfois sous diagnostiquée et révélée uniquement lors de fracture pathologique. Les patients atteints de CDG ld présentent également des traits dysmorphiques typiques, mais aucune atteinte multi-systémique ou anomalie biologique spécifique n'est retrouvée telle que dans les autres types de CDG. Le dépistage biochimique des troubles de la glycosylation se fait par une analyse simple et peu coûteuse qui est l'analyse de la transferrine sérique par isoelectrofocusing ou par électrophorèse capillaire. Un tel dépistage devrait être effectué chez tout patient présentant une encéphalopathie d'origine indéterminée, et cela même en l'absence d'atteinte multi- systémique. Notre travail a été publié sous forme d'article de type « short report », peer-reviewed, dans le Journal of Inherited Metabolic Diseases. Le Journal est une révue spécialisée du domaine des erreirs innées du métabolisme. S'agissant d'un seul patient rapporté, l'article ne montre que très synthétiquement le travail effectué, Pour cette raison un complément à l'article avec matériel, méthodes et résultats figure ci-après et concerne la partie de recherche moléculaire de notre travail. La doctorante a non seulement encadré personnellement le patient au niveau clinique et biochimique, mais a plus particulièrement mis au point l'analyse moléculaire du gène ALG3 dans le laboratoire de Pédiatrie Moléculaire pour la première fois ; cela a impliqué l'étude du gène, le choix des oligonucleotides et l'optimisation des réactions d'amplification et séquençage.
Resumo:
This research project conducted in the Psychology Department of the University of Lausanne (Switzerland) evaluated the therapeutic alliance with Hispanic American Patients. From the patient's perspective, the therapeutic alliance was explored in two types of frameworks: the dyadic and the triadic setting. The dyadic setting is the encounter between a therapist (health professional) and a patient who ideally share the same language. The triadic setting is the encounter of a therapist and a patient who speak different languages, but are able to interact using the help of an interpreter. My specific interest focuses on studying the therapeutic alliance in a cross- cultural setting through a mixed methodology. As part of the quantitative phase, non- parametric tests were used to analyze 55 questionnaires of the Therapeutic Alliance for Migrants - Health Professionals' version (QALM-PS). For the qualitative phase, a thematic analysis was used to analyze 20 transcript interviews. While no differences were found concerning the strength of the therapeutic alliance between the triadic and dyadic settings, results showed that the factors that enrich the therapeutic alliance with migrant patients depend more on an emotional alliance (bond) than on a rational alliance (agreements). Indeed, the positive relationship with the interpreter, and especially with the therapist, relies considerably on human qualities and moral values, bringing the conception of humanity as an important need when meeting foreign patients in health care settings. In addition, the quality of communication, which could be attributed to the type of interpreter in the triadic setting, plays an important role in the establishment of a positive therapeutic relationship. Ce projet de recherche mené au Département de psychologie de l'Université de Lausanne (Suisse) a évalué l'alliance thérapeutique avec les patients hispano-américains. Du point de vue du patient, l'alliance thérapeutique a été étudiée dans deux types de dispositifs: le cadre dyadique et triadique. Le cadre dyadique est la rencontre d'un thérapeute (professionnel de la santé) et d'un patient qui, idéalement, partagent la même langue. Le cadre triadique est la rencontre d'un thérapeute et d'un patient qui parlent différentes langues, mais sont capables d'interagir grâce à l'aide d'un interprète. Mon intérêt porte en particulier sur l'étude de l'alliance thérapeutique dans un cadre interculturel au travers d'une méthodologie mixte. Dans la phase quantitative, des tests non paramétriques ont été utilisés pour les analyses des 55 questionnaires de l'alliance thérapeutique pour les migrants, version - professionnels de la santé (QALM-PS). Pour la phase qualitative, une analyse thématique a été utilisée pour l'analyse des 20 entretiens transcrits. Bien qu'aucune différence n'a été constatée en ce qui concerne la force de l'alliance thérapeutique entre les cadres dyadiques et triadiques, les résultats montrent que les facteurs qui enrichissent l'alliance thérapeutique avec les patients migrants dépendent plus de l'alliance émotionnelle (lien) que sur une alliance rationnelle (accords). En effet, la relation positive avec l'interprète, et en particulier avec le thérapeute, repose en grande partie sur des qualités humaines et des valeurs morales, ce qui porte la conception de l'humanité comme un besoin important lors de la rencontre des patients étrangers dans un cadre de santé. En outre, la qualité de la communication, qui pourrait être attribuée au type d'interprète dans le cadre triadique, joue un rôle important dans l'établissement d'une relation thérapeutique positive.
Resumo:
La crise de l'Université de Genève en 2006, dont les conséquences entraîneront la démission du rectorat et inciteront les autorités politiques à réformer l'Université, est caractéristique des crises liées à la divulgation et à la gestion de l'information, situations dans lesquelles gestion et communication de crise ne peuvent pas être dissociées. Ce type de situations est de plus en plus fréquent et a surtout des conséquences importantes dans la confiance que peuvent avoir les citoyens par rapport aux institutions politiques et administratives, les conséquences matérielles ou les dommages à des personnes étant généralement très limités. Cette contribution, par l'analyse des publications de 3 quotidiens et d'un journal dominical, ainsi que des documents et communications officiels au cours de la période de crise et des mois suivants, vise principalement à mettre en évidence les caractéristiques et les erreurs liées à ce type de crises vu sous l'angle de la communication média. Die Krise der Universität Genf im Jahre 2006, welche den Rücktritt des gesamten Rektorats zur Folge hatte und die Universitätsreform durch die Behörden vorantrieb, weist die typischen Merkmale einer Krise auf, welche mit der Informationsverbreitung und deren Management verknüpft ist. Dies sind Situationen in welchen das Krisenmanagement und die Krisenkommunikation nicht voneinander getrennt werden sollten. Solche Ereignisse sind immer häufiger und können bedeutende Konsequenzen für das Vertrauen der Bürger und Bürgerinnen in die politischen Institutionen haben. Indessen sind materielle Auswirkungen oder personelle Schädigungen sehr beschränkt. Der vorliegende Beitrag ist eine Analyse dreier Tageszeitungen und einer Sonntagszeitung sowie offiziellen Dokumenten und Medienmitteilungen, welche während der Krise und einige Monate danach publiziert wurden. Der Bericht erläutert und unterstreicht, anhand einer medienkommunikativen Sichtweise, die Merkmale und Fehler, welche mit einer solchen Krise in Zusammenhang stehen.
Resumo:
La Commission européenne soutient le projet NanoImpactNet - réseau européen sur l'impact des nanomatériaux sur l'environnement et la santé - afin de coordonner la recherche sur le développement sûr et responsable des nanomatériaux. Depuis avril 2008, NanoImpactNet a organisé 14 conférences/ateliers pour toxicologues et écotoxicologues universitaires, sans oublier les hygiénistes des industries fabriquant et utilisant les nanomatériaux en Europe, les fonctionnaires gouvernementaux et la société civile. La communication entre ces 260 membres et toutes les parties prenantes touchées par cette technnologie transversale est impérative, surtout pour les travailleurs en contact direct avec ces matériaux innovants. www.nanoimpactnet.eu
Resumo:
Le monde de l'action humanitaire a connu des développements importants durant les dernières décennies. Sur les terrains d'interventions, les crises et les conflits se sont fortement complexifiés, nécessitant la participation de spécialistes de nombreux domaines. Par ailleurs, les volumes financiers générés par les campagnes de dons et mis à disposition par les bailleurs de fonds ont considérablement augmenté. En corollaire de cette croissance financière, les exigences de contrôle et de traçabilité des fonds se sont renforcées. En lien avec ces éléments, le nombre de salariés dans les grandes organisations non gouvernementales a augmenté de manière exponentielle. Une littérature spécifique sur les modalités d'évaluation des performances, le management et le « leadership » des organisations dites du « tiers secteur » a d'ailleurs vu le jour, comme l'illustre la naissance, en 1990, de la revue « Nonprofit Management and Leadership ». Les pays bénéficiaires de l'aide ont également développé des exigences spécifiques envers les projets mis en oeuvre par les ONG. Par des phénomènes de « socialisation des standards occidentaux », ces derniers attendent des acteurs internationaux un certain niveau de qualité des programmes.Pour s'adapter à ces évolutions et répondre aux exigences d'efficacité auxquelles elles sont soumises, les organisations d'aide ont dû se transformer. Les grandes organisations ont ainsi connu durant les dernières décennies un mouvement de professionnalisation de leur structure, les conduisant à se rapprocher d'un modèle de fonctionnement que nous nommerons ici « institutionnel », à savoir formalisé et organisé. Nous employons ici le terme de professionnalisation dans l'appréciation qu'en font les acteurs du milieu humanitaire, à savoir en ce qu'il désigne « les restructurations internes auxquelles leurs organisations font face depuis la fin des années 1980 ». Différents indicateurs de cette professionnalisation au sein des ONG peuvent être identifiés, notamment une plus forte division du travail, le développement de statuts spécifiques, la salarisation croissante des métiers de l'humanitaire ou encore le recours aux fonds publics.Une conséquence également de cette évolution est l'entrée de nouveaux métiers sur la scène humanitaire. À côté des professions traditionnellement à l'origine des ONG (médecins, ingénieurs, juristes, etc.), la complexification et la diversification des tâches a rendu nécessaire de faire appel à des compétences professionnelles spécifiques dans des domaines tels que la communication, l'informatique ou la finance, pour ne citer que quelques exemples. Des connaissances et des pratiques spécifiques en matière de management des ONG se sont développées depuis la fin des années 1990. Le métier de logisticien est apparu, lequel est enseigné dans des structures spécialisées (par exemple par l'association Bioforce en France). Des formations académiques spécialisées dans le domaine de l'humanitaire et de la coopération ont également vu le jour, avec le but affiché de former des professionnels spécialistes de l'humanitaire. On peut par exemple citer le PIAH en Suisse (Programme interdisciniplinaire en action humanitaire, 2011), ou encore les formations dispensées par le CIHC aux États-Unis. [auteur]
Resumo:
Rapport de synthèseLe syndrome d'apnées obstructives du sommeil (SAOS) est une pathologie respiratoire fréquente. Sa prévalence est estimée entre 2 et 5% de la population adulte générale. Ses conséquences sont importantes. Notamment, une somnolence diurne, des troubles de la concentration, des troubles de la mémoire et une augmentation du risque d'accident de la route et du travail. Il représente également un facteur de risque cardiovasculaire indépendant.Ce syndrome est caractérisé par la survenue durant le sommeil d'obstructions répétées des voies aériennes supérieures. L'arrêt ou la diminution d'apport en oxygène vers les poumons entraîne des épisodes de diminution de la saturation en oxygène de l'hémoglobine. Les efforts ventilatoires visant à lever l'obstacle présent sur les voies aériennes causent de fréquents réveils à l'origine d'une fragmentation du sommeil.La polysomnographie (PSG) représente le moyen diagnostic de choix. Il consiste en l'enregistrement dans un laboratoire du sommeil et en présence d'un technicien diplômé, du tracé électroencéphalographique (EEG), de l'électrooculogramme (EOG), de l'électromyogramme mentonnier (EMG), du flux respiratoire nasal, de l'oxymétrie de pouls, de la fréquence cardiaque, de l'électrocardiogramme (ECG), des mouvements thoraciques et abdominaux, de la position du corps et des mouvements des jambes. L'examen est filmé par caméra infrarouge et les sons sont enregistrés.Cet examen permet entre autres mesures, de déterminer les événements respiratoires obstructifs nécessaires au diagnostic de syndrome d'apnée du sommeil. On définit une apnée lors d'arrêt complet du débit aérien durant au moins 10 secondes et une hypopnée en cas, soit de diminution franche de l'amplitude du flux respiratoire supérieure à 50% durant au moins 10 secondes, soit de diminution significative (20%) de l'amplitude du flux respiratoire pendant au minimum 10 secondes associée à un micro-éveil ou à une désaturation d'au moins 3% par rapport à la ligne de base. La détection des micro-éveils se fait en utilisant les dérivations électroencéphalographiques, électromyographiques et électrooculographiques. Il existe des critères visuels de reconnaissance de ces éveils transitoire: apparition de rythme alpha (8.1 à 12.0 Hz) ou beta (16 à 30 Hz) d'une durée supérieure à 3 secondes [20-21].Le diagnostic de S AOS est retenu si l'on retrouve plus de 5 événements respiratoires obstructifs par heure de sommeil associés soit à une somnolence diurne évaluée selon le score d'Epworth ou à au moins 2 symptômes parmi les suivants: sommeil non réparateur, étouffements nocturne, éveils multiples, fatigue, troubles de la concentration. Le S AOS est gradué en fonction du nombre d'événements obstructifs par heure de sommeil en léger (5 à 15), modéré (15 à 30) et sévère (>30).La polysomnographie (PSG) comporte plusieurs inconvénients pratiques. En effet, elle doit être réalisée dans un laboratoire du sommeil avec la présence permanente d'un technicien, limitant ainsi son accessibilité et entraînant des délais diagnostiques et thérapeutiques. Pour ces mêmes raisons, il s'agit d'un examen onéreux.La polygraphie respiratoire (PG) représente l'alternative diagnostique au gold standard qu'est l'examen polysomnographique. Cet examen consiste en l'enregistrement en ambulatoire, à savoir au domicile du patient, du flux nasalrespiratoire, de l'oxymétrie de pouls, de la fréquence cardiaque, de la position du corps et du ronflement (par mesure de pression).En raison de sa sensibilité et sa spécificité moindre, la PG reste recommandée uniquement en cas de forte probabilité de SAOS. Il existe deux raisons principales à l'origine de la moindre sensibilité de l'examen polygraphique. D'une part, du fait que l'état de veille ou de sommeil n'est pas déterminé avec précision, il y a dilution des événements respiratoires sur l'ensemble de l'enregistrement et non sur la période de sommeil uniquement. D'autre part, en l'absence de tracé EEG, la quantification des micro-éveils est impossible. Il n'est donc pas possible dans l'examen poly graphique, de reconnaître une hypopnée en cas de diminution de flux respiratoire de 20 à 50% non associée à un épisode de désaturation de l'hémoglobine de 3% au moins. Alors que dans l'examen polysomnographique, une telle diminution du flux respiratoire pourrait être associée à un micro-éveil et ainsi comptabilisée en tant qu'hypopnée.De ce constat est né la volonté de trouver un équivalent de micro-éveil en polygraphie, en utilisant les signaux à disposition, afin d'augmenter la sensibilité de l'examen polygraphique.Or plusieurs études ont démontrés que les micro-éveils sont associés à des réactions du système nerveux autonome. Lors des micro-éveils, on met en évidence la survenue d'une vasoconstriction périphérique. La variation du tonus sympathique associée aux micro-éveils peut être mesurée par différentes méthodes. Les variations de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie représentant un marqueur fiable de la vasoconstriction périphérique associée aux micro-réveils, il paraît donc opportun d'utiliser ce marqueur autonomique disponible sur le tracé des polygraphies ambulatoires afin de renforcer la sensibilité de cet examen.Le but de l'étude est d'évaluer la sensibilité des variations de l'amplitude de l'onde de pouls pour détecter des micro-réveils corticaux afin de trouver un moyen d'augmenter la sensibilité de l'examen polygraphique et de renforcer ainsi sont pouvoir diagnostic.L'objectif est de démontrer qu'une diminution significative de l'amplitude de l'onde pouls est concomitante à une activation corticale correspondant à un micro¬réveil. Cette constatation pourrait permettre de déterminer une hypopnée, en polygraphie, par une diminution de 20 à 50% du flux respiratoire sans désaturation de 3% mais associée à une baisse significative de l'amplitude de pouls en postulant que l'événement respiratoire a entraîné un micro-réveil. On retrouve par cette méthode les mêmes critères de scoring d'événements respiratoires en polygraphie et en polysomnographie, et l'on renforce la sensibilité de la polygraphie par rapport au gold standard polysomnographique.La méthode consiste à montrer en polysomnographie qu'une diminution significative de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie est associée à une activation du signal électroencéphalographique, en réalisant une analyse spectrale du tracé EEG lors des baisses d'amplitude du signal d'onde de pouls.Pour ce faire nous avons réalisé une étude rétrospective sur plus de 1000 diminutions de l'amplitude de l'onde de pouls sur les tracés de 10 sujets choisis de manière aléatoire parmi les patients référés dans notre centre du sommeil (CIRS) pour suspicion de trouble respiratoire du sommeil avec somnolence ou symptomatologie diurne.Les enregistrements nocturnes ont été effectués de manière standard dans des chambres individuelles en utilisant le système d'acquisition Embla avec l'ensemble des capteurs habituels. Les données ont été par la suite visuellement analysées et mesurées en utilisant le software Somnologica version 5.1, qui fournit un signal de l'amplitude de l'onde de pouls (puise wave amplitude - PWA).Dans un premier temps, un technicien du sommeil a réalisé une analyse visuelle du tracé EEG, en l'absence des données du signal d'amplitude d'onde de pouls. Il a déterminé les phases d'éveil et de sommeil, les stades du sommeil et les micro¬éveils selon les critères standards. Les micro-éveils sont définis lors d'un changement abrupt dans la fréquence de l'EEG avec un pattern d'ondes thêta-alpha et/ou une fréquence supérieure à 16 Hz (en l'absence de fuseau) d'une durée d'au minimum trois secondes. Si cette durée excède quinze secondes, l'événement correspond à un réveil.Puis, deux investigateurs ont analysé le signal d'amplitude d'onde de pouls, en masquant les données du tracé EEG qui inclut les micro-éveils. L'amplitude d'onde de pouls est calculée comme la différence de valeur entre le zénith et le nadir de l'onde pour chaque cycle cardiaque. Pour chaque baisse de l'amplitude d'onde de pouls, la plus grande et la plus petite amplitude sont déterminées et le pourcentage de baisse est calculé comme le rapport entre ces deux amplitudes. On retient de manière arbitraire une baisse d'au moins 20% comme étant significative. Cette limite a été choisie pour des raisons pratiques et cliniques, dès lors qu'elle représentait, à notre sens, la baisse minimale identifiable à l'inspection visuelle. Chaque baisse de PWA retenue est divisée en 5 périodes contiguës de cinq secondes chacune. Deux avant, une pendant et deux après la baisse de PWA.Pour chaque période de cinq secondes, on a pratiqué une analyse spectrale du tracé EEG correspondant. Le canal EEG C4-A1 est analysé en utilisant la transformée rapide de Fourier (FFT) pour chaque baisse de PWA et pour chaque période de cinq secondes avec une résolution de 0.2 Hz. La distribution spectrale est catégorisée dans chaque bande de fréquence: delta (0.5 à 4.0 Hz); thêta (4.1 à 8.0Hz); alpha (8.1 à 12.0 Hz); sigma (12.1 à 16 Hz) et beta (16.1 à 30.0 Hz). La densité de puissance (power density, en μΥ2 ) pour chaque bande de fréquence a été calculée et normalisée en tant que pourcentage de la puissance totale. On a déterminé, ensuite, la différence de densité de puissance entre les 5 périodes par ANOVA on the rank. Un test post hoc Tukey est été utilisé pour déterminer si les différences de densité de puissance étaient significatives. Les calculs ont été effectués à l'aide du software Sigmastat version 3.0 (Systat Software San Jose, California, USA).Le principal résultat obtenu dans cette étude est d'avoir montré une augmentation significative de la densité de puissance de l'EEG pour toutes les bandes de fréquence durant la baisse de l'amplitude de l'onde de pouls par rapport à la période avant et après la baisse. Cette augmentation est par ailleurs retrouvée dans la plupart des bande de fréquence en l'absence de micro-réveil visuellement identifié.Ce résultat témoigné donc d'une activation corticale significative associée à la diminution de l'onde de pouls. Ce résulat pourrait permettre d'utiliser les variations de l'onde de pouls dans les tracés de polygraphie comme marqueur d'une activation corticale. Cependant on peut dire que ce marqueur est plus sensible que l'analyse visuelle du tracé EEG par un technicien puisque qu'on notait une augmentation de lactivité corticale y compris en l'absence de micro-réveil visuellement identifié. L'application pratique de ces résultats nécessite donc une étude prospective complémentaire.
Resumo:
La présente recherche se propose de désobstruer un certain nombre de catégories « esthétiques », au sens étendu du terme, de leur métaphysique implicite. La thèse que je souhaite défendre se présente sous la forme d'un paradoxe : d'une part, le sens originel d'« esthétique » a été perdu de vue, d'autre part, malgré cet oubli, quiconque s'interroge philosophiquement sur les beaux-arts reçoit, nolens volens, Baumgarten en héritage. Avec AEsthetica (1750/1758), ouvrage inachevé et hautement problématique, nous pourrions dire, citant René Char, qu'il s'agit-là d'un « héritage précédé d'aucun testament ». En d'autres termes, ce qui nous échoit nous occupe, voire nous préoccupe, sans que nous disposions des outils conceptuels pour nous y rapporter librement. Soyons clairs, je ne soutiens pas que l'esthétique philosophique, telle qu'elle s'énonce à ses débuts, soit un passage obligé pour penser l'art, et ce d'autant plus qu'il ne s'agit pas d'un passage, mais proprement d'une impasse. Ce que je veux dire, c'est que Kant répond à Baumgarten, et que Hegel répond à Kant et ainsi de suite. Il n'y a pas de tabula rasa dans l'histoire de la pensée, et l'oubli de l'historicité d'une pensée est le meilleur moyen de la neutraliser en simple supplément culturel, tout en demeurant entièrement captifs de ses présupposés.Au départ, la question qui motivait implicitement la rédaction de cette recherche se formulait ainsi : « Dans quelle mesure la philosophie énonce-t-elle quelque chose d'important au sujet des beaux-arts ? » Au fil du temps, la question s'est inversée pour devenir : « Qu'est-ce que les écrits sur les beaux- arts, tels qu'ils foisonnent au 18e siècle, nous enseignent à propos de la philosophie et des limites inhérentes à sa manière de questionner ?» Et gardons-nous de penser qu'une telle inversion cantonne la question de l'esthétique, au sens très large du terme, à n'être qu'une critique immanente à l'histoire de la philosophie. Si la philosophie était une « discipline » parmi d'autres, un « objet » d'étude possible dans la liste des matières universitaires à choix, elle ne vaudrait pas, à mon sens, une seule heure de peine. Mais c'est bien parce que la philosophie continue à orienter la manière dont nous nous rapportons au « réel », au « monde » ou à l'« art » - je place les termes entre guillemets pour indiquer qu'il s'agit à la fois de termes usuels et de concepts philosophiques - que les enjeux de la question de l'esthétique, qui est aussi et avant tout la question du sentir, excèdent l'histoire de la philosophie.Pour introduire aux problèmes soulevés par l'esthétique comme discipline philosophique, j'ai commencé par esquisser à grands traits la question du statut de l'image, au sens le plus général du terme. Le fil conducteur a été celui de l'antique comparaison qui conçoit la poésie comme une « peinture parlante » et la peinture comme une « poésie muette ». Dans le prolongement de cette comparaison, le fameux adage ut pictura poesis erit a été conçu comme le véritable noeud de toute conception esthétique à venir.Il s'est avéré nécessaire d'insister sur la double origine de la question de l'esthétique, c'est-à-dire la rencontre entre la pensée grecque et le christianisme. En effet, l'un des concepts fondamentaux de l'esthétique, le concept de création et, plus spécifiquement la possibilité d'une création ex nihiio, a été en premier lieu un dogme théologique. Si j'ai beaucoup insisté sur ce point, ce n'est point pour établir une stricte identité entre ce dogme théologique et le concept de création esthétique qui, force est de l'admettre, est somme toute souvent assez flottant dans les écrits du 18e siècle. L'essor majeur de la notion de création, couplée avec celle de génie, sera davantage l'une des caractéristiques majeures du romantisme au siècle suivant. La démonstration vise plutôt à mettre en perspective l'idée selon laquelle, à la suite des théoriciens de l'art de la Renaissance, les philosophes du Siècle des Lumières ont accordé au faire artistique ou littéraire une valeur parfaitement inédite. Si l'inventeur du terme « esthétique » n'emploie pas explicitement le concept de création, il n'en demeure pas moins qu'il attribue aux poètes et aux artistes le pouvoir de faire surgir des mondes possibles et que ceux-ci, au même titre que d'autres régions de l'étant, font l'objet d'une saisie systématique qui vise à faire apparaître la vérité qui leur est propre. Par l'extension de l'horizon de la logique classique, Baumgarten inclut les beaux-arts, à titre de partie constituante des arts libéraux, comme objets de la logique au sens élargi du terme, appelée « esthético- logique ». L'inclusion de ce domaine spécifique d'étants est justifiée, selon les dires de son auteur, par le manque de concrétude de la logique formelle. Or, et cela n'est pas le moindre des paradoxes de l'esthétique, la subsomption des beaux-arts sous un concept unitaire d'Art et la portée noétique qui leur est conférée, s'opère à la faveur du sacrifice de leur singularité et de leur spécificité. Cela explique le choix du titre : « métaphysique de l'Art » et non pas « métaphysique de l'oeuvre d'art » ou « métaphysique des beaux-arts ». Et cette aporîe constitutive de la première esthétique est indépassable à partir des prémices que son auteur a établies, faisant de la nouvelle discipline une science qui, à ce titre, ne peut que prétendre à l'universalité.Au 18e siècle, certaines théories du beau empruntent la voie alternative de la critique du goût. J'ai souhaité questionner ces alternatives pour voir si elles échappent aux problèmes posés par la métaphysique de l'Art. Ce point peut être considéré comme une réplique à Kant qui, dans une note devenue célèbre, soutient que « les Allemands sont les seuls à se servir du mot "esthétique" pour désigner ce que d'autres appellent la critique du goût ». J'ai démontré que ces deux termes ne sont pas synonymes bien que ces deux positions philosophiques partagent et s'appuient sur des présupposés analogues.La distinction entre ces deux manières de penser l'art peut être restituée synthétiquement de la sorte : la saisie systématique des arts du beau en leur diversité et leur subsomption en un concept d'Art unitaire, qui leur attribue des qualités objectives et une valeur de vérité indépendante de toute saisie subjective, relègue, de facto, la question du jugement de goût à l'arrière-plan. La valeur de vérité de l'Art, définie comme la totalité des qualités intrinsèques des oeuvres est, par définition, non tributaire du jugement subjectif. Autrement dit, si les oeuvres d'art présentent des qualités intrinsèques, la question directrice inhérente à la démarche de Baumgarten ne peut donc nullement être celle d'une critique du goût, comme opération subjective {Le. relative au sujet, sans que cela soit forcément synonyme de « relativisme »), mais bien la quête d'un fondement qui soit en mesure de conférer à l'esthétique philosophique, en tant que métaphysique spéciale, sa légitimité.Ce qui distingue sur le plan philosophique le projet d'une métaphysique de l'Art de celui d'une esthétique du goût réside en ceci que le premier est guidé, a priori, par la nécessité de produire un discours valant universellement, indépendant des oeuvres d'art, tandis que le goût, pour s'exercer, implique toujours une oeuvre singulière, concrète, sans laquelle celui-ci ne reste qu'à l'état de potentialité. Le goût a trait au particulier et au contingent, sans être pour autant quelque chose d'aléatoire. En effet, il n'est pas un véritable philosophe s'interrogeant sur cette notion qui n'ait entrevu, d'une manière ou d'une autre, la nécessité de porter le goût à la hauteur d'un jugement, c'est-à-dire lui conférer au moins une règle ou une norme qui puisse le légitimer comme tel et le sauver du relativisme, pris en son sens le plus péjoratif. La délicatesse du goût va même jusqu'à être tenue pour une forme de « connaissance », par laquelle les choses sont appréhendées dans toute leur subtilité. Les différents auteurs évoqués pour cette question (Francis Hutcheson, David Hume, Alexander Gerard, Louis de Jaucourt, Montesquieu, Voltaire, D'Alembert, Denis Diderot, Edmund Burke), soutiennent qu'il y a bien quelque chose comme des « normes » du goût, que celles-ci soient inférées des oeuvres de génie ou qu'elles soient postulées a priori, garanties par une transcendance divine ou par la bonté de la Nature elle-même, ce qui revient, en dernière instance au même puisque le geste est similaire : rechercher dans le suprasensible, dans l'Idée, un fondement stable et identique à soi en mesure de garantir la stabilité de l'expérience du monde phénoménal.La seconde partie de la recherche s'est articulée autour de la question suivante : est-ce que les esthétiques du goût qui mesurent la « valeur » de l'oeuvre d'art à l'aune d'un jugement subjectif et par l'intensité du sentiment échappent aux apories constitutives de la métaphysique de l'Art ?En un sens, une réponse partielle à cette question est déjà contenue dans l'expression « esthétique du goût ». Cette expression ne doit pas être prise au sens d'une discipline ou d'un corpus unifié : la diversité des positions présentées dans cette recherche, bien que non exhaustive, suffit à le démontrer. Mais ce qui est suggéré par cette expression, c'est que ces manières de questionner l'art sont plus proches du sens original du terme aisthêsis que ne l'est la première esthétique philosophique de l'histoire de la philosophie. L'exercice du goût est une activité propre du sentir qui, en même temps, est en rapport direct avec la capacité intellectuelle à discerner les choses et à un juger avec finesse et justesse.Avec le goût esthétique s'invente une espèce de « sens sans organe » dont la teneur ontologique est hybride, mais dont le nom est identique à celui des cinq sens qui procurent la jouissance sensible la plus immédiate et la moins raisonnable qui soit. Par la reconnaissance de l'existence d'un goût « juste » et « vrai », ou à défaut, au moins de l'existence d'une « norme » indiscutable de celui-ci, c'est-à-dire de la possibilité de formuler un jugement de goût une tentative inédite de spîritualisation de la sensibilité a lieu.Par conséquent, il est loin d'être évident que ce que j'ai appelé les esthétiques du goût échappent à un autre aspect aporétique de la métaphysique de l'Art, à savoir : passer à côté du caractère singulier de telle ou telle oeuvre afin d'en dégager les traits universels qui permettent au discours de s'étayer. Dans une moindre mesure, cela est même le cas dans les Salons de Diderot où, trop souvent, le tableau sert de prétexte à l'élaboration d'un discours brillant.Par contre, tout l'intérêt de la question du goût réside en ceci qu'elle présente, de façon particulièrement aiguë, les limites proprement métaphysiques dont l'esthétique, à titre de discipline philosophique, se fait la légataire et tente à sa manière d'y remédier par une extension inédite du concept de vérité et sa caractérisai ion en termes de vérité « esthéticologique » au paragraphe 427 de Y Esthétique. Cela dit, le fait même que dans l'empirisme la sensibilité s'oppose, une fois de plus, à l'intellect comme source de la naissance des idées - même si c'est dans la perspective d'une réhabilitation de la sensibilité -, indique que l'horizon même de questionnement demeure inchangé. Si le goût a pu enfin acquérir ses lettres de noblesse philosophique, c'est parce qu'il a été ramené, plus ou moins explicitement, du côté de la raison. Le jugement portant sur les arts et, de manière plus générale, sur tout ce qui est affaire de goût ne saurait se limiter au sentiment de plaisir immédiat. Le vécu personnel doit se transcender en vertu de critères qui non seulement permettent de dépasser le relativisme solipsiste, mais aussi de donner forme à l'expérience vécue afin qu'elle manifeste à chaque fois, et de façon singulière, une portée universelle.Le goût, tel qu'il devient un topos des discours sur l'art au 18e siècle, peut, à mon sens, être interprété comme l'équivalent de la glande pinéale dans la physiologie cartésienne : l'invention d'un « je ne sais quoi » situé on ne sait où, sorte d'Hermès qui assure la communication entre l'âme et le corps et sert l'intermédiaire entre l'intellect et la sensibilité. L'expérience décrite dans l'exercice du goût implique de facto une dimension par définition occultée par la métaphysique de l'Art : le désir. Pour goûter, il faut désirer et accepter d'être rempli par l'objet de goût. Dans l'exercice du goût, le corps est en jeu autant que l'intellect, il s'agit d'une expérience totale dans laquelle aucune mise à distance théorétique n'est, en un premier temps, à même de nous prémunir de la violence des passions qui nous affectent. L'ambiguïté de cette notion réside précisément dans son statut ontologiquement problématique. Mais cette incertitude est féconde puisqu'elle met en exergue le caractère problématique de la distinction entre corps et esprit. Dans la notion de goût est contenue l'idée que le corps pense aussi et que, par voie de conséquence, la sensibilité n'est pas dépourvue de dimension spirituelle. Reste que formuler les choses de la sorte revient à rejouer, en quelque sorte, l'antique diaphorâ platonicienne et à convoquer, une fois de plus, les grandes oppositions métaphysiques telles que corps et âme, sensible et intelligible, matière et forme.La troisième partie est entièrement consacrée à Shaftesbury qui anticipe le statut ontologiquement fort de l'oeuvre d'art (tel qu'il sera thématisé par Baumgarten) et l'allie à une critique du goût. Cet auteur peut être considéré comme une forme d'exception qui confirme la règle puisque sa métaphysique de l'Art laisse une place prépondérante à une critique du goût. Mais le cumul de ces deux caractéristiques opposées un peu schématiquement pour les besoins de la démonstration n'invalide pas l'hypothèse de départ qui consiste à dire que la saisie philosophique de la question du goût et l'invention conjointe de l'esthétique au 18e siècle sont deux tentatives de trouver une issue au problème du dualisme des substances.Cette recherche doit être prise comme une forme de propédeutique à la fois absolument nécessaire et parfaitement insuffisante. Après Baumgarten et le siècle du goût philosophique, les propositions de dépassement des apories constitutives d'une tradition qui pense l'art à partir de couples d'oppositions métaphysiques tels qu'âme et corps, forme et matière, ainsi que leurs traductions dans les arts visuels (dessin et couleur ou encore figuration et abstraction), n'ont pas manqué. Il aurait fallu in fine s'effacer pour laisser la place aux plasticiens eux-mêmes, mais aussi aux poètes, non plus dans l'horizon de Y ut pictura, mais lorsqu'ils expriment, sans verser dans l'analyse conceptuelle, leurs rencontres avec telle ou telle oeuvre (je pense à Baudelaire lorsqu'il évoque Constantin Guys, à Charles Ferdinand Ramuz lorsqu'il rend hommage à Cézanne ou encore à Pascal Quignard lorsqu'il raconte les fresques de la maison des Dioscures à Pompéi, pour ne citer que trois noms qui affleurent immédiatement à ma mémoire tant leur souvenir est vivace et leur exemple un modèle). Et puis il s'agit, malgré tout, de ne pas renoncer pour autant au discours esthétique, c'est- à-dire à la philosophie, mais de réinterroger les catégories dont nous sommes les légataires et de penser avec et au-delà des limites qu'elles nous assignent. Mais cela ferait l'objet d'un autre ouvrage.
Resumo:
Nous assistons actuellement à une diffusion, à l'échelle planétaire, des Technologies de l'Information et de la Communication (TIC) même si elle se fait à des rythmes différents selon les nations (voire entre les régions d'un même pays) créant ainsi un fossé dit « numérique », en sus des multiples inégalités déjà présentes. Cette révolution informatique et technologique engendre de nombreux changements dans les rapports sociaux et permet de nombreuses applications destinées à simplifier la vie quotidienne de tout un chacun. Amine Bekkouche se penche sur la problématique de la cyberadministration comme conséquence importante des TIC, à l'instar du commerce électronique. Il présente, d'abord, une synthèse des principaux concepts de la cyberadministration ainsi qu'un panorama de la situation mondiale en ce domaine. Par la suite, il appréhende la cyberadministration dans la perspective des pays émergents, notamment, à travers l'illustration d'un pays en développement représentatif. Il propose alors des solutions concrètes qui prennent comme point de départ le secteur éducatif pour permettre une « alphabétisation informatique » de la société afin de contribuer justement à réduire le fossé numérique. Il élargit, ensuite, ces propositions à d'autres domaines et formule des recommandations facilitant leur mise en oeuvre. Il conclut, enfin, sur des perspectives qui pourraient constituer autant de pistes de recherches futures et permettre l'élaboration de projets de développement, à travers l'appropriation de ces TIC, pour améliorer la condition de l'administré, et plus globalement, du citoyen. - We are currently witnessing a distribution of Information and Communication Technologies (ICT) on a global scale. Yet, this distribution is carried out in different rhythms within each nation (and even among regions in a given country), which creates a "digital" gap, in addition to multiple inequalities already present. This computing and technological revolution engenders many changes in social relationships and permits numerous applications that are destined to simplify our lives. Amine Bekkouche takes a closer look at the issue of e-government as an important consequence of ICTs, following the example of electronic commerce. First, he presents a synthesis of the main concepts in e- government as well as a panoramic view of the global situation in this domain. Subsequently, he studies e-government in view of emerging countries, in particular through the illustration of a country in representative development. Then, he offers concrete solutions, which take the education sector as their starting point, to allow for a "computed digitalisation" of society that contribute to reduce the digital gap. Thereafter, he broadens these proposals to other domains and formulates recommendations that help their implementation. Finally, he concludes with perspectives that may constitute further research tracks and enable the elaboration of development projects, through the appropriation of ICTs, in order to improve the condition of the administered, and more generally, that of the citizen.
Resumo:
Abstract : Host-Cell Factor 1 (HCF-1) was first discovered in the study of the herpes simplex virus (HSV) infection. HCF-1 is one of the two cellular proteins that compose the VP16-induced complex, a key activator of HSV lytic infection. lncleed, when HSV infects human cells, it is able to enter two modes of infection: lytic or latent. The V`P16-induced complex promotes the lytic mode and in so doing the virus targets important cellular regulatory proteins, such as HCF-1, to manipulate the status of the infected cell. Indeed, HCF-1 regulates human cell proliferation and the cell cycle at different steps. In human, HCF-1 is unusual in that it undergoes a process of proteolytic maturation that results from cleavages at six centrally located 26 amino acid repeats called HCF-1pro repeats. This generates a heterodimeric complex of stably associated amino- (HCF-1n) and carboxy- (HCF-1c) terminal subunits. The absence of the HCF-1 N or HCF-1; subunit leads predominantly to either G1 or M phase defects, respectively. We have hypothesized that HCF-1 forms a heterodimeric complex to permit communication between the two subunits of HCF-1 involved in regulating different phases of the cell cycle. Indeed, there is evidence for such inter-subunit communication because a point mutation called P134S in the HCF-1N subunit in the temperature-sensitive hamster cell line tsBN67 causes, addition to G1- phase defects associated with the HCF-1n subunit, M-phase defects similar to the defects seen upon loss of HCF-1 function. Furthermore, inhibition of the proteolytic maturation of HCF-1 by deletion of the six HCF-1pro repeats (HCF-1Aimo) also leads to M-phase defects, specifically cytokinesis defects leading to binucleation, indicating that there is loss of HCF-15 function in the absence of HCF-1 maturation. I demonstrate that individual point mutations in each of the six HCF-1pro repeats that prevent HCF-1 proteolytic maturation also lead to binucleation; however, this defect can be latgely rescued by the presence of just one HCF-1pRO sequence in I-ICF»1. These results argue that processing itself is important for the HCF-1g function. In fact, until now, the hypothesis was that the proteolytic processing per se is more important for HCF-1C function than the proteolytic processing region. But I show that processing per se is not sufticient to rescue multinucleation, but that the HCF-lpm sequence itself is crucial. This discovery leads to the conclusion that the I-ICF-1pRO repeats have an additional function important for HCF-le function. From the studies of others, one potential function of the HCF-lrxo tepeats is as a binding site for O-link NAcetyl glycosamine tansferase (OGT) to glycosylate an HCF-1n-sunbunit region called the Basic region. This new function suggests the Basic region of HCF-1n is also implicated in the communication between the two subunits. This inter-subunit communication was analyzed in more detail with the studies of the Pl34S mutation and the residues 382-450 region of HCF-l that when removed prevents HCF-l subunit association. I demonstrate that the point mutation also leads to a binucleation defect in Hela cells as well as in the tsBN67 cells. In addition, the effect of this mutation on the regulation of HCF-1c activity seems to interfere with that of the HCF-lpgg repeats because the sum of the deletion of the proteolytic processing region and the point mutation surprisingly leads to re-establishment of correct cytokinesis. The study of the 382-450 HCF-lN region also yielded surprising results. This region important for the association of the two subunits is also important for both HCF-1c function in M phase and G1 phase progression. Thus, I have discovered two main functions of this region: its role in the regulation of HCF-lc function in M phase and its involvement in the regulation of G1/S phase ?- an HCF-1n function. These results support the importance of inter-subunit communication in HCF-1 functions. My research illuminates the understanding of the interaction of the two subunits by showing that the whole HCF-1n subunit is involved in the inter-subunit communication in order to regulate HCF-1c function. For this work, I was concentrated on the study of cytokinesis; the first phenotype showing the role of HCF-1c in the M phase. Then, I extended the study of the M phase with analysis of steps earlier to cytokinesis. Because some defects in the chromosome segregation was already described in the absence of HCF-1, I decided to continue the study of M phase by checking effects on the chromosome segregation. I showed that the HCF-1n subunit and HCF-1pro repeats are both important for this key step of M phase. I show that the binucleation phenotype resulting from deletion or mutation in HCF-1pro repeats, Pl34S point mutation or the lack of the region 382-450 are correlated with micronuclei, and chromosome segregation and alignment defects. This suggests that HCF«lç already regulates M phase during an early step and could be involved in the complex regulation of chromosome segregation. Because one of the major roles of HCF-1 is to be a transcription regulator, I also checked the capacity of HCF-1 to bind to the chromatin in my different cell lines. All my recombinant proteins can bind the chromatin, except for, as previously described, the HCF-1 with the P134S point mutation, This suggests that the binding of HCF-1 to the chromatin is not dependant to the Basic and proteolytic regions but more to the Kelch domain. Thus, if the function of HCF-ig in M phase is dependant to its chromatin association, the intercommunication and the proteolytic region are not involved in the ability to bind to the chromatin but more to bind to the right place of the chromatin or to be associated with the co-factors. Résumé : L'étude de l'infection par le virus Herpes Simplex (HSV) a permis la découverte de la protéine HCF-1 (Host-Cell Factor). HCF-1 est une des protéines cellulaires qui font partie du complexe induit par VP16 ; ce complexe est la clef pour l'activation de la phase lytique de HSV. Afin de manipuler les cellules infectées, le complexe induit pas le VPIG devrait donc cibler les protéines importantes pour la régulation cellulaire, telles que la protéine HCF-1. Cette dernière s'avère donc être un senseur pour la cellule et devrait également jouer un rôle de régulation lors des différentes phases du cycle cellulaire. Chez l'humain, HCF-1 a la particularité de devoir passer par une phase de maturation pour devenir active. Lors de cette maturation, la protéine subit une coupure protéolytique au niveau de six répétitions composées de 26 acides aminés, appelé HCF-1pro repeats. Cette coupure engendre la formation d'un complexe formé de deux sous-unités, HCF-1n et HCF-1c, associées l'une à l'autre de façon stable. Enlever la sous-unité HCF-IN ou C entraîne respectivement des défauts dans la phase G1 et M. Nous pensons donc que HCF-1 forme un complexe hétérodimérique afin de permettre la communication entre les molécules impliquées dans la régulation des différentes phases du cycle cellulaire. Cette hypothèse est déduite suite à deux études: l'une réalisée sur la lignée cellulaire tsBN67 et l'autre portant sur l'inhibition de la maturation protéolytique. La lignée cellulaire tsBN67, sensible à la température, porte la mutation Pl 345 dans la sous-unité HCF-1n. Cette mutation, en plus d'occasionner des défauts dans la phase G1 (défauts liés à la sous-unité HCF-1N), a aussi pour conséquence d'entrainer des défauts dans la phase M, défauts similaires à ceux dus a la perte de la sous-unité HCF-1c. Quant à la maturation protéolytique, l'absence de la région de la protéolyse provoque la binucléation, défaut lié à la cytokinèse, indiquant la perte de la fonction de la sous-unité HCF-1c. Au cours de ma thèse, j'ai démontré que des mutations dans les HCF-1=no repeats, qui bloquent la protéolyse, engendrent la binucléation ; cependant ce défaut peut être corrigé pas l'ajout d'un HCF-1pro repeat dans un HCF-1 ne contenant pas la région protéolytique. Ces résultats soutiennent l'idée que la région protéolytique est importante pour le bon fonctionnement de HCF-1c. En réalité jusqu'a maintenant on supposait que le mécanisme de coupure était plus important que la région impliquée pour la régulation de la fonction de HCF-1;. Mais mon étude montre que la protéolyse n'est pas suffisante pour éviter la binucléation ; en effet, les HCF-1pro repeats semblent jouer le rôle essentiel dans le cycle cellulaire. Cette découverte conduit à la conclusion que les HCF-1pro repeats ont sûrement une fonction autre qui serait cruciale pour la foncton de HCF-1c. Une des fonctions possibles est d'être le site de liaison de l'O-linked N-acetylglucosamine transférase (OGT) qui glycosylerait la région Basique de HCF-1n. Cette nouvelle fonction suggère que la région Basique est aussi impliquée dans la communication entre les deux sous- unités. L'intercommunication entre les deux sous-unités ai été d'ailleurs analysée plus en détail dans mon travail à travers l'étude de la mutation Pl34S et de la région 382-450, essentielle pour l'association des deux sous»unités. J'ai ainsi démontré que la mutation P134S entraînait aussi des défauts dans la cytokinése dans la lignée cellulaire Hela, de plus, son influence sur HCF-1c semble interférer avec celle de la région protéolytique. En effet, la superposition de ces deux modifications dans HCF-1 conduit au rétablissement d'une cytokinése correcte. Concernant la région 382 à 450, les résultats ont été assez surprenants, la perte de cette région provoque l'arrêt du cycle en G1 et la binucléation, ce qui tend à prouver son importance pour le bon fonctionnement de HCF-1n et de HCF-1c. Cette découverte appuie par conséquent l'hypotl1èse d'une intercommunicatzion entre les deux sous-unités mettant en jeu les différentes régions de HCF-1n. Grâce à mes recherches, j'ai pu améliorer la compréhension de l'interaction des deux sous-unités de HCF-1 en montrant que toutes les régions de HCF-1n sont engagées dans un processus d'intercommunication, dont le but est de réguler l'action de HCF-1c. J'ai également mis en évidence une nouvelle étape de la maturation de HCF-1 qui représente une phase importante pour l'activation de la fonction de HCF-1c. Afin de mettre à jour cette découverte, je me suis concentrée sur l'étude de l'impact de ces régions au niveau de la cytokinése qui fut le premier phénotype démontrant le rôle de HCF-1c dans la phase M. A ce jour, nous savons que HCF-1c joue un rôle dans la cytokinèse, nous ne connaissons pas encore sa fonction précise. Dans le but de cerner plus précisément cette fonction, j'ai investigué des étapes ultérieures ai la cytokinèse. Des défauts dans la ségrégation des chromosomes avaient déjà été observés, ai donc continué l'étude en prouvant que HCF-1n et les HCF-1pro repeats sont aussi importants pour le bon fonctionnement de cette étape clef également régulée par HCF-1c. J' ai aussi montré que la région 382-450 et la mutation P134S sont associées à un taux élevé de micronoyaux, de défauts dans la ségrégation des chromosomes. L'une des fonctions principales de HCF-1 étant la régulation de la transcription, j'ai aussi contrôlé la capacité de HCF-1 à se lier à la chromatine après insertion de mutations ou délétions dans HCF-1n et dans la région protéolytique. Or, à l'exception des HCF-1 contenant la mutation P134S, la sous-unité HCF-1c des HCF-1 tronquées se lie correctement à la chromatine. Cette constatation suggère que la liaison entre HCF-1c et chromatine n'est pas dépendante de la région Basique ou Protéolytique mais peut-être vraisemblablement de la région Kelch. Donc si le rôle de HCF-1c est dépendant de sa capacité â activer la transcription, l'intercommunication entre les deux sous-unités et la région protéolytique joueraient un rôle important non pas dans son habileté à se lier à la chromatine, mais dans la capacité de HCF-1 à s'associer aux co-facteurs ou à se placer sur les bonnes régions du génome.
Resumo:
La maladie d'Alzheimer (MA), forme de démence la plus fréquente, est caractérisée précocement par des troubles de la mémoire, puis par une détérioration cognitive progressive, corrélée avec la progression des lésions cérébrales que sont les dépôts de protéine ß-amyloïde, notamment dans les plaques séniles, et la dégénérescence neurofibrillaire qui touche en priorité les grands neurones pyramidaux de l'hippocampe et du cortex cérébral. La perte ou les dommages synaptiques sont aussi prépondérants et conduisent à la mort neuronale et à la perte de réseaux fonctionnels notamment au niveau des protéines présynaptiques comme la synaptophysine et postsynaptiques comme PSD-95 (Leuba et al. 2008), ainsi que des récepteurs NMDA (NMDAR) liés à PSD-95 et jouant un rôle prédominant dans le fonctionnement synaptique. Notre étude s'est portée une des régions du cortex frontal correspondant à l'aire de Brodmann 10, encore peu étudiée dans la littérature scientifique, qui peut être touchée de manière plus ou moins importante dans la MA, entraînant des troubles de l'humeur et du comportement ainsi que des répercussions sur les fonctions exécutives. L'étude a pour but d'identifier et de quantifier les dépôts de protéine ß-amyloïde et les lésions neurofibrillaires ainsi que les changements de protéines synaptiques et de récepteurs NMDA dans cette région entre une population contrôle et AD, et de la comparer avec d'autres régions déjà partiellement étudiées dans le laboratoire, notamment l'aire 9 qui lui est adjacente et les aires cingulaires 24 et 25. L'analyse est faite de manière qualitative et semi-quantitative au microscope optique sur des coupes colorées avec des méthodes immunohistochimiques. De possibles corrélations anatomo-cliniques sont recherchées dans les cas AD. La région FC10 est touchée par la MA avec une présence de plaques séniles et de dégénérescences neurofibrillaires plus marquées chez les cas atteints de la MA ce qui n'est pas le cas des protéines synaptiques. Le comportement des deux marqueurs pathologiques dans FC10 est comparable aux autres régions cérébrales étudiées notamment à la région adjacente, FC9, contrairement aux marqueurs synaptiques qui selon la région ont un comportement plus variable. L'effet de l'âge dans l'évolution de la physiopathologie de la MA pour les marqueurs pathologiques a été mis en évidence dans la région FC10. Les régions EC et FC9 n'ont pas montré de microhémorragie synonyme d'une possible contribution vasculaire. L'étude de cette région a permis de mettre en évidence l'implication de FC10 dans la MA. Elle montre des points communs avec les autres régions cérébrales notamment vis-à-vis des plaques séniles et des DNF.
Resumo:
Cette thèse décrit de quelle manière les hommes travaillant dans les sciences de la vie durant la seconde moitié du XVIIIe siècle s'insèrent et jonglent au quotidien dans l'univers de la librairie d'Ancien Régime. Plus précisément dans celui que l'historien du livre Robert Damton a défini le circuit de la communication. Un circuit complexe qui va de l'auteur à l'éditeur, en passant par l'imprimeur, le transporteur, le libraire, le lecteur ou encore par le relieur et le copiste.Marchander le prix d'une page manuscrite avec un éditeur, s'assurer de rester au courant des nouveautés de la librairie, prendre des notes, trouver un bon copiste, juger de la qualité d'un ouvrage ou d'une traduction, se protéger des contrefaçons, se créer un fonds de bibliothèque: voici le quotidien du savant au travail abordé dans cette thèse dont le but est de comprendre de quelle manière fonctionnent les mécanismes d'acquisition, de mise en forme et de mise en circulation du savoir - bref, les coulisses de la communication scientifique. Cela à une période où les hommes de science sont de plus en plus confrontés à un "déluge" de nouvelles publications en toutes langues. La seconde moitié du XVIIIe siècle, correspond en fait à celui qu'a été défini par les historiens du livre un "apogée" de l'imprimé scientifique. Caractérisée par un changement dans le milieu de la production imprimée, cette seconde partie du siècle marque une césure, une situation nouvelle à laquelle le savant doit s'adapter afin de ne pas être dépassé par les événements et afin de pouvoir tirer le plus large bénéfice de toutes les formes d'expression et d'intervention qui sont mises à sa disposition. Afin d'analyser les stratégies mises en place par les savants pour gérer la masse de l'information et afin de reconstruire les pratiques ordinaires du travail savant, pratiques qui accompagnent le savoir dans son devenir et sont susceptible de l'influencer, cette thèse s'appuie sur la riche correspondance que le médecin lausannois Samuel Auguste Tissot et son collègue bernois Albrecht von Haller, deux savants et écrivains de renom parmi les plus célèbres des Lumières helvétiques, échangent pendant plus de vingt ans. Ce couple pourrait être défini comme antinomique. Le représentant d'une culture humaniste, formé à l'école iatromécanique de Leyde et insatiable lecteur qu'est Haller et un partisan de la vulgarisation, formé au vitalisme à Montpellier tel que Tissot, d'une génération plus jeune, se sont démontrés avoir une conception parfois différente de ce qu'est un livre de science, en particulier un livre de médecine, de la forme qu'il doit avoir, du prix auquel il doit être vendu ou encore de la langue dans laquelle il doit être écrit. L'un, Haller, médecin de cabinet et professeur à Gôttingen pendant dix-sept ans, l'autre, Tissot, praticien et médecin des pauvres ayant enseigné seulement quatre semestres à Pavie, pratiquent et conçoivent en partie différemment la communication du savoir scientifique et le public de celle-ci. L'étude prend également en compte les lettres échangées avec un réseau d'amis communs, surtout le médecin argovien Johann Georg Zimmermann et le naturaliste genevois Charles Bonnet. Les correspondances des professionnels du livre représentent un autre pan incontournable du corpus documentaire de la thèse. C'est grâce à ces hommes que le texte du savant sort du cabinet et prend sa forme matérielle, voire il acquiert du sens. Des documents tels des essais ou des notes de lecture et les pièces liminaires des livres (préfaces, dédicaces, avis aux lecteurs, notes) se sont aussi révélées être des documents précieux: ils témoignent des pratiques de travail des savants et ils renseignent aussi bien sur les intentions poursuivies par l'auteur que sur les pratiques d'édition, contrefaçon et traduction.Basée sur une démarche micro-historique qui croise l'histoire sociale des sciences et l'histoire sociale du livre à la française, cette thèse s'articule autour de 5 chapitres et un intermède. La disposition des parties suit en quelques sortes les étapes du travail savant: lecture, écriture, mise sous presse, mise en circulation, réception.