999 resultados para Base de données EEG
Resumo:
Depuis les années 1980, la sociologie a connu une résurgence des thèses du déclin des classes sociales qui a provoqué d'importants débats. En matière d'évolution de la structure de classe plus particulièrement, le débat se focalise sur les thèses dites de la « moyennisation » de la société et de l'« aspiration vers le haut ». Dans ce cadre, la société (postindustrielle) serait désormais constituée d'une vaste classe moyenne tendant à provoquer une dissolution générale des frontières de classes. Cet article est une contribution empirique à ce débat et porte, plus précisément, sur l'évolution de la société suisse contemporaine. A priori, le cas suisse peut sembler favorable aux thèses du déclin des classes sociales. En effet, en comparaison européenne, la Suisse connaît un secteur des services supérieur à la moyenne, un chômage inférieur à celle-ci ou encore un niveau de rémunération supérieur à la moyenne ; tous phénomènes souvent mis en avant pour expliquer le déclin affirmé des classes sociales. Afin d'évaluer les thèses sous revue, une série d'hypothèses ont été formulées au sujet de l'évolution de la division du travail (mesurée selon la classification internationale des professions) d'une part, de la structure de classe (approchée par les catégories socioprofessionnelles helvétiques) d'autre part. L'analyse se base sur des données secondaires, ce qui implique une dépendance vis-à-vis des pratiques des institutions « productrices ». Malgré ces limitations méthodologiques, l'analyse montre que - au moins prises comme un tout cohérent - les thèses du déclin des classes sociales sont réfutées dans le cas, pourtant favorable en principe, de la société suisse contemporaine. Ainsi, entre autres, cette dernière s'avère n'être pas plus une société de classes moyennes que de classes populaires ; ce qui la rapproche d'ailleurs de nombreuses sociétés européennes.
Resumo:
AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.
Resumo:
Résumé: L'évaluation de l'exposition aux nuisances professionnelles représente une étape importante dans l'analyse de poste de travail. Les mesures directes sont rarement utilisées sur les lieux même du travail et l'exposition est souvent estimée sur base de jugements d'experts. Il y a donc un besoin important de développer des outils simples et transparents, qui puissent aider les spécialistes en hygiène industrielle dans leur prise de décision quant aux niveaux d'exposition. L'objectif de cette recherche est de développer et d'améliorer les outils de modélisation destinés à prévoir l'exposition. Dans un premier temps, une enquête a été entreprise en Suisse parmi les hygiénistes du travail afin d'identifier les besoins (types des résultats, de modèles et de paramètres observables potentiels). Il a été constaté que les modèles d'exposition ne sont guère employés dans la pratique en Suisse, l'exposition étant principalement estimée sur la base de l'expérience de l'expert. De plus, l'émissions de polluants ainsi que leur dispersion autour de la source ont été considérés comme des paramètres fondamentaux. Pour tester la flexibilité et la précision des modèles d'exposition classiques, des expériences de modélisations ont été effectuées dans des situations concrètes. En particulier, des modèles prédictifs ont été utilisés pour évaluer l'exposition professionnelle au monoxyde de carbone et la comparer aux niveaux d'exposition répertoriés dans la littérature pour des situations similaires. De même, l'exposition aux sprays imperméabilisants a été appréciée dans le contexte d'une étude épidémiologique sur une cohorte suisse. Dans ce cas, certains expériences ont été entreprises pour caractériser le taux de d'émission des sprays imperméabilisants. Ensuite un modèle classique à deux-zone a été employé pour évaluer la dispersion d'aérosol dans le champ proche et lointain pendant l'activité de sprayage. D'autres expériences ont également été effectuées pour acquérir une meilleure compréhension des processus d'émission et de dispersion d'un traceur, en se concentrant sur la caractérisation de l'exposition du champ proche. Un design expérimental a été développé pour effectuer des mesures simultanées dans plusieurs points d'une cabine d'exposition, par des instruments à lecture directe. Il a été constaté que d'un point de vue statistique, la théorie basée sur les compartiments est sensée, bien que l'attribution à un compartiment donné ne pourrait pas se faire sur la base des simples considérations géométriques. Dans une étape suivante, des données expérimentales ont été collectées sur la base des observations faites dans environ 100 lieux de travail différents: des informations sur les déterminants observés ont été associées aux mesures d'exposition des informations sur les déterminants observés ont été associé. Ces différentes données ont été employées pour améliorer le modèle d'exposition à deux zones. Un outil a donc été développé pour inclure des déterminants spécifiques dans le choix du compartiment, renforçant ainsi la fiabilité des prévisions. Toutes ces investigations ont servi à améliorer notre compréhension des outils des modélisations ainsi que leurs limitations. L'intégration de déterminants mieux adaptés aux besoins des experts devrait les inciter à employer cet outil dans leur pratique. D'ailleurs, en augmentant la qualité des outils des modélisations, cette recherche permettra non seulement d'encourager leur utilisation systématique, mais elle pourra également améliorer l'évaluation de l'exposition basée sur les jugements d'experts et, par conséquent, la protection de la santé des travailleurs. Abstract Occupational exposure assessment is an important stage in the management of chemical exposures. Few direct measurements are carried out in workplaces, and exposures are often estimated based on expert judgements. There is therefore a major requirement for simple transparent tools to help occupational health specialists to define exposure levels. The aim of the present research is to develop and improve modelling tools in order to predict exposure levels. In a first step a survey was made among professionals to define their expectations about modelling tools (what types of results, models and potential observable parameters). It was found that models are rarely used in Switzerland and that exposures are mainly estimated from past experiences of the expert. Moreover chemical emissions and their dispersion near the source have also been considered as key parameters. Experimental and modelling studies were also performed in some specific cases in order to test the flexibility and drawbacks of existing tools. In particular, models were applied to assess professional exposure to CO for different situations and compared with the exposure levels found in the literature for similar situations. Further, exposure to waterproofing sprays was studied as part of an epidemiological study on a Swiss cohort. In this case, some laboratory investigation have been undertaken to characterize the waterproofing overspray emission rate. A classical two-zone model was used to assess the aerosol dispersion in the near and far field during spraying. Experiments were also carried out to better understand the processes of emission and dispersion for tracer compounds, focusing on the characterization of near field exposure. An experimental set-up has been developed to perform simultaneous measurements through direct reading instruments in several points. It was mainly found that from a statistical point of view, the compartmental theory makes sense but the attribution to a given compartment could ñó~be done by simple geometric consideration. In a further step the experimental data were completed by observations made in about 100 different workplaces, including exposure measurements and observation of predefined determinants. The various data obtained have been used to improve an existing twocompartment exposure model. A tool was developed to include specific determinants in the choice of the compartment, thus largely improving the reliability of the predictions. All these investigations helped improving our understanding of modelling tools and identify their limitations. The integration of more accessible determinants, which are in accordance with experts needs, may indeed enhance model application for field practice. Moreover, while increasing the quality of modelling tool, this research will not only encourage their systematic use, but might also improve the conditions in which the expert judgments take place, and therefore the workers `health protection.
Resumo:
En aquest projecte s’han unificat les dades de l’empresa Solmania i s’han generat estadístiques i informes a diferents formats mitjançant una aplicació RIA implementada amb Adobe Flex. D’aquesta manera es pot fer un control dels paràmetres clau del negoci per ajudar a la companyia a aconseguir els objectius marcats d’una manera eficient. L’aplicatiu permet analitzar des de diversos punts de vista qualsevol tipus d’informació que genera el negoci i fer-ne comparatives de rendiment.
Resumo:
Il y a environ 125 millions d'années, au Crétacé inférieur, la position des continents et le climat terrestre étaient bien différents de ce que l'on connait aujourd'hui. Le Sud-Est de la France, secteur de cette étude, était alors recouvert d'eau, sous un climat chaud et humide. Sur la bordure de cette étendue d'eau (appelée bassin Vocontien), qui correspond aujourd'hui aux régions de la Provence, du Vaucluse, du Gard, de l'Ardèche et du Vercors, des plateformes carbonatées, (telles que les Bahamas), se développaient. Le calcaire, formé à partir des sédiments accumulés sur ces plateformes, est appelé Urgonien. L'objectif de cette étude est de définir les facteurs qui ont influencé le développement de cette plateforme carbonatée dite « urgonienne » et dans quelle mesure. Plusieurs missions de terrain ont permis de récolter de nombreux échantillons de roche en 52 lieux répartis sur l'ensemble du Sud-Est de la France. Les observations réalisées sur le terrain ainsi que les données acquises en laboratoire (microfaune, microfacies et données géo-chimiques) ont permis, de subdiviser chacune des 52 séries urgoniennes en séquences stratigraphiques et cortèges sédimentaires. La comparaison des épaisseurs et des faciès de chaque cortège sédimentaire permet de concevoir la géométrie et l'évolution paléogéographique de la plateforme urgonienne. Les résultats de cette étude démontrent que son organisation est principalement dirigée par des failles qui ont jouées pendant le dépôt des sédiments. Sur la bordure nord du bassin Vocontien, trois failles subméridiennes contrôlent la géométrie et la répartition des environnements de dépôt. Sur sa bordure sud, ces failles synsédimentaires d'orientation N30° et N110° délimitent des blocs basculés. En tête de bloc, des séries d'épaisseurs réduites à faciès de lagon interne se sont déposées alors que les pieds de blocs sont caractérisés par des épaisseurs importantes et la présence de faciès plus externes. Ces concepts ont ensuite été testés en construisant un modèle numérique en trois dimensions de l'Urgonien du Sud-Est de la France. Sa cohérence avec les données acquises tout au long de cette étude d'une part, et sa cohérence géométrique d'autre part, valide les théories avancées. Des formations équivalentes à l'Urgonien sont réparties dans le monde entier et notamment au Moyen-Orient où elles constituent les réservoirs pétroliers les plus importants. Etre capable de caractériser les facteurs ayant influencé son architecture permet par la suite une meilleure exploitation de ses ressources énergétiques. -- Au Crétacé inférieur, l'intense activité magmatique due à la dislocation du super-continent Pangée influence fortement les conditions environnementales globales. Au Barrémien terminal et Aptien basal, période géologique dont fait l'objet cette étude, le bassin Vocontien, puis Bédoulien, recouvre le Sud-Est de la France, sous un climat chaud et humide. Sur les bordures de ces bassins, des plateformes carbonatées se mettent en place. Les sédiments qui se déposent sur ces plateformes sont à l'origine de la formation urgonienne. Afin d'étudier cette formation, une charte biostratigraphique, principalement basée sur les Orbitolinidés, et un modèle de faciès ont été développés. Les assemblages faunistiques, la succession des faciès, les observations de terrain ainsi que l'étude de signaux géochimiques ont permis le découpage séquentiel de la série urgonienne le long de 54 coupes et puis, répartis sur l'ensemble du Sud-Est de la France. Les corrélations induites par cette étude stratigraphique ont mis en évidence d'importantes variations d'épaisseur et d'environnements de dépôt au sein même de la plateforme urgonienne. Ces variations sont expliquées par le jeu de failles syn-sédimentaires qui ont compartimentées la plateforme urgonienne en blocs. Sur la bordure sud du bassin Vocontien, ces failles d'orientation N30° et N110° délimitent six blocs basculés. Au sommet du Barrémien terminal, la subsidence des blocs situés le plus au sud s'amplifie jusqu'à provoquer l'ouverture du bassin de la Bédoule au sud du secteur d'étude. Cette théorie d'évolution a ensuite été testée par l'élaboration d'un modèle numérique en trois dimensions de l'Urgonien du Sud-Est de la France. Sa cohérence avec les données acquises tout au long de cette étude d'une part, et sa cohérence géométrique d'autre part, valide les théories avancées. Des analogues de l'Urgonien sont répartis dans le monde entier et notamment au Moyen-Orient où ils représentent d'importants réservoirs pétroliers. Être capable de caractériser les facteurs ayant influencé l'architecture de l'Urgonien du Sud-Est de la France permet par la suite une meilleure exploitation de ses ressources énergétiques. -- During the Early Cretaceous epoch, intensive magmatic activity due to the dislocation of the super-continent Pangaea, highly influenced global environmental conditions, which were characterized by a warm and generally humic climate. In this context, carbonate platforms were important in tropical and subtropical shallow-water regions, and especially during the late Barremian and early Aptian, platform carbonates of so-called Urgonian affinity are widespread. In southeastern France, the Urgonian platform was part of the northern Tethyan margin and bordered the Vocontian and the Bedoulian basins. The goal of this thesis was the systematic study of the Urgonian Formation in this region, and in order to achieve this goal, a biostratigraphic chart and a facies model were developed. The faunistic assemblages, the facies succession, the field observations and the study of geochemical signals lead to a sequential subdivision of the Urgonian series along 54 sections and wells allocated in five different regions in southeastern France (Gard, Ardèche, Vercors, Vaucluse and Provence). Correlations from this stratigraphic study highlight important variations in thickness and depositional environments of the Urgonian series. These variations are explained by relative movements induced by syn-sedimentary faults, which divided the Urgonian platforms into blocks. On the southern border of the Vocontian basin, these faults, oriented N30° and N110°, delineate six tilted blocks. At the top of the upper Barremian carbonates, subsidence of the two southern blocks accelerated leading to the opening of the Bedoulian basin. The reconstruction of the sequence-stratigraphic and paleoenvironmental evolution of the Urgonian platforms was then tested by the construction of a 3D numerical model of the Urgonian formation of southeastern France. Firstly, its consistency with the data collected during this study, and secondly, its geometrical coherence validate the proposed theory. Urgonian analogs exist all over the world and particularly in Middle East where they constitute important oil reservoirs. The exact reconstruction of the major factors, which influenced the architecture of these formations, will allow for a better exploitation of these energy resources.
Resumo:
El beneficio principal de contar con una representación de la potencia causal (Cheng, 1997) es que ésta supone una descripción contexto-independiente de la influencia de una determinada causa sobre el efecto. Por lo tanto, una forma adecuada de poner a prueba la existencia de estos modelos mentales es crear situaciones en las que la gente observa o predice la efectividad de las causas diana en múltiples contextos. La naturaleza trans-situacional de la potencia trae consigo una serie de consecuencias testables que hemos puesto a prueba a lo largo de tres series experimentales. En la primera serie experimental investigamos la transferencia de la fuerza causal, aprendida en un contexto específico, a un contexto en el que la probabilidad o tasa base del efecto es diferente. Los participantes debían predecir la probabilidad del efecto dada la introducción de la causa en el nuevo contexto. En la segunda serie experimental estudiamos las estrategias utilizadas por las personas a la hora de descubrir relaciones causales. De acuerdo con el modelo de la potencia causal, si pretendemos descubrir la potencia de una causa, entonces lo más apropiado es introducirla en el contexto más informativo y menos ambiguo posible. En los distintos experimentos de la serie combinamos tanto contextos como causas probabilísticas y determinísticas. En la tercera serie experimental intentamos extender los hallazgos de Liljeholm & Cheng (2007), en los se encontró que la generalización entre contextos ocurre según las predicciones del modelo de potencia. Parece probable que el procedimiento de dos fases utilizado por los autores promueva la tendencia a ignorar algunos ensayos, generando artificialmente resultados consistentes con los esperados por la potencia. Además, cuando controlamos la P(E|C) independientemente de la potencia, el patrón de resultados se invirtió, contradiciendo lo esperado por el modelo de Cheng. En conclusión, existe cierta evidencia que apoya la existencia de modelos causales pero es necesario buscar formas adecuadas de poner a prueba estos modelos.
Resumo:
STUDY OBJECTIVES: Hemispheric stroke in humans is associated with sleep-wake disturbances and sleep electroencephalogram (EEG) changes. The correlation between these changes and stroke extent remains unclear. In the absence of experimental data, we assessed sleep EEG changes after focal cerebral ischemia of different extensions in mice. DESIGN: Following electrode implantation and baseline sleep-wake EEG recordings, mice were submitted to sham surgery (control group), 30 minutes of intraluminal middle cerebral artery (MCA) occlusion (striatal stroke), or distal MCA electrocoagulation (cortical stroke). One and 12 days after stroke, sleep-wake EEG recordings were repeated. The EEG recorded from the healthy hemisphere was analyzed visually and automatically (fast Fourier analysis) according to established criteria. MEASUREMENTS AND RESULTS: Striatal stroke induced an increase in non-rapid eye movement (NREM) sleep and a reduction of rapid eye movement sleep. These changes were detectable both during the light and the dark phase at day 1 and persisted until day 12 after stroke. Cortical stroke induced a less-marked increase in NREM sleep, which was present only at day 1 and during the dark phase. In cortical stroke, the increase in NREM sleep was associated in the wake EEG power spectra, with an increase in the theta and a reduction in the beta activity. CONCLUSION: Cortical and striatal stroke lead to different sleep-wake EEG changes in mice, which probably reflect variable effects on sleep-promoting and wakefulness-maintaining neuronal networks.
Resumo:
2. Plan du travail Pour atteindre nos objectifs, notre travail sera essentiellement divisé en trois grandes sections. La première partie nous sert principalement à esquisser notre démarche et les enjeux de notre entreprise, ainsi qu'à la situer au sein d'un cadre théorique - la linguistique interactionnelle - combinant l'analyse grammaticale et l'analyse conversationnelle. Nous procéderons d'abord à une brève description de l'analyse conversationnelle ethnométhodologique, ensuite à celle du courant Interaction and Grammar. Dans le cadre de ces descriptions, nous illustrerons par des exemples les liens entre la grammaire et l'interaction sociale tels qu'ils ont été élaborés dans de nombreuses recherches dans le domaine. Finalement, nous résumerons nos objectifs et nos procédures d'analyse. La deuxième partie consiste essentiellement en une discussion et une problématisation de l'état de la recherche dans la littérature. L'exposé montrera les principaux problèmes que la pseudo-clivée pose aux différents niveaux d'analyse. Nous y traiterons des problèmes de définition et de délimitation de la construction en question au niveau syntaxique et sémantique. Nous enchaînerons avec l'exposé de l'état de la recherche au niveau pragmatique et discursif Cette discussion nous permettra de problématiser à la fois la fonction principale dévolue à la pseudo-clivée et l'établissement de la relation entre forme et fonction. Finalement, nous aborderons certains aspects dont nous ne nous occuperons pas ou seulement partiellement dans notre travail. Le résumé de cette deuxième partie nous servira à récapituler les problèmes soulevés par la pseudo-clivée française. La troisième partie - empirique et analytique - constitue la partie centrale de ce travail. Elle exposera nos résultats à travers l'analyse d'exemples qui exhibent les propriétés typiques des occurrences retenues dans notre corpus. Cette partie est donc consacrée aux formes, aux fonctionnements syntaxico-séquentiels et aux fonctions effectivement rencontrées dans nos données pour aboutir à une description de ses propriétés interactives et à une typologie compatible avec les usages interactifs réels. Après l'exposé de ce qui nous semble le plus typique dans l'usage interactif effectif de la pseudo-clivée par les interlocuteurs, nous nous dirigerons plus particulièrement vers la délimitation et la localisation de notre objet d'analyse, d'une part, par rapport à d'autres constructions (clivées, pseudo-clivées inversées, dislocations à gauche), et d'autre part, par rapport à d'autres unions d'unités qui n'ont pas le statut de construction en usage. Finalement, nous tenterons d'intégrer nos observations dans une description cohérente du "phénomène pseudo-clivé" dans l'usage des locuteurs. De plus, nous présenterons - sur la base de nos résultats - des réponses ou des éléments de réponse aux problématiques soulevées par notre objet d'analyse telles que nous les avons élaborées et discutées dans la partie II de ce travail. Nous terminerons par une discussion sur les apports de notre démarche, ainsi qu'à une évaluation de notre conception spécifique des faits de grammaire, et plus particulièrement d'une construction syntaxique (partie IV). Nous indiquerons des pistes de recherche possibles à suivre en fonction de nos résultats. Parmi d'éventuelles investigations futures, un accent particulier sera mis sur les aspects prosodiques et la recherche comparative.