999 resultados para Cointégration des données de panel


Relevância:

100.00% 100.00%

Publicador:

Resumo:

This dissertation analyses public opinion towards the welfare state across 29 European countries. Based on an interdisciplinary approach combining social psychological, sociological, and public opinion approaches to political opinion formation, it investigates how social position and shared beliefs shape perceived legitimacy of welfare institutions, and how social contexts impact on the processes of opinion formation. Drawing on social representations theory, as well as socialization and self-interest approaches, the dissertation analyses the role of social position in lay support for institutional solidarity. Normative beliefs-defined as preferred views regarding the organisation of social relations-mediate the effect of social position on welfare support. In addition, drawing on public opinion literature, the dissertation analyses opinion formation as a function of country-level structural (e.g., level of social spending, unemployment) and ideological factors (e.g., level of meritocracy). The dissertation comprises two theoretical and four empirical chapters. Three of the empirical chapters use data from the European Social Survey 2008. Using multilevel and typological approaches, the dissertation contributes to welfare attitude literature by showing that normative beliefs, such as distrust or egalitarianism, function as underlying mechanisms that link social position to policy attitudes (Chapter 3), and that characteristics of the national contexts influence the processes of political opinion formation (Chapters 3 and 4). Chapter 5 proposes and predicts a typology of the relationship between attitudes towards solidarity and attitudes towards control, reflecting the two central domains of government intervention. Finally, Chapter 6 examines welfare support in the realm of action and social protest, using data from a survey on Spanish Indigados activists. The findings of this dissertation inform contemporary debates about welfare state legitimacy and retrenchment. - Cette thèse avait pour but d'analyser l'opinion publique envers l'Etat social dans 29 pays européens. Basée sur une approche interdisciplinaire qui combine des perspectives psycho-sociales, sociologiques et d'opinion publique sur la formation d'opinion politique, la thèse étudie comment la position sociale et les croyances partagées façonnent la légitimité perçue des institutions de l'Etat social, et comment les contextes sociaux influencent les processus de formation d'opinion. Basée sur la théorie des représentations sociales, ainsi qu'une approche de socialisation et d'intérêt propre, cette thèse analyse le rôle des positions sociales dans le soutien envers la solidarité institutionnelle. Les croyances normatives-définies comme les visions préférées de l'organisation des rapports sociaux-médiatisent l'effet de la position sociale sur le soutien pour l'Etat social. De plus, s'inspirant de la littérature sur l'opinion publique, la thèse analyse la formation d'opinion en fonction des facteurs structurels (ex. le taux de dépenses sociales, le chômage) et idéologiques (ex. le degré de méritocratie). Cette thèse est composée de deux chapitres théoriques et quatre chapitres empiriques. Trois chapitres empiriques utilisent des données provenant de l'enquête European Social Survey 2008. Appliquant des approches multi-niveux et typoloqiques, la thèse contribue à la littérature sur les attitudes envers l'Etat social en montrant que les croyances normatives, telles que la méfiance ou l'égalitarisme, fonctionnent comme des mécanismes sous-jacents qui relient la position sociale aux attitudes politiques (Chapitre 3), et que les caractéristiques des contextes nationaux influencent les processus de formation d'opinion politique (Chapitres 3 et 4). Le chapitre 5 propose et prédit une typologie sur le rapport entre les attitudes envers la solidarité et celles envers le contrôle, renvoyant à deux domaines centraux de régulation étatique. Enfin, le chapitre 6 examine le soutien à l'Etat social dans le domaine de l'action protestataire, utilisant des données d'une enquête menée auprès des militants espagnols du mouvement des Indignés. Les résultats de cette thèse apportent des éléments qui éclairent les débats contemporains sur la légitimité de l'Etat social et son démantèlement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Rapport de synthèse : Le traitement des leucémies aiguës chez l'enfant représente un des succès de la médecine moderne avec des taux de guérison avoisinant les 80% ce qui implique la nécessité de suivre les effets secondaires à long terme des traitements chez cette population de patients. Récemment plusieurs études internationales ont relevé une prévalence plus importante de surpoids et d'obésité chez les enfants traités pour une leucémie aiguë. L'origine de ce processus reste incertaine :aux effets secondaires bien connus et décrits des traitements (stéroïdes et radiothérapie) semblent s'ajouter des facteurs génétiques, familiaux (age, BMI au diagnostic, BMI parents et fratrie), environnementaux. L'objectif de ce travail est d'estimer la prévalence et les facteurs de risque pour le surpoids et l'obésité chez les enfants traités et guéris d'une leucémie aiguë en Suisse romande et de comparer ces résultats à ceux d'études internationales. Pour répondre à ces questions nous avons inclus 54 patients (40 de Lausanne et 14 de Genève) traités pour une leucémie aiguë. Seuls les enfants à 5 ans de leur première rémission clinique, sans atteinte du système nerveux central, testiculaire ou médullaire et traités par chimiothérapie seule sont retenus. Leur poids, taille sont enregistrés durant les phases précises de traitement (au diagnostic, à la rémission, fin de consolidation, milieumaintenance et en fin de traitement) puis annuellement jusqu'à 12 ans post fin de traitement. Le BMI (kg/ml) et sa déviation standard BMI-SDS (spécifique pour Page et le sexe) pour les patients et leurs parents sont calculés selon les valeurs internationales (IOTF) respectivement BMI-SDS >1.645 (p<0.05) pour le surpoids et> 1.96 (p<0.025) pour l'obésité. Les résultats de ce travail confirment une prévalence double de surpoids (30% versus 17%) et quadruple d'obésité (18% versus 4%) au sein de la population d'enfants traités pour une leucémie aiguë comparées à la population suisse standard. Les facteurs de risque impliqués sont le BMI initial au diagnostic et le BMI maternel contrairement à Page, sexe, stéroïdes et au BMI paternel. Ces données confirment une prévalence significative d'enfants en surpoids/obèses au sein de cette population avec des résultats similaires à ceux retrouvés dans des études internationales récentes. Les facteurs de risque identifiés semblent plutôt liés à l'environnement familial qu'aux traitements. Ces constatations pourraient être le résultat d'interactions complexes entre "le background génétique", les facteurs environnementaux, les habitudes socioculturelles (activité physique, status nutritionnel) paramètres non évalués dans cette revue. Des études plus larges, prospectives sont nécessaires pour clarifier les rôles des différents facteurs de risque et de leurs interactions ;celles-ci devraient inclure des données génétiques (LEPR), taux de leptine, activité physique et le status nutritionnel. Enfin, l'identification des patients à risque est cruciale afin de prévenir les effets secondaires cardio-vasculaires, métaboliques bien connus liés au surpoids et à l'obésité.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Magmas of the arc-tholeiitic and calc-alkaline differentiation suites contribute substantially to the formation of continental crust in subduction zones. Different geochemical-petrological models have been put forward to achieve evolved magmas forming large volumes of tonalitic to granitic plutons, building an important part of the continental crust. Primary magmas produced in the mantle wedge overlying the subducted slab migrate through the mantle and the crust. During the transfer, magma can accumulate in intermediate reservoirs at different levels where crystallization leads to differentiation and the heat transfer from the magma, together with gained heat from solidification, lead to partial melting of the crust. Partial melts can be assimilated and mix with more primitive magma. Moreover, already formed crystal cumulates or crystal mushes can be recycled and reactivated to transfer to higher crustal levels. Magma transport in the crust involves fow through fractures within a brittle elastic rock. The solidified magma filled crack, a dyke, can crosscut previously formed geological structures and thus serves as a relative or absolute time marker. The study area is situated in the Adamello massif. The Adamello massif is a composite of plutons that were emplaced between 42 and 29 million years. A later dyke swarm intruded into the southern part of the Adamello Batholith. A fractionation model covering dyke compositions from picrobasalts to dacites results in the cummulative crystallization of 17% olivine, 2% Cr-rich spinel, 18% clinopyroxene, 41% amphibole, 4% plagioclase and 0.1% magnetite to achieve an andesitic composition out of a hydrous primitive picrobasalt. These rocks show a similar geochemical evolution as experimental data simulating fractional crystallization and associated magma differentiation at lower crustal depth (7-10 kbar). The peraluminous, corundum normative composition is one characteristic of more evolved dacitic magmas, which has been explained in a long lasting debate with two di_erent models. Melting of mafic crust or politic material provides one model, whereas an alternative is fractionation from primary mantle derived melts. Amphibole occurring in basaltic-andesitic and andesitic dyke rocks as fractionating cumulate phase extracted from lower crustal depth (6-7.5 kbar) is driving the magmas to peraluminous, corundum normative compositions, which are represented by tonalites forming most of the Adamello Batholith. Most primitive picrobasaltic dykes have a slightly steepened chondrite normalized rare earth elements (REE) pattern and the increased enrichment of light-REE (LREE) for andesites and dacites can be explained by the fractional crystallization model originating from a picrobasalt, taking the changing fractionating phase assemblage and temperature into account. The injection of hot basaltic magma (~1050°C) in a closely spaced dyke swarm increases the surface of the contact to the mainly tonalitic wallrock. Such a setting induces partial melting of the wall rock and selective assimilation. Partial melting of the tonalite host is further expressed through intrusion breccias from basaltic dykes. Heat conduction models with instantaneous magma injection for such a dyke swarm geometry can explain features of partial melting observed in the field. Geochemical data of minerals and bulk rock further underline the selective or bulk assimilation of the tonalite host rock at upper crustal levels (~2-3 kbar), in particular with regard to light ion lithophile elements (LILE) such as Sr, Ba and Rb. Primitive picrobasalts carry an immiscible felsic assimilant as enclaves that bring along refractory rutile and zircon with textures typically found in oceanic plagiogranites or high pressure/low-temperature metamorphic rocks in general. U-Pb data implies a lower Cretaceous age for zircon not yet described as assimilant in Eocene to Oligocene magmatic rocks of the Central Southern Alps. The distribution of post-plutonic dykes in large batholiths such as the Adamello is one of the key features for understanding the regional stress field during the post-batholith emplacement cooling history. The emplacement of the regional dyke swarm covering the southern part of the Adamello massif was associated with consistent left lateral strike-slip movement along magma dilatation planes, leading to en echelon segmentation of dykes. Through the dilation by magma of pre-existing weaknesses and cracks in an otherwise uniform host rock, the dyke propagation and according orientation in the horizontal plane adjusted continuously perpendicular to least compressive remote stress σ3, resulting in an inferred rotation of the remote principal stress field. Les magmas issus des zones de subduction contribuent substantiellement à la formation de la croûte continentale. Les plutons tonalitiques et granitiques représentent, en effet, une partie importante de la croûte continentale. Des magmas primaires produits dans le 'mantle wedge ', partie du manteau se trouvant au-dessus de la plaque plongeante dans des zones de subduction, migrent à travers le manteau puis la croûte. Pendant ce transfert, le magma peut s'accumuler dans des réservoirs intermédiaires à différentes profondeurs. Le stockage de magma dans ces réservoirs engendre, d'une part, la différentiation des magmas par cristallisation fractionnée et, d'autre part, une fusion partielle la croûte continentale préexistante associée au transfert de la chaleur des magmas vers l'encaissant. Ces liquides magmatiques issus de la croûte peuvent, ensuite, se mélanger avec des magmas primaires. Le transport du magma dans la croûte implique notamment un flux de magma à travers différentes fractures recoupant les roches encaissantes élastiques. Au cours de ce processus de migration, des cumulats de cristaux ou des agrégats de cristaux encore non-solidifiés, peuvent être recyclés et réactivés pour être transportés à des niveaux supérieures de la croûte. Le terrain d'étude est situé dans le massif d'Adamello. Celui-ci est composé de plusieurs plutons mis en place entre 42 et 29 millions d'années. Dans une phase tardive de l'activité magmatique liée à ce batholite, une série de filons de composition variable allant de picrobasalte à des compositions dacitiques s'est mise en place la partie sud du massif. Deux modèles sont proposés dans la littérature, pour expliquer la formation des magmas dacitiques caractérisés par des compositions peralumineux (i.e. à corindon normatif). Le premier modèle propose que ces magmas soient issus de la fusion de matériel mafique et pélitique présent dans la partie inférieur de la croûte, alors que le deuxième modèle suggère une évolution par cristallisation fractionnée à partir de liquides primaires issus du manteau. Un modèle de cristallisation fractionnée a pu être développé pour expliquer l'évolution des filons de l'Adamello. Ce modèle explique la formation des filons dacitiques par la cristallisation fractionnée de 17% olivine, 2% spinelle riche en Cr, 18% clinopyroxène, 41% amphibole, 4% plagioclase et 0.1% magnetite à partir de liquide de compositions picrobasaltiques. Ce modèle prend en considération les contraintes pétrologiques déduites de l'observation des différents filons ainsi que du champ de stabilité des différentes phases en fonction de la température. Ces roches montrent une évolution géochimique similaire aux données expérimentales simulant la cristallisation fractionnée de magmas évoluant à des niveaux inférieurs de la croûte (7-10 kbar). Le modèle montre, en particulier, le rôle prépondérant de l'amphibole, une phase qui contrôle en particulier le caractère peralumineux des magmas différentiés ainsi que leurs compositions en éléments en traces. Des phénomènes de fusion partielle de l'encaissant tonalitique lors de la mise en place de _lons mafiques sont observée sur le terrain. L'injection du magma basaltique chaud (~1050°C) sous forme de filons rapprochés augmente la surface du contact avec l'encaissante tonalitique. Une telle situation produit la fusion partielle des roches encaissantes nécessaire à l'incorporation d'enclaves mafiques observés au sein des tonalites. Pour comprendre les conditions nécessaires pour la fusion partielle des roches encaissantes, des modèles de conduction thermique pour une injection simultanée d'une série de filons ont été développées. Des données géochimiques sur les minéraux et sur les roches totales soulignent qu'au niveau supérieur de la croûte, l'assimilation sélective ou totale de l'encaissante tonalitique modifie la composition du liquide primaire pour les éléments lithophiles tel que le Sr, Ba et Rb. Un autre aspect important concernant la pétrologie des filons de l'Adamello est la présence d'enclaves felsiques dans les filons les plus primitifs. Ces enclaves montrent, en particulier, des textures proches de celles rencontrées dans des plagiogranites océaniques ou dans des roches métamorphiques de haute pression/basse température. Ces enclaves contiennent du zircon et du rutile. La datations de ces zircons à l'aide du géochronomètre U-Pb indique un âge Crétacé inférieur. Cet âge est important, car aucune roche de cet âge n'a été considérée comme un assimilant potentiel pour des roches magmatiques d'âge Eocène à Oligocène dans les Alpes Sud Centrales. La réparation spatiale des filons post-plutoniques dans des grands batholites tel que l'Adamello, est une caractéristique clé pour la compréhension des champs de contraintes lors du refroidissement du batholite. L'orientation des filons va, en particulier, indiqué la contrainte minimal au sein des roches encaissante. La mise en place de la série de filon recoupant la partie Sud du massif de l'Adamello est associée à un décrochement senestre, un décrochement que l'on peut lié aux contraintes tectoniques régionales auxquelles s'ajoutent l'effet de la dilatation produite par la mise en place du batholite lui-même. Ce décrochement senestre produit une segmentation en échelon des filons.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Selon un rapport du Conseil fédéral publié en novembre 2011, le droit d'auteur actuel serait adapté à l'ère numérique. Un examen critique de cette conclusion montre qu'il n'en est rien. En effet, le droit positif ne peut pas être mis en oeuvre, pour des raisons qui dépassent de loin la problématique de la protection des données ayant fait l'objet de l'arrêt Logistep. D'une part, il est difficile de prouver les atteintes au droit d'auteur sur internet. D'autre part, les sanctions civiles pécuniaires d'infractions au droit d'auteur sont peu adaptées lorsque des oeuvres sont mises en ligne à titre gratuit.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En 36 chapitres, concis et efficaces, cet ouvrage propose des repères pour la prise en charge des patients adultes en médecine générale et en médecine interne ambulatoire. Les thèmes ont été choisis en fonction des besoins exprimés par les médecins en formation. Chaque chapitre propose une stratégie diagnostique et thérapeutique dans une perspective d'usage rationnel des ressources du système de santé, en tenant compte des données les plus récentes de la médecine basée sur les preuves. Ce livre confirme que la pratique de la médecine reste un subtil assemblage des connaissances scientifiques, de l'expertise clinique et des valeurs du patient.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ant colonies are known for their complex and efficient social organization that com-pletely lacks hierarchical structure. However, due to methodological difficulties in follow¬ing all ants of a colony, it was until now impossible to investigate the social and temporal organization of colonies. We developed a tracking system that allows tracking the posi¬tions and orientations of several hundred individually labeled ants continuously, providing for the first time quantitative long term data on all individuals of a colony. These data permit reconstructing trajectories, activity patterns and social networks of all ants in a colony and enable us to investigate ant behavior quantitatively in previously unpreceded ways. By analyzing the spatial positions and social interactions of all ants in six colonies for 41 days we show that ant colonies are organized in groups of nurses, nest patrollers and foragers. Workers of each group were highly interconnected and occupied similar spa¬tial locations in the nest. Groups strongly segregated spatially, and were characterized by unique behavioral signatures. Nurses spent most of their time on the brood. Nest patrollers frequently visited the rubbish pile, and foragers frequently visited the forag¬ing arena. In addition nurses were on average younger than nest patrollers who were, in turn, younger than foragers. We further show that workers had a preferred behav¬ioral trajectory and moved from nursing to nest patrolling, and from nest patrolling to foraging. By analyzing the activity patterns of all ants we show that only a third of all workers in a colony exhibit circadian rhythms and that these rhythms shortened by on av¬erage 42 minutes in constant darkness, thereby demonstrating the presence of a functional endogenous clock. Most rhythmic workers were foragers suggesting that rhythmicity is tightly associated with task. Nurses and nest patrollers were arrhythmic which most likely reflects plasticity of the circadian clock, as isolated workers in many species exhibit circadian rhythmicity. Altogether our results emphasize that ant colonies, despite their chaotic appearance, repose on a strong underlying social and temporal organization. - Les colonies de fourmis sont connues pour leur organisation sociale complexe et effi-cace, charactérisée par un manque absolu de structure hiérarchique. Cependant, puisqu'il est techniquement très difficile de suivre toutes les fourmis d'une colonie, il a été jusqu'à maintenant impossible d'étudier l'organisation sociale et temporelle des colonies de four-mis. Nous avons développé un système qui permet d'extraire en temps réel à partir d'images vidéo les positions et orientations de plusieurs centaines de fourmis marquées individuellement. Nous avons pu ainsi générer pour la première fois des données quanti-tatives et longitudinales relatives à des fourmis appartenant à une colonie. Ces données nous ont permis de reconstruire la trajectoire et l'activité de chaque fourmi ainsi que ses réseaux sociaux. Ceci nous a permis d'étudier de manière exhaustive et objective le com-portement de tous les individus d'une colonie. En analysant les données spatiales et les interactions sociales de toutes les fourmis de six colonies qui ont été filmées pendant 41 jours, nous montrons que les fourmis d'une même colonie se répartissent en trois groupes: nourrices, patrouilleuses et approvisionneuses. Les fourmis d'un même groupe interagis-sent fréquemment et occupent le même espace à l'intérieur du nid. L'espace propre à un groupe se recoupe très peu avec celui des autres. Chaque groupe est caractérisé par un comportement typique. Les nourrices s'affairent surtout autour du couvain. Les pa-trouilleuses font de fréquents déplacements vers le tas d'ordures, et les approvisionneuses sortent souvent du nid. Les nourrices sont en moyenne plus jeunes que les patrouilleuses qui, à leur tour, sont plus jeunes que les approvisionneuses. De plus, nous montrons que les ouvrières changent de tâche au cours de leur vie, passant de nourrice à patrouilleuse puis à approvisionneuse. En analysant l'activité de chaque fourmi, nous montrons que seulement un tiers des ouvrières d'une colonie présente des rythmes circadiens et que ces rythmes diminuent en moyenne de 42 minutes lorsqu'il y a obscurité constante, ce qui démontre ainsi la présence d'une horloge endogène. De plus, la plupart des approvi¬sionneuses ont une activité rythmique alors que les nourrices et patrouilleuses présentent une activité arythmique, ce qui suggère que la rythmicité est étroitement associée à la tâche. L'arythmie des nourrices et patrouilleuses repose probablement sur une plasticité de l'horloge endogène car des ouvrières de nombreuses espèces font preuve d'une ryth¬micité circadienne lorsqu'elles sont isolées de la colonie. Dans l'ensemble nos résultats révèlent qu'une colonie de fourmis se fonde sur une solide organisation sociale et tem¬porelle malgré son apparence chaotique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette recherche sur les jeux d'argent et de hasard au sein de la population des jeunes résidents Suisses avait trois objectifs. Pour avoir des données de base, nous nous sommes d'une part intéressés à la prévalence de ce comportement et, basé sur des critères de fréquence, avons mis en évidence une population plus à risque de subir des conséquences néfastes du jeu;à savoir ceux qui jouent au minimum une fois par semaine. Le deuxième objectif était de déterminer s'il existait une association entre la fréquence du jeu et 1) l'utilisation de substances, 2) une mauvaise santé mentale et/ou 3) un faible support social, comme cela a été décrit dans la littérature pour les joueurs pathologiques. Finalement, pour savoir si les joueurs fréquents étaient «fixés» sur un seul type de jeu ou au contraire jouaient de manière non-sélective, nous avons effectué la corrélation entre la fréquence de jeu et le nombre de jeux différents dans lesquels les jeunes étaient impliqués.Pour ces analyses, nous avons utilisé la base de données de l'Enquête Suisse sur la Santé 2007, une étude transversale interrogeant des résidents suisses âgés de 15 ans ou plus. Cette enquête a été menée en deux étapes: 1) un questionnaire téléphonique (taux de réponse: 66.3%) puis 2) un questionnaire écrit (taux de réponse: 80.5% de ceux qui ont répondu à l'interview téléphonique). En tenant compte de la pondération pour l'échantillon de participants ayant répondu aux deux types d'interviews, nous avons considéré uniquement les personnes âgées de 15 à 24 ans. Au total 1116 (582 hommes) participants ont été retenus pour notre étude.Pour répondre au second objectif, nous avons comparé trois groupes. Les non-joueurs (NJ, n=577), les joueurs occasionnels (JO, n=388) et les joueurs fréquents (JF, n=151) ont été étudiés d'abord grâce à des analyses bivariées, puis à une régression multinomiale permettant de tenir compte des facteurs confondants. La sélection des variables pour la régression a été basée sur une méthode «bootstrap» permettant de produire des résultats représentatifs de la population entière et pas uniquement de l'échantillon analysé.Nous avons procédé de manière similaire pour répondre à la troisième question de recherche, mais en comparant uniquement les joueurs occasionnels et les joueurs fréquents.Les résultats ont mis en évidence que 48.3% des jeunes résidents suisses étaient impliqués dans au moins un type de jeu dans l'année précédente. Par ailleurs, 13.5% (n=151) des 15 à 24 ans jouaient au minimum une fois par semaine.Au niveau bivarié, la fréquence de jeu était associée à des facteurs sociodémographiques comme le sexe masculin, l'âge (les JO étant les plus âgés), et le revenu personnel. La fréquence de jeu était également significativement associée au fait de fumer du tabac quotidiennement, d'être actuellement fumeur de cannabis et d'avoir une consommation d'alcool à risque (beuveries). La mauvaise santé mentale (épisode de dépression majeure ou détresse psychologique) et le faible support relationnel (personne de confiance dans l'entourage ou activités de loisirs) n'étaient pas associés à la fréquence de jeu de manière significative, bien qu'une nette tendance en faveur des NJ ait pu être mise en évidence. Au niveau multivarié, les JO et JF étaient plus âgés, plus souvent de sexe masculin et habitaient plus souvent en Suisse romande que les NJ. Les JO étaient plus à risque que les NJ de se soumettre à des beuveries de manière occasionnelle et les JF étaient plus à risque que les NJ d'être des fumeurs de tabac quotidiens.En comparant les JO et les JF, nous avons obtenu une correlation élevée (r=0.85;p<0.0001) entre la fréquence de jeu et le nombre de jeux dans lesquels les jeunes étaient impliqués. Ceci indiquant que les JF ne semblent pas très sélectifs quant au type de jeu auquel ils jouent.Dans la mesure où le jeu est un comportement très prévalent au sein de la population des jeunes résidents suisses, il doit probablement être vu comme une conduite faisant partie des comportements exploratoires de l'adolescence. Néanmoins, au vu des comportements à risque qui y sont associés, la question du jeu devrait être soulevée par les médecins s'occupant de jeunes adultes à des fins de prévention.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le but de cette étude était - d'établir un instrument d'enquête utilisable en cas d'épidémie; - de reconnaître une éventuelle reprise de l'épidémie observée l'hiver précédent, et dans cette hypothèse de récolter des données pour la recherche d'une source.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'article «Capacité de travail et assurance invalidité » [1] décrit le malaise actuel concernant la réhabilitation à la place de travail. Cette problématique n'est toutefois pas uniquement valable pour des incapacités de travail liées à des raisons psychiques, mais aussi pour des incapacités de travail dues à des troubles musculo-squelettiques. De plus, les difficultés de réhabilitation à la place de travail ne doivent pas être imputées uniquement à l'assurance invalidité. En effet, elles sont dues d'une part à des données structurelles de la Suisse (comme une faible implantation de la médecine du travail dans les entreprises et un accès peu développé à la médecine de réhabilitation) et d'autre part, à un manque de définition claire de répartition des coûts ou des responsabilités. Dans son article R. Conne décrit de façon pertinente le malaise existant en Suisse en ce qui concerne la question de la réhabilitation à la place de travail ou de la récupération de sa capacité de travail. Toutefois, cet article se base principalement sur des incapacités de travail dues à des causes psychiques. En temps que médecin du travail et médecin en réhabilitation, nous souhaitons nous emparer de la discussion et l'élargir. Cet élargissement comprend d'une part la prise en compte d'incapacités de travail pour des causes non psychiques et d'autre part, la situation générale des assurances en Suisse. En effet, plutôt que de se focaliser uniquement sur le problème de l'assurance invalidité, il nous semble utile d'étendre le débat à la situation générale des assurances. [Auteurs]

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Rapport de synthèse : Bien que les complications sévères de l'anesthésie soient actuellement rares, des informations contradictoires existent à propos du rôle et de l'importance de l'hypertension artérielle chronique sur la survenue de complications en cours d'anesthésie. En raison de la prévalence élevée de l'hypertension artérielle dans la population et du grand nombre d'anesthésies effectuées, il est important de clarifier cette relation. Le but de l'étude était d'évaluer si les personnes hypertendues étaient à risque accru de présenter des complications lors d'anesthésies à partir de données collectées de routine lors d'anesthésies usuelles réalisées en Suisse. Nous avons utilisé les données figurant dans le registre ADS (Anesthésie Données Suisse) correspondant à des anesthésies, générales ou locorégionales, réalisées pour chirurgie élective chez des adultes, entre 2000 et 2004 dans 24 hôpitaux suisses. L'attention était portée principalement sur les incidents cardio-vasculaires, mais les autres incidents relevés de routine ont aussi été évalués. La présence d'une hypertension artérielle chronique était définie par la présence d'un traitement antihypertenseur ou par l'anamnèse d'une hypertension artérielle, combinée à la mesure d'une pression artérielle élevée (systolique >160 mm Hg ou diastolique >100 mm Hg) lors de l'examen préopératoire de l'anesthésiste. Les incidents relevés en cours d'anesthésie ont été définis a priori et sont enregistrés de routine sur la feuille d'anesthésie et reportés dans une base de données centralisée. En raison de la structure des données, des analyses hiérarchiques ont été effectuées incluant des variables individuelles (niveau 1), liées aux groupes d'interventions chirurgicales (niveau 2) et à l'hôpital (niveau 3). Parmi les 124 939 interventions, 27 881 (22%) concernaient des patients connus pour une hypertension artérielle chronique. Au moins un incident est survenu dans 16,8% des interventions (95% Cl 16,6 -17,0%). Chez 7 549 patients, au moins un incident cardio- vasculaire est survenu, soit dans 6% des anesthésies (95% Cl 5.9-6.2%). Le rapport des cotes (odds ratio) moyen ajusté pour les incidents cardio-vasculaires chez les patients hypertendus était de 1.38 (95% Cl 1.27-1.49), indiquant une augmentation du risque chez les patients hypertendus. Cependant, l'hypertension n'était pas liée à un risque augmenté de survenue d'un autre incident. Les rapports de cotes ajustés de la survenue d'une complication cardiovasculaire en présence d'une hypertension artérielle variaient selon les hôpitaux entre 0.41 et 2.25. Ainsi, cette étude confirme la présence d'un risque accru de survenue d'une complication cardiovasculaire chez un patient hypertendu lors d'une anesthésie pour chirurgie élective. Il s'agissait le plus souvent d'une arythmie ou d'une perturbation hémodynamique. Cette augmentation du risque proche de 40% a aussi été trouvée dans une revue systématique avec méta-analyse. L'hétérogénéité des institutions -qui persiste même en tenant compte des ajustements pour le type d'intervention chirurgicale et des variables individuelles (case-mix) - suggère des différences de pratique de l'anesthésie selon l'hôpital.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Rapport de synthèseLe syndrome d'apnées obstructives du sommeil (SAOS) est une pathologie respiratoire fréquente. Sa prévalence est estimée entre 2 et 5% de la population adulte générale. Ses conséquences sont importantes. Notamment, une somnolence diurne, des troubles de la concentration, des troubles de la mémoire et une augmentation du risque d'accident de la route et du travail. Il représente également un facteur de risque cardiovasculaire indépendant.Ce syndrome est caractérisé par la survenue durant le sommeil d'obstructions répétées des voies aériennes supérieures. L'arrêt ou la diminution d'apport en oxygène vers les poumons entraîne des épisodes de diminution de la saturation en oxygène de l'hémoglobine. Les efforts ventilatoires visant à lever l'obstacle présent sur les voies aériennes causent de fréquents réveils à l'origine d'une fragmentation du sommeil.La polysomnographie (PSG) représente le moyen diagnostic de choix. Il consiste en l'enregistrement dans un laboratoire du sommeil et en présence d'un technicien diplômé, du tracé électroencéphalographique (EEG), de l'électrooculogramme (EOG), de l'électromyogramme mentonnier (EMG), du flux respiratoire nasal, de l'oxymétrie de pouls, de la fréquence cardiaque, de l'électrocardiogramme (ECG), des mouvements thoraciques et abdominaux, de la position du corps et des mouvements des jambes. L'examen est filmé par caméra infrarouge et les sons sont enregistrés.Cet examen permet entre autres mesures, de déterminer les événements respiratoires obstructifs nécessaires au diagnostic de syndrome d'apnée du sommeil. On définit une apnée lors d'arrêt complet du débit aérien durant au moins 10 secondes et une hypopnée en cas, soit de diminution franche de l'amplitude du flux respiratoire supérieure à 50% durant au moins 10 secondes, soit de diminution significative (20%) de l'amplitude du flux respiratoire pendant au minimum 10 secondes associée à un micro-éveil ou à une désaturation d'au moins 3% par rapport à la ligne de base. La détection des micro-éveils se fait en utilisant les dérivations électroencéphalographiques, électromyographiques et électrooculographiques. Il existe des critères visuels de reconnaissance de ces éveils transitoire: apparition de rythme alpha (8.1 à 12.0 Hz) ou beta (16 à 30 Hz) d'une durée supérieure à 3 secondes [20-21].Le diagnostic de S AOS est retenu si l'on retrouve plus de 5 événements respiratoires obstructifs par heure de sommeil associés soit à une somnolence diurne évaluée selon le score d'Epworth ou à au moins 2 symptômes parmi les suivants: sommeil non réparateur, étouffements nocturne, éveils multiples, fatigue, troubles de la concentration. Le S AOS est gradué en fonction du nombre d'événements obstructifs par heure de sommeil en léger (5 à 15), modéré (15 à 30) et sévère (>30).La polysomnographie (PSG) comporte plusieurs inconvénients pratiques. En effet, elle doit être réalisée dans un laboratoire du sommeil avec la présence permanente d'un technicien, limitant ainsi son accessibilité et entraînant des délais diagnostiques et thérapeutiques. Pour ces mêmes raisons, il s'agit d'un examen onéreux.La polygraphie respiratoire (PG) représente l'alternative diagnostique au gold standard qu'est l'examen polysomnographique. Cet examen consiste en l'enregistrement en ambulatoire, à savoir au domicile du patient, du flux nasalrespiratoire, de l'oxymétrie de pouls, de la fréquence cardiaque, de la position du corps et du ronflement (par mesure de pression).En raison de sa sensibilité et sa spécificité moindre, la PG reste recommandée uniquement en cas de forte probabilité de SAOS. Il existe deux raisons principales à l'origine de la moindre sensibilité de l'examen polygraphique. D'une part, du fait que l'état de veille ou de sommeil n'est pas déterminé avec précision, il y a dilution des événements respiratoires sur l'ensemble de l'enregistrement et non sur la période de sommeil uniquement. D'autre part, en l'absence de tracé EEG, la quantification des micro-éveils est impossible. Il n'est donc pas possible dans l'examen poly graphique, de reconnaître une hypopnée en cas de diminution de flux respiratoire de 20 à 50% non associée à un épisode de désaturation de l'hémoglobine de 3% au moins. Alors que dans l'examen polysomnographique, une telle diminution du flux respiratoire pourrait être associée à un micro-éveil et ainsi comptabilisée en tant qu'hypopnée.De ce constat est né la volonté de trouver un équivalent de micro-éveil en polygraphie, en utilisant les signaux à disposition, afin d'augmenter la sensibilité de l'examen polygraphique.Or plusieurs études ont démontrés que les micro-éveils sont associés à des réactions du système nerveux autonome. Lors des micro-éveils, on met en évidence la survenue d'une vasoconstriction périphérique. La variation du tonus sympathique associée aux micro-éveils peut être mesurée par différentes méthodes. Les variations de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie représentant un marqueur fiable de la vasoconstriction périphérique associée aux micro-réveils, il paraît donc opportun d'utiliser ce marqueur autonomique disponible sur le tracé des polygraphies ambulatoires afin de renforcer la sensibilité de cet examen.Le but de l'étude est d'évaluer la sensibilité des variations de l'amplitude de l'onde de pouls pour détecter des micro-réveils corticaux afin de trouver un moyen d'augmenter la sensibilité de l'examen polygraphique et de renforcer ainsi sont pouvoir diagnostic.L'objectif est de démontrer qu'une diminution significative de l'amplitude de l'onde pouls est concomitante à une activation corticale correspondant à un micro¬réveil. Cette constatation pourrait permettre de déterminer une hypopnée, en polygraphie, par une diminution de 20 à 50% du flux respiratoire sans désaturation de 3% mais associée à une baisse significative de l'amplitude de pouls en postulant que l'événement respiratoire a entraîné un micro-réveil. On retrouve par cette méthode les mêmes critères de scoring d'événements respiratoires en polygraphie et en polysomnographie, et l'on renforce la sensibilité de la polygraphie par rapport au gold standard polysomnographique.La méthode consiste à montrer en polysomnographie qu'une diminution significative de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie est associée à une activation du signal électroencéphalographique, en réalisant une analyse spectrale du tracé EEG lors des baisses d'amplitude du signal d'onde de pouls.Pour ce faire nous avons réalisé une étude rétrospective sur plus de 1000 diminutions de l'amplitude de l'onde de pouls sur les tracés de 10 sujets choisis de manière aléatoire parmi les patients référés dans notre centre du sommeil (CIRS) pour suspicion de trouble respiratoire du sommeil avec somnolence ou symptomatologie diurne.Les enregistrements nocturnes ont été effectués de manière standard dans des chambres individuelles en utilisant le système d'acquisition Embla avec l'ensemble des capteurs habituels. Les données ont été par la suite visuellement analysées et mesurées en utilisant le software Somnologica version 5.1, qui fournit un signal de l'amplitude de l'onde de pouls (puise wave amplitude - PWA).Dans un premier temps, un technicien du sommeil a réalisé une analyse visuelle du tracé EEG, en l'absence des données du signal d'amplitude d'onde de pouls. Il a déterminé les phases d'éveil et de sommeil, les stades du sommeil et les micro¬éveils selon les critères standards. Les micro-éveils sont définis lors d'un changement abrupt dans la fréquence de l'EEG avec un pattern d'ondes thêta-alpha et/ou une fréquence supérieure à 16 Hz (en l'absence de fuseau) d'une durée d'au minimum trois secondes. Si cette durée excède quinze secondes, l'événement correspond à un réveil.Puis, deux investigateurs ont analysé le signal d'amplitude d'onde de pouls, en masquant les données du tracé EEG qui inclut les micro-éveils. L'amplitude d'onde de pouls est calculée comme la différence de valeur entre le zénith et le nadir de l'onde pour chaque cycle cardiaque. Pour chaque baisse de l'amplitude d'onde de pouls, la plus grande et la plus petite amplitude sont déterminées et le pourcentage de baisse est calculé comme le rapport entre ces deux amplitudes. On retient de manière arbitraire une baisse d'au moins 20% comme étant significative. Cette limite a été choisie pour des raisons pratiques et cliniques, dès lors qu'elle représentait, à notre sens, la baisse minimale identifiable à l'inspection visuelle. Chaque baisse de PWA retenue est divisée en 5 périodes contiguës de cinq secondes chacune. Deux avant, une pendant et deux après la baisse de PWA.Pour chaque période de cinq secondes, on a pratiqué une analyse spectrale du tracé EEG correspondant. Le canal EEG C4-A1 est analysé en utilisant la transformée rapide de Fourier (FFT) pour chaque baisse de PWA et pour chaque période de cinq secondes avec une résolution de 0.2 Hz. La distribution spectrale est catégorisée dans chaque bande de fréquence: delta (0.5 à 4.0 Hz); thêta (4.1 à 8.0Hz); alpha (8.1 à 12.0 Hz); sigma (12.1 à 16 Hz) et beta (16.1 à 30.0 Hz). La densité de puissance (power density, en μΥ2 ) pour chaque bande de fréquence a été calculée et normalisée en tant que pourcentage de la puissance totale. On a déterminé, ensuite, la différence de densité de puissance entre les 5 périodes par ANOVA on the rank. Un test post hoc Tukey est été utilisé pour déterminer si les différences de densité de puissance étaient significatives. Les calculs ont été effectués à l'aide du software Sigmastat version 3.0 (Systat Software San Jose, California, USA).Le principal résultat obtenu dans cette étude est d'avoir montré une augmentation significative de la densité de puissance de l'EEG pour toutes les bandes de fréquence durant la baisse de l'amplitude de l'onde de pouls par rapport à la période avant et après la baisse. Cette augmentation est par ailleurs retrouvée dans la plupart des bande de fréquence en l'absence de micro-réveil visuellement identifié.Ce résultat témoigné donc d'une activation corticale significative associée à la diminution de l'onde de pouls. Ce résulat pourrait permettre d'utiliser les variations de l'onde de pouls dans les tracés de polygraphie comme marqueur d'une activation corticale. Cependant on peut dire que ce marqueur est plus sensible que l'analyse visuelle du tracé EEG par un technicien puisque qu'on notait une augmentation de lactivité corticale y compris en l'absence de micro-réveil visuellement identifié. L'application pratique de ces résultats nécessite donc une étude prospective complémentaire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Summary Among ants, wood ants are probably the most fascinating and studied species in temperate European forests. Unfortunately, due to several threats they are nowadays registered in red lists. Recent studies made in the Swiss Jura Mountains ended up in the description of a new sympatric sibling species of Formica lugubris (i.e. Formica paralugubris Seifert 1996). Because of this confusion the biology of F. lugubris is incomplete. Due to the extreme difficulties to distinguish morphologically F. lugubris from F. paralugubris we studied their cuticular hydrocarbons profiles. Irrespective of their geographic origin, we observed quantitative discrimination between species within each caste (workers, males and gynes =young alate female). Moreover, using a behavioural taxonomic approach (i.e. the pupa-carrying test) we showed that ants preferred conspecific worker pupae to those of the sibling species. These first results allowed us to consider the two species as two separate taxonomic units. To understand their coexistence, habitat distribution models were fitted with GIS predictors and factors known to influence wood ant distribution. In the Jura Mountains, although the two species share very similar habitats, they are spatially segregated. F. lugubris occurs more frequently at woodland borders than in forest interiors. We demonstrated with genetic and field data that Formica lugubris displays two different social forms in close proximity in alpine zone (e.g. unmanaged forests of the Swiss National Park). We discovered populations mostly monogynous to weakly polygynous (i.e. one to a few egg laying queens per colony) and monodomous (i.e. one nest per colony), and polygynous/polydomous populations (new nests being founded by colony budding). It is generally admitted that monogyne species disperse well in order to find suitable habitat to found new colonies whereas polygyne species have restricted dispersal and local mating within the nest. In order to compare reproductive strategies of F. lugubris and F. paralugubris (i.e. matings and dealation process) we conducted experiments with sexuals. F, lugubris gynes from monogynous/monodomous populations do not show a local strategy like the obligately polygynous F. paralugubris (i.e. early dealation even without mating, insemination without flight activity and low fat reserve). They always keep their wings, do not mate when not able to fly and have high amount of fat content revealing high survival capacities. On the other side, F, lugubris gynes from polygynous/polydomous populations have lower lipid reserves and displayed a reproductive behaviour close to the F. para lugubris one. After dispersal, wood ant gynes can either start new societies by temporary social parasitism of another species (i.e. subgenus Serviformica) or be adopted intraspecifically in an existing nest. In F. lugubris, we demonstrated that gynes from monogynous/monodomous colonies showed a high success for temporary social parasitism compare to the lower success of gynes from polygynous/polydomous colonies. However, physiological analyses suggested that only gynes from monogynous/ monodomous populations can efficiently disperse and found new nest by temporary social parasitism. Intraspecifically, gynes were accepted to a high degree in polygynous nest and in monogynous nests as long as these nests contained sexuals. In conclusion, Formica lugubris displays a social and dispersal polymorphism (mixed mating and founding system) representing a behavioural plasticity in relation to environmental and ecological conditions. Therefore, conservation measures directed toward this species should try to maintain a maximum of diversity at the habitat level. Résumé Les fourmis des bois sont probablement parmi les espèces de fourmis les plus fascinantes et les plus étudiées des forêts tempérées Européennes. Actuellement, du fait de différentes menaces, elles figurent malheureusement sur listes rouges. Plusieurs études menées au sein du Jura Suisse ont abouti à la description d'une nouvelle espèce jumelle et sympatrique de Formica lugubris (F. para- lugubris Seifert 1996). A cause de cette confusion la biologie de F lugubris est lacunaire. La distinction morphologique de F. lugubris et de F. para lugubris est si difficile que nous avons étudié leurs hydrocarbures cuticulaires. Indépendamment de l'origine géographique, nous avons observé une discrimination quantitative entre les espèces au sein de chaque caste (ouvrières, mâles et jeunes femelles ailées). De plus, à l'aide d'une approche taxonomique comportementale (le test de transport de cocons) nous avons montré que les fourmis préfèrent des cocons d'ouvrières conspécifiques à ceux de l'espèce jumelle. Ces premiers résultats nous permettent de considérer ces deux espèces comme deux unités taxonomiques distinctes et valables. Afin de comprendre leur coexistence, des modèles mathématiques ont été développés avec des données SIG et des facteurs écologiques influençant la répartition des fournis des bois. Dans le Jura, même si elles partagent des habitats fortement similaires, les deux espèces n'occupent pas les mêmes secteurs. F. lugubris est plus fréquente en lisière forestière plutôt qu'en pleine forêt. Nous avons démontré grâce à des données génétiques et de terrain que F. lugubris présente deux formes sociales au sein de la zone alpine (forêts protégées du Parc National Suisse). D'autre part, nous avons découvert des populations monogynes à faiblement polygynes (une à quelques reines pondeuses par colonie) et monodomes (colonies composées d'une seule fourmilière), et des populations polygynes/polydomes (les nouveaux nids étant produit par bourgeonnement). Généralement, les espèces monogynes dispersent sur de grandes distances et peuvent coloniser des habitats favorables à la fondation de nouvelles colonies alors que les espèces polygynes possèdent une dispersion limitée avec des accouplements à l'intérieur des nids. Afin de comparer les stratégies de reproduction de F. lugubris et de F. paralugubris (accouplements et perte des ailes) nous avons mené des expériences avec les sexués. Les jeunes femelles ailées de F. lugubris issues de populations monogynes/monodomes ne présentent pas de stratégie locale comparée à l'espèce obligatoirement polygyne F paralugubris (perte des ailes précoce même si il n'y a pas eu accouplement, insémination possible sans avoir volé activement et faibles réserves de graisse). Elles conservent toujours leurs ailes, ne s'accouplent pas lorsqu'elles sont empêchées de voler et possèdent de grandes quantités de graisse révélant de fortes capacités de survie. D'autre part, les jeunes femelles ailées de F. lugubris provenant de populations polygynes/polydomes ont peu de réserves lipidiques et ont un comportement de reproduction proche de celles de F. paralugubris. Après leur dispersion, les jeunes sexués femelles de fourmis des bois peuvent soit fonder une nouvelle société par parasitisme social temporaire d'un nid d'une autre espèce (sous-genre Serviformica) soit être adoptées dans un nid déjà existant de leur propre espèce. Chez F. lugubris, nous avons pu démontrer que les jeunes sexués femelles de colonies monogynes/monodomes présentent un succès élevé au parasitisme sociale temporaire en comparaison au plus faible succès obtenu avec des sexués provenant de colonies polygynes/polydomes. Cependant, les données physiologiques suggèrent que seules les jeunes sexués femelles de populations mono-gynes/monodomes peuvent disperser efficacement et fonder un nouveau nid par parasitisme social temporaire. Au niveau intraspécifique, les jeunes femelles sont acceptées à un taux élevé dans les nids polygynes mais aussi dans les nids monogynes tant que ces nids possèdent encore de jeunes sexués. En conclusion, F. lugubris est caractérisée par un polymorphisme dans ses structures sociales et ses stratégies de dispersion (système mixte d'accouplement et de fondation) ce qui représente une forte plasticité comportementale en relation avec les conditions environnementales et écologiques. Par conséquent, les mesures de conservation de cette espèce devraient s'attacher à maintenir un maximum de diversité au niveau des habitats.