1000 resultados para Évènements internationaux
Resumo:
Dans un monde toujours plus globalisé depuis le milieu du XXcmc siècle, le couple linguistiquement mixte est une constellation conjugale de plus en plus fréquente en Suisse comme ailleurs. Le choix du lieu de la vie commune implique souvent la migration de l'un des partenaires vers le pays de l'autre, et donc parfois vers une nouvelle langue - en l'occurrence ici le français - qu'il s'agit de s'approprier. Cette thèse se penche donc sur les liens entre ce contexte a priori positif que représente le couple, et l'appropriation langagière du/de la partenaire alloglotte. De par sa base affective, mais surtout de par le fait que la personne migrante peut compter sur quelqu'un qui est prêt et disposé à l'aider, notamment parce que la migration a été décidée dans le cadre d'un projet commun, le couple favorise la socialisation et donc le contact de la personne nouvellement arrivée avec différentes (variétés de) langues qu'elle s'approprie progressivement : contrairement à beaucoup de migrant-e-s venu-e-s seul-e-s dans un nouveau pays, le/la partenaire alloglotte de ces couples se voit souvent pourvu-e d'une famille (belle-famille et enfants), d'un réseau social (ami-e-s du partenaire francophone), et d'une médiation culturelle et linguistique utile pour accéder notamment au marché de l'emploi, mais également pour comprendre les différents enjeux sociaux dans lesquels elle se voit plongée. Cette médiation affective, linguistique et socio-culturelle proposée par le couple lui permet d'identifier plus aisément des solutions utiles pour dépasser certaines barrières sociales, économiques, administratives, linguistiques et/ou culturelles. Pour autant, le/la partenaire alloglotte du couple linguistiquement mixte est avant tout un acteur social à part entière, qui vit aussi hors du couple et s'aménage - sans doute plus vite, plus facilement et plus naturellement que d'autres migrant-e-s - ses propres modalités de socialisation, en fonction de son vécu et de ses projections pour le futur. Dans une perspective fondamentalement socioconstructiviste du développement humain, l'appropriation langagière est donc ici considérée comme la construction par la personne d'une capacité à agir dans l'espace social et dans la langue. Si l'appropriation a lieu dans et par l'interaction, il s'agit d'investiguer à la fois certains des enjeux de pouvoir dans lesquels s'inscrit cette interaction, et le sens que la personne donne à ces enjeux en fonction de sa subjectivité propre. Le cadre épistémologique de ce travail convoque ainsi des outils issus de la sociologie bourdieusienne et foucaldienne, de la sociolinguistique critique, de la psychologie sociale et de la psycho-sociolinguistique afin d'explorer certaines des limites sociales et psycho-affectives qui influencent les modalités de l'appropriation langagière de la personne alloglotte. La méthode adoptée pour explorer ces deux types de limites s'inscrit dans la tradition de la recherche sur les récits de vie, tout en s'en distanciant sur deux points. D'une part, si le récit de vie considère la personne qui se raconte comme narratrice de sa propre vie, l'autobiographie langagière réflexive met l'accent sur une démarche potentiellement formatrice lui permettant de « penser » sa trajectoire de vie en lien avec son appropriation langagière. D'autre part, les analyses menées sur ces textes écrits et oraux sont tout à la fois thématiques et discursives, puisque la manière dont les événements sont racontés permet de retracer les enjeux souvent ambivalents, parfois contradictoires, qui influencent le sens que la personne donne à son parcours avec le français et la construction de son sentiment de légitimité ou d'illégitimité à vivre en Suisse et en français. En dernière instance, cette thèse défétichise le couple, considéré comme la rencontre de deux subjectivités autour d'un projet de « vivre ensemble », plus que comme un lien romantique et amoureux. Elle défétichise la langue, comprise comme un répertoire langagier forcément plurilingue et hétéroglossique. Elle défétichise l'appropriation langagière, qui apparaît comme un effet collatéral et contextuel de la vie en couple et en société. Elle défétichise enfin le récit de soi, en le poussant vers la réflexion d'un soi ancré dans le social. Si les partenaires des huit couples interrogés ont une voix forte dans l'entier de ce texte, c'est qu'ils et elles existent comme personnes, indépendamment du couple, de la langue, de l'appropriation langagière et de la démarche autobiographique réflexive qui les font se rejoindre dans le contexte particulier de cette recherche mais qui ne constituent que certains de leurs positionnements identitaires et sociaux.
Resumo:
Tibau do Sul est une commune littorale du Rio Grande do Norte connue pour sa Praia da Pipa, un ancien village de pêcheurs entouré de plages spectaculaires, devenu un haut lieu du tourisme balnéaire dans le Nordeste brésilien. Située à la limite d'une zone de plantations sucrières, la station est fréquentée par des villégiateurs issus de l'élite agraire locale depuis le début du XXe siècle. Toutefois, ce n'est que dans les années 1970-80 que le tourisme se développe véritablement sous l'impulsion de jeunes surfeurs attirés par ses vagues, ses beaux paysages et « l'authenticité » de sa population autochtone. A l'époque, l'attitude subversive de ces jeunes voyageurs - inspirés de la contre-culture brésilienne - contraste de manière radicale avec le style paternaliste des élites villégiatrices. Pour la population locale, l'irruption du tourisme ouvre un nouveau champ de possibilités économiques, sociales et politiques. Elle coïncide par ailleurs avec une série d'autres transformations à l'oeuvre dans la région : le déclin des plantations, la modernisation de l'activité maritime, le développement des institutions municipales. Cette conjonction de facteurs encourage l'émergence d'une petite bourgeoisie autochtone impliquée dans les cercles de pouvoirs locaux et capable de négocier avec les étrangers attirés par le tourisme. A mesure que l'activité se professionnalise et s'internationalise, de nouveaux acteurs investissent la commune : agents immobiliers, entrepreneurs, investisseurs internationaux, résidents secondaires européens, travailleurs immigrés, écologistes, institutions publiques, etc. Il s'enclenche alors une cohabitation inédite entre des groupes socialement et culturellement très hétérogènes. A la fois conflictuelle et créatrice, cette configuration induit un certain nombre de frictions qui se manifestent aussi bien dans les rapports fonciers et les luttes environnementales, que dans les activités culturelles, les médias locaux et la politique municipale. A contre-courant des interprétations réductrices présentant le tourisme tantôt comme une forme de « néo-colonialisme », tantôt comme une « recette miracle » pour le développement, l'enquête ethnographique souligne toute l'ambivalence du phénomène touristique. À l'instar de la « situation coloniale » analysée par Georges Balandier (1951), la situation touristique est envisagée comme une configuration sociale fondée sur l'interdépendance entre les acteurs, historiquement déterminée, mais jamais acquise à l'avance. Dans le cas de Tibau do Sul, l'étude révèle l'influence déterminante des structures sociales et foncières - héritées des modes de production antérieurs (la paysannerie, la pêche et les plantations sucrières) - sur la trajectoire touristique des communautés du littoral.
Resumo:
Comme tous les moments révolutionnaires, Mai 68 n'est jamais complètement passé : il reste vivant pour la pensée politique contemporaine. En 1968, Cornelius Castoriadis et Claude Lefort, deux des principaux penseurs politiques de la France de l'après-guerre, proposaient leurs lectures des événements de Mai en France dans un livre important : Mai 68 : la Brèche. Pour le vingtième anniversaire des événements, ils écrivaient à nouveau sur ceux-ci, en cherchant à examiner leur postérité à la fois sociale et intellectuelle. Ces interprétations de Mai 68 font apparaître des convergences aussi bien que des oppositions théoriques entre les deux auteurs, qui concernent aussi bien le rôle de l'intellectuel que les définitions de la révolution, du pouvoir et de la démocratie. Mai 68 sert ainsi de révélateur, qui éclaire des aspects importants du dissensus politique et théorique qui a opposé Castoriadis à Lefort dès les années 1950.
Resumo:
The present day geographic distribution of the Ophidiini tribe (Ophidiidae, Ophidiinae) in the Clofnam (North- Eastern Atlantic and Mediterranean) and Clofeta (Eastern Tropical Atlantic) areas is revised in this paper. Results show that Parohidion vassali is not a Mediterranean endemic species, and the presence of Ophidion barbatum in the Atlantic is confirmed. Moreover, the paper tries to analyse the historical events which could have caused the present situation of two genera, Ophidion and Parophidion, both in the Atlantic and in the Mediterranean. Although first fossil records of Ophidion and Parophidion date from the Pliocene, when considering all the historical events occurred from the existence of the Tethys Sea to the opening of the Atlantic and the Mediterranean formation, a much earlier origin of these genera seems to be more likely. The situation of Ophidion barbatum and O. rochei in the Mediterranean and Black Sea is also discussed
Resumo:
Characterizing the geological features and structures in three dimensions over inaccessible rock cliffs is needed to assess natural hazards such as rockfalls and rockslides and also to perform investigations aimed at mapping geological contacts and building stratigraphy and fold models. Indeed, the detailed 3D data, such as LiDAR point clouds, allow to study accurately the hazard processes and the structure of geologic features, in particular in vertical and overhanging rock slopes. Thus, 3D geological models have a great potential of being applied to a wide range of geological investigations both in research and applied geology projects, such as mines, tunnels and reservoirs. Recent development of ground-based remote sensing techniques (LiDAR, photogrammetry and multispectral / hyperspectral images) are revolutionizing the acquisition of morphological and geological information. As a consequence, there is a great potential for improving the modeling of geological bodies as well as failure mechanisms and stability conditions by integrating detailed remote data. During the past ten years several large rockfall events occurred along important transportation corridors where millions of people travel every year (Switzerland: Gotthard motorway and railway; Canada: Sea to sky highway between Vancouver and Whistler). These events show that there is still a lack of knowledge concerning the detection of potential rockfalls, making mountain residential settlements and roads highly risky. It is necessary to understand the main factors that destabilize rocky outcrops even if inventories are lacking and if no clear morphological evidences of rockfall activity are observed. In order to increase the possibilities of forecasting potential future landslides, it is crucial to understand the evolution of rock slope stability. Defining the areas theoretically most prone to rockfalls can be particularly useful to simulate trajectory profiles and to generate hazard maps, which are the basis for land use planning in mountainous regions. The most important questions to address in order to assess rockfall hazard are: Where are the most probable sources for future rockfalls located? What are the frequencies of occurrence of these rockfalls? I characterized the fracturing patterns in the field and with LiDAR point clouds. Afterwards, I developed a model to compute the failure mechanisms on terrestrial point clouds in order to assess the susceptibility to rockfalls at the cliff scale. Similar procedures were already available to evaluate the susceptibility to rockfalls based on aerial digital elevation models. This new model gives the possibility to detect the most susceptible rockfall sources with unprecented detail in the vertical and overhanging areas. The results of the computation of the most probable rockfall source areas in granitic cliffs of Yosemite Valley and Mont-Blanc massif were then compared to the inventoried rockfall events to validate the calculation methods. Yosemite Valley was chosen as a test area because it has a particularly strong rockfall activity (about one rockfall every week) which leads to a high rockfall hazard. The west face of the Dru was also chosen for the relevant rockfall activity and especially because it was affected by some of the largest rockfalls that occurred in the Alps during the last 10 years. Moreover, both areas were suitable because of their huge vertical and overhanging cliffs that are difficult to study with classical methods. Limit equilibrium models have been applied to several case studies to evaluate the effects of different parameters on the stability of rockslope areas. The impact of the degradation of rockbridges on the stability of large compartments in the west face of the Dru was assessed using finite element modeling. In particular I conducted a back-analysis of the large rockfall event of 2005 (265'000 m3) by integrating field observations of joint conditions, characteristics of fracturing pattern and results of geomechanical tests on the intact rock. These analyses improved our understanding of the factors that influence the stability of rock compartments and were used to define the most probable future rockfall volumes at the Dru. Terrestrial laser scanning point clouds were also successfully employed to perform geological mapping in 3D, using the intensity of the backscattered signal. Another technique to obtain vertical geological maps is combining triangulated TLS mesh with 2D geological maps. At El Capitan (Yosemite Valley) we built a georeferenced vertical map of the main plutonio rocks that was used to investigate the reasons for preferential rockwall retreat rate. Additional efforts to characterize the erosion rate were made at Monte Generoso (Ticino, southern Switzerland) where I attempted to improve the estimation of long term erosion by taking into account also the volumes of the unstable rock compartments. Eventually, the following points summarize the main out puts of my research: The new model to compute the failure mechanisms and the rockfall susceptibility with 3D point clouds allows to define accurately the most probable rockfall source areas at the cliff scale. The analysis of the rockbridges at the Dru shows the potential of integrating detailed measurements of the fractures in geomechanical models of rockmass stability. The correction of the LiDAR intensity signal gives the possibility to classify a point cloud according to the rock type and then use this information to model complex geologic structures. The integration of these results, on rockmass fracturing and composition, with existing methods can improve rockfall hazard assessments and enhance the interpretation of the evolution of steep rockslopes. -- La caractérisation de la géologie en 3D pour des parois rocheuses inaccessibles est une étape nécessaire pour évaluer les dangers naturels tels que chutes de blocs et glissements rocheux, mais aussi pour réaliser des modèles stratigraphiques ou de structures plissées. Les modèles géologiques 3D ont un grand potentiel pour être appliqués dans une vaste gamme de travaux géologiques dans le domaine de la recherche, mais aussi dans des projets appliqués comme les mines, les tunnels ou les réservoirs. Les développements récents des outils de télédétection terrestre (LiDAR, photogrammétrie et imagerie multispectrale / hyperspectrale) sont en train de révolutionner l'acquisition d'informations géomorphologiques et géologiques. Par conséquence, il y a un grand potentiel d'amélioration pour la modélisation d'objets géologiques, ainsi que des mécanismes de rupture et des conditions de stabilité, en intégrant des données détaillées acquises à distance. Pour augmenter les possibilités de prévoir les éboulements futurs, il est fondamental de comprendre l'évolution actuelle de la stabilité des parois rocheuses. Définir les zones qui sont théoriquement plus propices aux chutes de blocs peut être très utile pour simuler les trajectoires de propagation des blocs et pour réaliser des cartes de danger, qui constituent la base de l'aménagement du territoire dans les régions de montagne. Les questions plus importantes à résoudre pour estimer le danger de chutes de blocs sont : Où se situent les sources plus probables pour les chutes de blocs et éboulement futurs ? Avec quelle fréquence vont se produire ces événements ? Donc, j'ai caractérisé les réseaux de fractures sur le terrain et avec des nuages de points LiDAR. Ensuite, j'ai développé un modèle pour calculer les mécanismes de rupture directement sur les nuages de points pour pouvoir évaluer la susceptibilité au déclenchement de chutes de blocs à l'échelle de la paroi. Les zones sources de chutes de blocs les plus probables dans les parois granitiques de la vallée de Yosemite et du massif du Mont-Blanc ont été calculées et ensuite comparés aux inventaires des événements pour vérifier les méthodes. Des modèles d'équilibre limite ont été appliqués à plusieurs cas d'études pour évaluer les effets de différents paramètres sur la stabilité des parois. L'impact de la dégradation des ponts rocheux sur la stabilité de grands compartiments de roche dans la paroi ouest du Petit Dru a été évalué en utilisant la modélisation par éléments finis. En particulier j'ai analysé le grand éboulement de 2005 (265'000 m3), qui a emporté l'entier du pilier sud-ouest. Dans le modèle j'ai intégré des observations des conditions des joints, les caractéristiques du réseau de fractures et les résultats de tests géoméchaniques sur la roche intacte. Ces analyses ont amélioré l'estimation des paramètres qui influencent la stabilité des compartiments rocheux et ont servi pour définir des volumes probables pour des éboulements futurs. Les nuages de points obtenus avec le scanner laser terrestre ont été utilisés avec succès aussi pour produire des cartes géologiques en 3D, en utilisant l'intensité du signal réfléchi. Une autre technique pour obtenir des cartes géologiques des zones verticales consiste à combiner un maillage LiDAR avec une carte géologique en 2D. A El Capitan (Yosemite Valley) nous avons pu géoréferencer une carte verticale des principales roches plutoniques que j'ai utilisé ensuite pour étudier les raisons d'une érosion préférentielle de certaines zones de la paroi. D'autres efforts pour quantifier le taux d'érosion ont été effectués au Monte Generoso (Ticino, Suisse) où j'ai essayé d'améliorer l'estimation de l'érosion au long terme en prenant en compte les volumes des compartiments rocheux instables. L'intégration de ces résultats, sur la fracturation et la composition de l'amas rocheux, avec les méthodes existantes permet d'améliorer la prise en compte de l'aléa chute de pierres et éboulements et augmente les possibilités d'interprétation de l'évolution des parois rocheuses.
Resumo:
L'état de stress post-traumatique (ESPT) apparaît dans les mois qui suivent un ou plusieurs événements potentiellement traumatiques (EPT) (par exemple, guerre, violences, accidents, chirurgie invasive). Les symptômes comprennent des souvenirs intrusifs, des cauchemars, un évitement et des émotions négatives (par exemple, honte, culpabilité, perte d'espoir, sentiment d'étrangeté), ainsi qu'une hypervigilance. Sous-diagnostiqué et sous-traité, l'ESPT a un impact négatif sur la qualité de vie et le fonctionnement des patients. Sa prévalence en Suisse est de 0,7 % (plus élevée dans certaines populations, par exemple, 13 % chez les hommes requérants d'asile déboutés). L'approche psychothérapeutique est centrale dans la prise en charge, un traitement médicamenteux pouvant également être utile. Cette revue (systématique) cherche à actualiser les connaissances sur l'efficacité des psychothérapies pour le traitement de l'ESPT.
Resumo:
Après un ou plusieurs événements potentiellement traumatisants (EPT), tels qu'accidents, mort inattendue d'une personne aimée, chirurgie invasive, guerre, violences physiques et sexuelles par exemple, certaines personnes peuvent développer un état de stress posttraumatique (ESPT). Elles ont l'impression de revivre le traumatisme et présentent des comportements d'évitement, une hyperexcitation ainsi que des émotions négatives. L'ESPT est associé à une réduction de la qualité de vie des patients concernéset a un impact majeur sur leur fonctionnement. Son coût économique est également important. Sa prévalence varie en Europe de 0,6 à 6,7 %. En Suisse, elle est estimée à 0,7 % mais peut atteindre des niveaux beaucoup plus élevés selon les populations ; 13 % des hommes demandeurs d'asile déboutés souffrent d'ESPT par exemple. Des études suggèrent que des changements cérébraux d'hormones de stress peuvent contribuer à l'ESPT. Cette revue systématique cherche à déterminer si la prescription d'une médication active au niveau cérébral est susceptible de prévenir l'apparition d'un ESPT.
Resumo:
L'anthologie du futurisme que livre Giovanni Lista en 2015 soulève de nombreuses questions. Combien de futurismes existe-t-il ? Quelle place l'historien occupe-t-il dans l'histoire qu'il écrit ? Quels liens, enfin, cette histoire entretient-elle avec les événements qui lui succèdent et l'actualité ? Il s'agit dans ces lignes de dépasser le dossier «G. Lista 2015» afin de proposer une réflexion sur l'historiographie du futurisme, qui représente à maints égards «la quadrature du cercle dans l'histoire des avant-gardes du XXe siècle» (G. Lista, Qu'est-ce que le futurisme ?, p. 866).
Resumo:
Problématique. Le diabete de type 2 est la maladie metabolique la plus frequente, sa prevalence ne cesse de croitre et parallelement, la population vieillissante est en constante augmentation. Le diagnostic de diabete de type 2 accroit le risque de syndrome geriatrique. Pour prevenir d'eventuelles complications, le traitement du diabete de type 2 est constitue de differentes composantes incluant des automesures de la glycemie capillaire, une prise reguliere du traitement pharmacologique souvent multiples de l'activite physique et enfin le suivi de recommandations pour une alimentation equilibree. Pour la personne agee diabetique de type 2, l'apprentissage de l'application de ces composantes du traitement signifie qu'elle doit proceder a des ajustements dans sa vie quotidienne. Buts. Les buts de cette etude sont : 1) de decrire l'ajustement psychosocial de la personne agee au diabete de type 2, et 2) d'explorer la presence de relations entre differentes variables sociodemographiques et de sante et l'ajustement psychosocial de personnes agees diabetiques de type 2. Méthodologie. Il s'agit d'une etude descriptive correlationnelle. L'echantillon de convenance est compose de 57 participants ages de plus de 65 ans connus pour un diagnostic de diabete de type 2. Les mesures ont ete effectuees par l'utilisation du questionnaire « The Psychological Adjustement to Illness Scale (PAIS-SR) » developpe par Derogatis (1986). Les donnees ont ete recoltees dans un centre ambulatoire universitaire de consultation en diabetologie en Suisse Romande. La théorie de l'adaptation cognitive lors d'événements menaçants (Taylor, 1983) a servi de cadre theorique a l'etude. Résultats. La majorite des participants a l'etude est de sexe masculin et l'age moyen des participants a l'etude est de 71 ans. Les participants ont un ajustement psychosocial a la maladie positif. Le score des signes depressifs est faible, tandis que davantage de difficultes apparaissent dans le domaine des relations sexuelles. Tous les participants ont des comorbidites ou ont developpe des complications. La moyenne de l'hemoglobine glyquee (HbA1c) correspond aux normes preconisees par les experts. Aucune correlation significative n'a pu etre etablie entre le niveau d'ajustement psychosocial, et les variables sociodemographiques et de sante.Conclusion : Les participants a l'etude ont un controle glycemique optimal et presentent un ajustement psychosocial positif. Malgre le fait qu'aucune correlation n'a pu etre determinee entre les differentes variables, la problematique reste importante a etudier. Les complications et les comorbidites associees au diagnostic de diabete de type 2 rendent cette population particulierement vulnerable, et a risque de declin fonctionnel. Peu d'etudes ont permis de determiner les composantes favorisant le processus d'adaptation d'un etat de sante vers un etat de maladie, et ce dans un contexte de vieillissement. La recherche dans ce domaine permettrait de determiner plus precisement des axes de prise en charge et de favoriser la prevention du declin fonctionnel.
Resumo:
La contribution propose une exploration longitudinale de la manière dont s'articulent chez Lefort, d'une part, sa compréhension des dimensions constitutives du politique avec, d'autre part, sa lecture d'événements singuliers de la politique française. La période considérée va de Mai 68 aux événements de l'hiver 1995. On montre que le cadre théorique d'arrière-plan, ce que Lefort appelle "le politique", commande très largement la lecture qu'il fait des événements par lesquels il se laisse convoquer. Plus précisément, on montre que, conçu sous l'interpellation de l'expérience totalitaire, ce cadre s'ordonne pour penser les choses politiques à la lumière de la différence totalitarisme/démocratie. Et du même coup, n'est pas en mesure d'accorder un caractère politiquement signifiant à ce qui se déroule dans la "sphère économique", en particulier le fantastique creusement des inégalités survenu depuis au moins la moitié des années 80 du siècle dernier. S'il est vrai que le totalitarisme, sous son visage "soviétique" en tout cas, semble ne plus constituer une menace politique crédible, on s'interroge, pour conclure, sur la pertinence de l'approche lefortienne dans la perspective des luttes émancipatrices.
Resumo:
La prise en charge médicale du mineur non accompagné est complexe et nécessite la mise en place d'un réseau biopsychosocial. A Lausanne, l'Unité multidisciplinaire de santé des adolescents (UMSA) joue un rôle préventif et curatif pour cette population extrêmement vulnérable. Une prise en charge psychologique rapide est souvent nécessaire en raison des événements de vie dramatiques auxquels la plupart de ces adolescents ont été confrontés. L'absence de projet d'avenir pour la majorité de ces adolescents reste une entrave majeure à leur développement et à leur santé mentale et physique. Medical treatment of an unaccompanied minor is made more complicated firstly by its connections with the politics of immigration and secondly by the difficulty in gaining recognition of the priority of the minor's interests. Enabling healthcare teams to travel and meet these particularly vulnerable youths makes medical care more accessible to them and facilitates an optimal bio-psycho-social treatment. For most of these adolescents it is their lack of plans for the future which remains the major obstacle to their development and mental and physical health.
Inactive matrix gla-protein is associated with arterial atiffness in an adult population-based study
Resumo:
La vitesse de l'onde de pouls (VOP) est la méthode pour mesurer la rigidité artérielle la plus répandue et la plus validée. C'est aussi un prédicteur indépendant de la mortalité. La Matrix Gla- protein (MGP) est une protein qui inhibe les calcifications vasculaires. MGP nécessite une enzyme dérivée de la vitamine K pour être activée, à l'instar de certains facteurs de coagulation. La forme inactive de MGP, connue sous le terme de « desphospho-uncarboxylated MGP » (dp-ucMGP), peut-être mesurée dans le plasma. Plus les apports de vitamine K sont importants plus les taux de dp-ucMGP diminue. Les taux de dp-ucMGP ont déjà été étudiés et associés à différents marqueurs cardiovasculaires (CV), aux événements CV et à la mortalité. Dans notre travail de recherche nous avons émis l'hypothèse que des taux élevés de dp-ucMGP seraient associés à une VOP élevée. Nous avons recruté les participants à travers une étude multicentrique suisse (SKIPOGH). Le processus de recrutement ciblait des familles dans lesquelles plusieurs membres étaient d'accord de participer. Nous avons mesuré la dp-ucMGP plasmatique grâce à la méthode immuno-enzymatique « ELISA ». Concernant la VOP, nous avons mesuré les ondes de pression au niveau carotidien et fémorale grâce à un tonomètre et calculer la vitesse de leurs propagations. Par la suite nous avons utilisé un modèle de régression linéaire multiple afin de déterminer le lien entre la VOP et dp- ucMGP. Le modèle était ajusté pour l'âge, la fonction rénale et les risques CV classiques. Nous avons inclut 1001 participants dans les analyses (475 hommes et 526 femmes). La valeur moyenne de la VOP était de 7.87 ± 2.10 (m/s) et celle de dp-ucMGP de 0.43 ± 0.20 (nmol/L). La VOP était positivement et significativement associée à dp-ucMGP avant comme après ajustement pour le sexe, l'âge, l'indice de masse corporel, la taille, la pression artérielle systolique et diastolique, la fréquence cardiaque, la fonction rénale, les taux de cholestérol (LDL, HDL), la glycémie, la consommation de tabac, la présence d'un diabète, l'utilisation de médicaments antihypertenseurs ou hypolipémiants et la présence d'antécédents CV (P<0.01). En conclusion, des taux élevés de dp-ucMGP sont positivement et indépendamment associés à la rigidité artérielle après ajustement pour les facteurs de risques CV traditionnels, la fonction rénale et l'âge. Des études expérimentales sont nécessaires afin de déterminer si une supplémentation en vitamine K permet de ralentir l'avancement de la rigidité artérielle grâce à son activation de la MGP.
Resumo:
Malgré l'existence de vaccins efficaces, l'incidence des infections respiratoires, causées par la grippe et le pneumococcque, reste élevée dans la population adulte occasionnant une importante morbi/mortalité. Ensemble elles représentent la 4ème cause de mortalité, affectant principalement les adultes de 60 ans ou plus. Après une rapide présentation de l'efficacité de ces deux vaccins, nous détaillerons leurs impacts sur la santé cardiovasculaire et la prévention des événements thrombotiques.
Resumo:
La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.
Resumo:
This thesis develops a comprehensive and a flexible statistical framework for the analysis and detection of space, time and space-time clusters of environmental point data. The developed clustering methods were applied in both simulated datasets and real-world environmental phenomena; however, only the cases of forest fires in Canton of Ticino (Switzerland) and in Portugal are expounded in this document. Normally, environmental phenomena can be modelled as stochastic point processes where each event, e.g. the forest fire ignition point, is characterised by its spatial location and occurrence in time. Additionally, information such as burned area, ignition causes, landuse, topographic, climatic and meteorological features, etc., can also be used to characterise the studied phenomenon. Thereby, the space-time pattern characterisa- tion represents a powerful tool to understand the distribution and behaviour of the events and their correlation with underlying processes, for instance, socio-economic, environmental and meteorological factors. Consequently, we propose a methodology based on the adaptation and application of statistical and fractal point process measures for both global (e.g. the Morisita Index, the Box-counting fractal method, the multifractal formalism and the Ripley's K-function) and local (e.g. Scan Statistics) analysis. Many measures describing the space-time distribution of environmental phenomena have been proposed in a wide variety of disciplines; nevertheless, most of these measures are of global character and do not consider complex spatial constraints, high variability and multivariate nature of the events. Therefore, we proposed an statistical framework that takes into account the complexities of the geographical space, where phenomena take place, by introducing the Validity Domain concept and carrying out clustering analyses in data with different constrained geographical spaces, hence, assessing the relative degree of clustering of the real distribution. Moreover, exclusively to the forest fire case, this research proposes two new methodologies to defining and mapping both the Wildland-Urban Interface (WUI) described as the interaction zone between burnable vegetation and anthropogenic infrastructures, and the prediction of fire ignition susceptibility. In this regard, the main objective of this Thesis was to carry out a basic statistical/- geospatial research with a strong application part to analyse and to describe complex phenomena as well as to overcome unsolved methodological problems in the characterisation of space-time patterns, in particular, the forest fire occurrences. Thus, this Thesis provides a response to the increasing demand for both environmental monitoring and management tools for the assessment of natural and anthropogenic hazards and risks, sustainable development, retrospective success analysis, etc. The major contributions of this work were presented at national and international conferences and published in 5 scientific journals. National and international collaborations were also established and successfully accomplished. -- Cette thèse développe une méthodologie statistique complète et flexible pour l'analyse et la détection des structures spatiales, temporelles et spatio-temporelles de données environnementales représentées comme de semis de points. Les méthodes ici développées ont été appliquées aux jeux de données simulées autant qu'A des phénomènes environnementaux réels; nonobstant, seulement le cas des feux forestiers dans le Canton du Tessin (la Suisse) et celui de Portugal sont expliqués dans ce document. Normalement, les phénomènes environnementaux peuvent être modélisés comme des processus ponctuels stochastiques ou chaque événement, par ex. les point d'ignition des feux forestiers, est déterminé par son emplacement spatial et son occurrence dans le temps. De plus, des informations tels que la surface bru^lée, les causes d'ignition, l'utilisation du sol, les caractéristiques topographiques, climatiques et météorologiques, etc., peuvent aussi être utilisées pour caractériser le phénomène étudié. Par conséquent, la définition de la structure spatio-temporelle représente un outil puissant pour compren- dre la distribution du phénomène et sa corrélation avec des processus sous-jacents tels que les facteurs socio-économiques, environnementaux et météorologiques. De ce fait, nous proposons une méthodologie basée sur l'adaptation et l'application de mesures statistiques et fractales des processus ponctuels d'analyse global (par ex. l'indice de Morisita, la dimension fractale par comptage de boîtes, le formalisme multifractal et la fonction K de Ripley) et local (par ex. la statistique de scan). Des nombreuses mesures décrivant les structures spatio-temporelles de phénomènes environnementaux peuvent être trouvées dans la littérature. Néanmoins, la plupart de ces mesures sont de caractère global et ne considèrent pas de contraintes spatiales com- plexes, ainsi que la haute variabilité et la nature multivariée des événements. A cet effet, la méthodologie ici proposée prend en compte les complexités de l'espace géographique ou le phénomène a lieu, à travers de l'introduction du concept de Domaine de Validité et l'application des mesures d'analyse spatiale dans des données en présentant différentes contraintes géographiques. Cela permet l'évaluation du degré relatif d'agrégation spatiale/temporelle des structures du phénomène observé. En plus, exclusif au cas de feux forestiers, cette recherche propose aussi deux nouvelles méthodologies pour la définition et la cartographie des zones périurbaines, décrites comme des espaces anthropogéniques à proximité de la végétation sauvage ou de la forêt, et de la prédiction de la susceptibilité à l'ignition de feu. A cet égard, l'objectif principal de cette Thèse a été d'effectuer une recherche statistique/géospatiale avec une forte application dans des cas réels, pour analyser et décrire des phénomènes environnementaux complexes aussi bien que surmonter des problèmes méthodologiques non résolus relatifs à la caractérisation des structures spatio-temporelles, particulièrement, celles des occurrences de feux forestières. Ainsi, cette Thèse fournit une réponse à la demande croissante de la gestion et du monitoring environnemental pour le déploiement d'outils d'évaluation des risques et des dangers naturels et anthro- pogéniques. Les majeures contributions de ce travail ont été présentées aux conférences nationales et internationales, et ont été aussi publiées dans 5 revues internationales avec comité de lecture. Des collaborations nationales et internationales ont été aussi établies et accomplies avec succès.