1000 resultados para Analyse statistique des microtoponymes


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction: L'organisation multisite des établissements hospitaliersaboutit souvent à un cloisonnement entre prises en charge psychiatriqueet somatique. Pourtant, plusieurs études ont confirmé un tauxcroissant de comorbidités somatiques chez les patients psychiatriques,ainsi qu'une mauvaise adéquation des soins somatiques quileur sont prodigués. Des initiatives ont tenté d'améliorer cette situation,en développant des consultations dédiées ou en intégrant desmédecins somaticiens au sein des établissements psychiatriques.Depuis plusieurs années, la Policlinique Médicale Universitaire (PMU)de Lausanne collabore avec l'Hôpital Psychiatrique Universitaire, enmettant à disposition un système de consultation.Méthode: Analyse rétrospective des consultations effectuées enmilieu psychiatrique, durant la période du 01.04-30.09.08. Lespatients de psychogériatrie n'étaient pas concernés. Les paramètressuivants ont été relevés: âge, sexe, motifs de consultations, catégoriesdiagnostiques CIM10, pathologies psychiatriques, éventuellescomorbidités somatiques. La pertinence de chaque consultation a étéévaluée à l'aide de trois critères de sévérité: implique une modificationou l'introduction d'un traitement, implique des investigationscomplémentaires (laboratoire, radiologie, avis spécialisé), implique untransfert aux urgences.Résultats: 207 consultations ont été réalisées (57% de femmes) avecun âge moyen de 48,7 ans (18 à 64 ans). Les pathologies psychiatriquesimpliquaient une schizophrénie ou une psychose aiguë(30,4%), un épisode dépressif (26,6%), un trouble de la personnalité(14,5%) ou un trouble bipolaire (14%). Les consultations portaientavant tout sur des pathologies cardiovasculaires (17%), digestives(15%), neurologiques (11%) ou pulmonaires (11%). Un effet secondairedu traitement médicamenteux a été suspecté chez 12% despatients. 48% des cas présentaient un des critères, avec en particulier12 transferts aux urgences. Huit patients ont bénéficié par la suited'un suivi ambulatoire à la PMU.Discussion: L'implication de somaticiens au sein des établissementspsychiatriques répond à un besoin réel. Elle permet d'améliorer laprise en charge des patients, de réduire les transferts interhospitalierset d'optimiser les investigations et les traitements somatiques. Ellejoue également un rôle en termes de transfert de compétences, deprévention des pathologies iatrogènes et de dépistage des facteursde risques cardiovasculaires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Etat des connaissances: Les Accidents vasculaires cérébraux (AVC) sévères sont une cause importante de mortalité et de handicap en Suisse. Les buts de cette étude sont de déterminer les caractéristiques des patients avec un AVC à présentation initiale sévère "severely presenting", ainsi que d'identifier les facteurs prédicteurs en phase aigüe et subaigüe d'un devenir favorable chez ces patients. Methodologie: En utilisant le registre des AVC "Acute STroke Registry and Analysis of Lausanne (ASTRAL), nous avons comparé tous les patients avec un AVC "à présentation sévère", defini comme un score National Institute of Health Stroke Scale (NIHSS) > 20 à l'admission aux urgences, avec tous les autres patients du registre. Dans une analyse statistique multivariée, les associations avec les caractéristiques démographiques, cliniques, pathophysiologiques, métaboliques et radiologiques des patients on été déterminées. Dans un deuxième temps, nous avons analysé les facteurs prédicteurs d'un devenir favorable à 3 mois (modified Rankin scale (mRS) <3) dans ce groupe d'AVC à présentation sévère. Resultats: Parmi les 1 '915 patients consécutifs, 243 (12.7%) présentaient un AVC rejoignant la définition de sévère. Ceux-cis étaient associés de manière significative avec un méchanisme ischémique cardio-embolique (OR=1.74 / 95% CI 1.19 - 2.54), un début inconnu de la Symptomatologie (OR=2.35 / 95% CI 1.14 - 4.83), avaient plus de trouvailles d'origine ischémique aigüe lors de l'imagerie dJentrée (la majorité sont des CT-scan, OR=2.65 / 95% CI 1.79 - 3.92), plus d'occlusions dans l'imagerie vasculaire d'admission (OR=27.01 / 95% CI 11.5 - 62.9), moins d'anciens infarctus cérébraux sur l'imagerie (OR=0.43 / 95% 0.26¬0.72), un taux d'haemoglobine plus bas en g/1 (OR=0.97 / 95% CI 0.96 - 0.99), un taux de leucocytes plus élevé par 1000 cells/1 (OR=1.05 / 95%CI 1.00 - 1.11). parmi les 68 (28%) patients avec un devenir favorable malgré un AVC initialement sévère, leur évolution favorable à été associée avec un âge plus jeune (OR=0.94 / 95% CI 0.92 - 0.97), la présence d'évenements cérébrovasculaires antécédants (OR=3.00 / 95% CI 1.01 - 8.97), un traitement hypolipémiant déjà présent (OR= 3.82 / 95% CI 1.34 - 10.90), une température corporelle d'admission plus basse (0R=0.43 1 95% CI 0.23 - 0.78), une concentration subaigüe de glucose plus basse (OR=0.74 1 95% CI 0.56 - 0.97), et une recanalisation spontanée ou par thrombolyse à 24h (OR= 4.51 1 95%CI 1.96- 10.41). Conclusion: les AVC à présentation initiale severe sont associés à des facteurs prédicteurs cliniques, radiologiques, et métaboliques multiples, dont certains sont modifiables. Les facteurs prédicteurs des 28% de patients avec un devenir favorable en dépit d'un AVC intitialement sévère sont un pré-traitement par hypolipémiants, une temperature corporelle plus basse à l'admission, une glycémie plus basse à 24heures et la recanalisation artérielle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les réformes de répartition des tâches entre cantons et communes appartiennent aux grandes réformes de politique locale en Suisse, c'est pourquoi elles font l'objet d'une thèse réalisée dans le cadre du programme de recherche ProDoc du Fonds national suisse sur la gouvernance locale (2009-2012). Lancées de manière périodique depuis les années 1970, ces réformes sont organisées pour clarifier le système d'allocation des tâches qui se modifie au coup par coup, avec l'évolution des politiques publiques. Ce thème actuel a été jusqu'à ce jour mis à l'écart des recherches en Suisse. Cette thèse comble cette lacune. Elle analyse sous quatre aspects (les références théoriques des réformes, leur processus de mise en oeuvre, leurs résultats, et leurs effets sur le système fédéraliste) douze grandes réformes canton-communes effectuées entre 1994-2007. Elle s'interroge notamment sur les mouvements de centralisation/décentralisation et de désenchevêtrement des tâches, en se référant à la littérature classique sur le fédéralisme et à deux modèles politico-économiques: le fédéralisme fiscal et le fédéralisme coopératif. Au niveau empirique, l'analyse se fonde sur une analyse documentaire des réformes Confédération - cantons, cantons- communes, sur un inventaire de compétences décisionnelles, financières et de mise en oeuvre transférées au cours de douze réformes cantonales, sur une enquête nationale menée auprès des secrétaires communaux en Suisse ainsi que sur des entretiens conduits auprès de responsables cantonaux chargés des affaires communales. L'étude met en évidence des similitudes entre les réformes conduites entre la Confédération et les cantons et les cantons et les communes notamment en ce qui concerne le cadre de référence soit : une répartition des tâches qui privilégie des tâches exclusives (self-rules) si possible décentralisées. Dans cet esprit, c'est pour l'ensemble des réformes que le principe du décideur payeur a été utilisé de sorte à supprimer les enchevêtrements et à assurer une coïncidence entre responsabilités décisionnelles et financières. Ceci a permis pour les douze réformes étudiées d'atteindre un important désenchevêtrement, en particulier au niveau financier. Sur ce plan, les réformes sont un succès. Ce désenchevêtrement s'accompagne d'une tendance à la centralisation des compétences principalement financières et de mise en oeuvre. Les domaines concernés relèvent particulièrement des politiques publiques fédérales mises en oeuvre par les cantons. Le cadre légal fédéral exerce donc une influence prépondérante sur la répartition des tâches canton-communes. Pour les tâches de compétences principalement cantonales, le mouvement vers la centralisation s'explique par plusieurs facteurs que l'analyse met en évidence. Parmi eux, le principal est le facteur culturel. Ainsi les cantons romands et les cantons plutôt à gauche optent plutôt pour des tâches centralisées et conjointes, alors que les cantons alémaniques préfèrent des arrangements décentralisés et des tâches menées exclusivement par un niveau. Outre une culture politique qui favorise la décentralisation, les réformes de Nouvelle gestion publique auxquels ont recouru plus fréquemment les cantons alémaniques expliquent la recherche d'un plus fort désenchevêtrement. La capacité administrative des communes (mesurée par la taille des communes) influence également la direction des transferts. Dans les douze réformes, on observe que lorsqu'un canton est formé de grandes communes, celles-ci obtiennent plus de compétences parce qu'elles ont la capacité de les assumer. Ceci est particulièrement vrai pour les communes de plus de 20'000 habitants qui bénéficient de délégation de compétences spécifiques, ce qui confirme l'existence d'un fédéralisme asymétrique. Ces points sont confirmés pas la perception des acteurs. De manière générale, les réformes n'ont pas bouleversé l'allocation des compétences décisionnelles canton-communes dans les douze cantons étudiés, sauf dans quelques cantons de Suisse centrale et orientale et à Bâle-Ville, où les réformes ont permis de décentraliser et de désenchevêtrer davantage de compétences, cette tendance est corroborée dans ces cantons par une augmentation de la perception de l'autonomie communale. Les réformes ne sont finalement pas parvenues à instaurer un changement de paradigme dans le système d'allocation des tâches canton-communes où les communes auraient vu leurs compétences renforcées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Messages à retenir: Les signes scanographiques d'atteinte des voies aériennes proximales chez les patients BPCO sont l'épaississement pariétal bronchique , les dilatationsbronchiques, les diverticules bronchiques, la trachée en fourreau de sabre et la trachéobronchomalacie.Les signes scanographiques d'atteinte des petites voies aériennes sont soit de type inflammatoire (micronodules centrolobulaires et/ou verre dépoli), soit dessignes indirects d'obstruction bronchiolaire (perfusion en mosaïque et piégeage expiratoire).L'analyse visuelle des examens scanographiques des patients BPCO permet de différencier ceux ayant un emphysème prédominant de ceux ayant une maladiedes voies aériennes prédominante.Des bronchectasies variqueuses et kystiques, associées à de l'emphysème panlobulaire, doivent faire rechercher un déficit en alpha-1-antitrypsine. Résumé: La BPCO est une maladie inflammatoire lentement progressive obstruant les voies aériennes, qui à terme entraîne une destruction du parenchyme pulmonaire(emphysème) et une réduction irréversible du calibre des petites voies aériennes . Les deux phénomènes, emphysème et bronchiolite obstructive, sontresponsables d'un syndrome obstructif fonctionnel. L'usage de la scanographie pour l'évaluation des patients BPCO a permis de mettre en évidence desdifférences morphologiques importantes pour un même degré d'insuffisance respiratoire obstructive (emphysème prédominant ou atteinte des voies aériennesprédominante). Chez les patients BPCO, l'épaississement pariétal bronchique est le reflet indirect d'un remodelage obstructif des petites voies aériennes . L'épaississement pariétal bronchique et l'étendue de l'emphysème sont tous deux corrélés au degré d'obstruction fonctionnelle. Ces différences morphologiquessous-tendent des différences dans les mécanismes physiopathologiques sous-jacents et dans les profils génomiques des patients. La mise en évidence parscanographie de ces différences morphologiques (phénotypes) permet une meilleure stratification des patients à inclure dans les essais cliniques , et à terme,permettra une prise en charge thérapeutique plus personnalisée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'hyperpotassémie est un désordre électrolytique, qui dans des situations extrêmes, peut conduire au décès. Les premières études effectuées montraient un lien entre la progression du taux de potassium et l'apparition de modifications électrocardiographiques. Certaines études, plus récentes, ont mis en doute cette hypothèse. Notre étude a pour but de chercher quels sont les facteurs associés à l'apparition d'un pattern électrocardiographique typique, en cas d'hyperpotassémie modérée à sévère (≥7mmol/l), dans une population adulte hospitalière, non sélectionnée. Le 2ème objectif est d'estimer la mortalité liée à ce degré d'hyperkaliémie. Etude au design rétrospectif, sélectionnant les patients adultes avec K : ≥ 7mmol/L, entre 2009 et 2010 au CHUV, ayant un électrocardiogramme à disposition entre -1h et +2h de la prise de sang. Recueil des valeurs de laboratoires et des comorbidités de ces patients et analyse des électrocardiogrammes : fréquence cardiaque, durée QRS, durée QTc, amplitudes ondes T et RS, présence d'un trouble de la conduction, d'une fibrillation ou d'un flutter, d'un rythme jonctionnel. Résultats : Sur les 82 patients sélectionnés, l'analyse statistique a mis en évidence que le taux de potassium n'est corrélé ni à l'apparition de modifications électrocardiographiques typiques, ni à la mortalité. Le seul élément pouvant prédire, sur l'électrocardiogramme, l'apparition d'un pattern typique est le degré d'acidémie. Le risque de décès ou de présenter un arrêt cardiorespiratoire en cas d'hyperkaliémie modérée à sévère est principalement déterminé par la présence d'une acidose métabolique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Axée dans un premier temps sur le formalisme et les méthodes, cette thèse est construite sur trois concepts formalisés: une table de contingence, une matrice de dissimilarités euclidiennes et une matrice d'échange. À partir de ces derniers, plusieurs méthodes d'Analyse des données ou d'apprentissage automatique sont exprimées et développées: l'analyse factorielle des correspondances (AFC), vue comme un cas particulier du multidimensional scaling; la classification supervisée, ou non, combinée aux transformations de Schoenberg; et les indices d'autocorrélation et d'autocorrélation croisée, adaptés à des analyses multivariées et permettant de considérer diverses familles de voisinages. Ces méthodes débouchent dans un second temps sur une pratique de l'analyse exploratoire de différentes données textuelles et musicales. Pour les données textuelles, on s'intéresse à la classification automatique en types de discours de propositions énoncées, en se basant sur les catégories morphosyntaxiques (CMS) qu'elles contiennent. Bien que le lien statistique entre les CMS et les types de discours soit confirmé, les résultats de la classification obtenus avec la méthode K- means, combinée à une transformation de Schoenberg, ainsi qu'avec une variante floue de l'algorithme K-means, sont plus difficiles à interpréter. On traite aussi de la classification supervisée multi-étiquette en actes de dialogue de tours de parole, en se basant à nouveau sur les CMS qu'ils contiennent, mais aussi sur les lemmes et le sens des verbes. Les résultats obtenus par l'intermédiaire de l'analyse discriminante combinée à une transformation de Schoenberg sont prometteurs. Finalement, on examine l'autocorrélation textuelle, sous l'angle des similarités entre diverses positions d'un texte, pensé comme une séquence d'unités. En particulier, le phénomène d'alternance de la longueur des mots dans un texte est observé pour des voisinages d'empan variable. On étudie aussi les similarités en fonction de l'apparition, ou non, de certaines parties du discours, ainsi que les similarités sémantiques des diverses positions d'un texte. Concernant les données musicales, on propose une représentation d'une partition musicale sous forme d'une table de contingence. On commence par utiliser l'AFC et l'indice d'autocorrélation pour découvrir les structures existant dans chaque partition. Ensuite, on opère le même type d'approche sur les différentes voix d'une partition, grâce à l'analyse des correspondances multiples, dans une variante floue, et à l'indice d'autocorrélation croisée. Qu'il s'agisse de la partition complète ou des différentes voix qu'elle contient, des structures répétées sont effectivement détectées, à condition qu'elles ne soient pas transposées. Finalement, on propose de classer automatiquement vingt partitions de quatre compositeurs différents, chacune représentée par une table de contingence, par l'intermédiaire d'un indice mesurant la similarité de deux configurations. Les résultats ainsi obtenus permettent de regrouper avec succès la plupart des oeuvres selon leur compositeur.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Rapport de synthèse : OBJECTIF : étudier si les fluctuations sériques du taux d'hormone anti-müllérienne (AMH) sont liées à des différences méthodologiques entre les deux tests ELISA commercialement disponibles le kit de Beckman Coulter Immunotech (Fullerton, CA) et le kit de Diagnostic Systems Laboratories (Webster, TX). DESIGN : étude prospective au sein de deux services universitaires de médecine de la reproduction. POPULATION ETUDIEE : cent soixante-huit échantillons sanguins provenant de trois populations différentes ainsi que des dosages itératifs au cours du même cycle menstruel dans une population de dix volontaires. INTERVENTIONS : doubles mesures en aveugle des taux sériques d'AMH dans les 168 sera avec les deux kits commercialement disponibles. Sept dosages itératifs au cours du même cycle menstruel chez 10 volontaires normo-ovulantes. ANALYSE STATISTIQUE : régression linéaire pour l'étude de la corrélation entre les deux méthodes de dosage. Analyse des variances pour les dosages sériés en cours de cycle menstruel. RÉSULTATS : nous avons démontré une relation linéaire entre les deux méthodes, avec un coefficient de corrélation de 0,88 ainsi qu'une diminution faible mais statistiquement significative et concomitante avec l'ovulation du taux d'AMH sérique. CONCLUSION : les variations en cours de cycle menstruel rapportées par certains auteurs ne sont pas liées à des problèmes méthodologiques. La chute du taux d'AMH lors de l'ovulation est faible mais statistiquement significative. Les variations observées en cours de cycle restent toutefois inférieures aux variations intercycles et ne représentent de ce fait pas un obstacle au dosage de l'AMH à n'importe quel jour du cycle menstruel.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

[Table des matières] 1. Patients et méthodes. 1.1. Enquête dans la population générale : population, modalités d'envoi, taux de réponse. 1.2. Questionnaire SF-36 et questionnaire Medical Outcome Study (MOS) : PF physical functioning = activité physique (fonctionnement) ; RP role physical = limitations (du rôle) liées à la santé physique ; BP bodily pain = douleur physique ; GH General Health = santé générale ; VT vitality = vitalité (énergie/fatigue) ; SF social functioning = fonctionnement ou bien-être social ; RE role éemotional = limitations (du rôle) liées à la santé mentale ; MH mental health = santé mentale ; CF cognitive functioning = fonctionnement cognitif (dimension absente du SF-36 classique) ; HT eported health transition = modification perçue de l'état de santé ("dimension" annexe, = item 2 ou Q2). 1.3. Analyse : calcul des scores du SF-36 et du SF-36 + CF, cohérence des réponses, fiabilité de l'instrument, validité. 1.4. Analyse statistique. 2. Résultats commentés de l'enquête dans la population générale. 2.1. Fréquence des non-réponses par item et par question. 2.2. Cohérence des réponses. 2.3. Scores d'état de santé par dimension : description et comparaison avec une population américaine, comparaison des scores vaudois et genevois. 2.4. Existe-t-il une concentration des bons et des mauvais scores chez les mêmes répondants ? 2.5. Fiabilité. 2.6. Validité : validité convergente et discriminante, analyse factorielle, validation en fonction de variables externes. 3. Discussion. 3.1. Evaluation du questionnaire. 3.2. Mesure de la qualité de vie liée à l'état de santé perçu dans la population générale. 3.3. Adjonction de la dimension "fonctionnement cognitif". 3.4. Conclusions et recommandations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Après une étude des notions de justice, juridiction et cour constitutionnelle, la présente thèse aborde le contrôle des normes par les organes de la Confédération ; un accent est mis sur le recours auTribunal fédéral contre les actes normatifs cantonaux. La justice constitutionnelle par les organes cantonaux est ensuite étudiée de façon générale, en examinant successivement les exigences posées par le droit fédéral à cet égard et les différentes formes de contrôle abstrait dans les cantons dépourvus de cour constitutionnelle. Chaque cour constitutionnelle cantonale (Nidwald, Jura, Vaud, Grisons, Genève) fait ensuite l'objet d'une analyse approfondie, portant aussi bien sur les aspects historiques et procéduraux que sur la jurisprudence. Une dernière partie est consacrée à l'examen, théorique et empirique, des arguments entrant en ligne de compte dans le choix d'un canton de se doter d'une cour constitutionnelle ou non, suivie d'une analyse comparée des cours existantes. Enfin, les rapports entre ces dernières d'une part et leTribunal fédéral d'autre part sont examinés.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé L'administration par voie orale d'acides gras polyinsaturés de type ω-3 contenus dans l'huile de poisson exerce des effets bénéfiques sur la réponse métabolique et inflammatoire chez des sujets sains soumis à une injection d'endotoxine. Ce modèle expérimental a été validé pour l'investigation clinique. Il simule un sepsis et induit une réponse comparable à un état grippal, accompagné de modifications métaboliques et inflammatoires. L'objectif de cette étude est de déterminer les effets de l'huile de poisson administré par voie intraveineuse sur la réponse à l'endotoxine chez le sujet sain. L'hypothèse est qu'il sera possible de réduire le temps de latence en comparaison avec la voie orale. Pour ce faire, nous avons inclut dans une étude prospective randomisée 16 volontaires sains âgés de 16 à 35 ans et les avons répartis en 2 groupes : l'un recevant une émulsion lipidique contenant les acides gras polyinsaturés EPA et DHA et l'autre, sans traitement, constituant le groupe contrôle. Huit sujets reçoivent une perfusion continue de 0.5g/kg d'huile de poisson durant 6h, 48h et 24h avant la journée test. Lors de cette journée test, tous les volontaires ont reçu une dose d'endotoxine (2mg/kg) au temps t0. Les paramètres vitaux sont monitorés et enregistrés : fréquence cardiaque, respiratoire, pression artérielle, saturation artérielle en oxygène, ainsi que température. Des prises de sang sont effectuées à intervalles réguliers pour déterminer 1) l'incorporation membranaire des thrombocytes en EPA et DHA ; 2) le taux plasmatique d'hormones (insulin, glucagon, cortisol, ACTH et catécholamines), de marqueurs inflammatoires (TNF-α, IL-6, hsCRP), ainsi que de substrats énergétiques (glucose, lactate, acides gras libres et triglycérides). La dépense énergétique est déterminée par calorimétrie indirecte. L'analyse statistique est effectuée par analyse de variance (ANOVA). Les résultats montrent une incorporation significative de EPA et DHA au niveau membranaire des thrombocytes. L'huile de poisson induit une atténuation significative de la réponse neuro-endocrinienne et inflammatoire en réponse à l'injection d'endotoxine avec diminution de la fièvre (-0.7°C), ainsi que du taux plasmatique ,d'ACTH (-68%), TNF-α (-63%) et de noradrénaline (-%) dans le groupe huile de poisson. En conclusion, cette étude montre que la supplémentation de 2 doses d'huile de poisson par voie intraveineuse modifie la composition phospholipidique des membranes des thrombocytes et diminue la réaction inflammatoire et neuroendocrinienne en réponse à l'endotoxine. Ces résultats positifs ouvrent la perspective d'une supplémentation parentérale préopératoire en acides gras polyinsaturés ω-3 pour diminuer le stress lié à la chirurgie majeure.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La notion de responsabilité sociétale des organisations (RSO) a suscité un engouement considérable auprès d'un public de gestionnaires, consultants et chercheurs, ainsi que dans les sphères politiques, institutionnelles et médiatiques. Cependant, l'adoption du discours sur la RSO par la grande entreprise, les institutions et les organisations de toutes formes génère aussi un certain scepticisme... Cet ouvrage s'intéresse au lien crucial entre discours et pratiques de RSO. Englobant non seulement les entreprises privées mais aussi un large spectre d'organisations, il propose des cadres d'analyse et des exemples concrets de déploiement de la RSO dans un contexte francophone. Comment s'articulent les stratégies symboliques des acteurs et les actions concrètes mises en oeuvre dans les organisations ? Quelles difficultés doivent surmonter les gestionnaires pour passer du discours aux pratiques dans le domaine de la RSO ? Quels facteurs facilitent ou empêchent le maintien de pratiques socialement responsables dans les organisations ?

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'article rend compte des résultats d'une recherche comparative sur les processus de féminisation des professions juridiques en France et en Grande-Bretagne. Les auteurs attirent l'attention sur l'importance du rôle du « levier des diplômes » sur la féminisation plus précoce et plus soutenue de certaines professions juridiques en France par rapport à la Grande-Bretagne. Les auteurs situent ce phénomène de féminisation dans le contexte des transformations structurelles qui touchent ces professions depuis le milieu des années 1970. Prenant appui sur les données portant sur l'évolution des carrières des avocats français et des solicitors britanniques en fonction du sexe et de l'ancienneté, elles attirent l'attention sur la manière dont ces transformations structurelles s'articulent avec le phénomène de féminisation et insistent sur la nécessité d'une analyse approfondie des trajectoires professionnelles sexuées dans ce contexte de grands bouleversements structurels. The paper presents the results of a comparative research project on the feminisation of the legal professions in Britain and France. The authors stress the importance of the role of the « qualifications lever » on the earlier and more extensive character of the feminisation of certain legal professions in France as compared to Britain. An attempt is made to place feminisation in the general context of structural change taking place within the legal profesions since the middle of the 1970's. On the basis of original data on the career structure of French avocats and British solicitors by gender and length of service, the authors stress the manner in which such structural changes interrelate with the process of professional féminisation and insist on the need to adopt in-depth analysis of gendered professional career patterns within this context of profound structural transformation

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

UNIVERSITE DE LAUSANNE - FACULTE DE BIOLOGIE ET DE MEDECINE Médecine Ophtalmologie Etude clinique et angiographique lors de la Syphilis Oculaire THESE préparée sous la direction du Docteur Yan Guex-Crosier et présentée à la Faculté de biologie et de médecine de l'Université de Lausanne pour l'obtention du grade de DOCTEUR EN MEDECINE par Konstantinos BALASKAS Médecin diplômé de la Grèce Originaire d'Athènes (Grèce) ι Lausanne 2012  Une recrudescence des cas de syphilis a été observée ces dernières années. Son diagnostic clinique reste particulièrement difficile en l'absence de signe pathognomonique. Sur le plan oculaire elle présente un vaste spectre de manifestations diverses lui ayant valu le surnom de « la grande imitatrice ». Sa rareté et son hétérogénéité ont empêché l'identification et la vérification statistique des facteurs liés à un pronostic défavorable. Le but de cette étude a été d'explorer les paramètres cliniques et para-cliniques déterminant la sévérité et influençant l'évolution de la maladie. Ce travail comprend deux volets, la première partie intitulée : «Analysis of significant factors influencing visual acuity in ocular syphilis» publiée dans le British Journal of Ophthalmology a démontré qu'une mauvaise acuité visuelle initiale est associée de façon statistiquement significative à la sévérité de l'amputation du champ visuel, à la présence d'un oedème maculaire ou d'une neuropathie optique. Une amélioration de l'acuité visuelle grâce au traitement antibiotique est associée à la présence d'une vasculite (visible à l'angiographie fluorescéinique), d'une neurosyphilis ou d'une uvéite antérieure. Une récidive inflammatoire est fortement associée à une durée prolongée des symptômes avant l'introduction du traitement et à la présence de douleur comme signe d'appel. L'utilité clinique principale de ces résultats statistiques permet de conclure que les formes inflammatoires sévères associées à la triade (vasculite, neurosyphilis et uvéite antérieure) constituent un phénomène réversible pour autant qu'un traitement précoce et adéquat ait été introduit. Le deuxième volet de l'étude analyse les manifestations angiographiques (à la fluorescéine (AF) et au vert d'indocyanine (AICG)) de la syphilis oculaire et a été publié dans le journal du Graefes Archives of Clinical and Experimental Ophthalmology sous le titre suivant : "Fluorescein and indocyanine-green angiography in ocular syphilis: an exploratory study". Des associations faibles ont été démontrées entre la présence d'une vasculite lors de AF et d'une uvéite antérieure, d'une hyalite et d'un âge plus jeune. Une association forte est identifiée entre la présence des «dark dots» sur l'AICG et d'une uvéite antérieure ainsi qu'entre la présence des «hot spots» sur l'AICG et d'une durée prolongée des symptômes. Les conclusions d'importance clinique significative lors de la syphilis oculaire sont que les « dark dots » ou hypofluorescences en AICG évoquent la présence d'une atteinte inflammatoire oculaire sévère et que les « hot spots » ou hyperfluorescences en AICG sont significatifs d'une atteinte chronique. Cette étude contribue à modifier les attitudes cliniques lors de la syphilis oculaire surtout en ce qui concerne l'urgence à traiter afin d'assurer une récupération optimale. Elle aide aussi à redéfinir le rôle de l'angiographie dans la syphilis oculaire pour déterminer la sévérité, la durée de la maladie ainsi que le pronostic visuel.