1000 resultados para Méthode des symétries conditionnelles
Resumo:
Résumé La réalisation d'une seconde ligne de métro (M2) dès 2004, passant dans le centre ville de Lausanne, a été l'opportunité de développer une méthodologie concernant des campagnes microgravimétriques dans un environnement urbain perturbé. Les corrections topographiques prennent une dimension particulière dans un tel milieu, car de nombreux objets non géologiques d'origine anthropogénique comme toutes sortes de sous-sols vides viennent perturber les mesures gravimétriques. Les études de génie civil d'avant projet de ce métro nous ont fournis une quantité importante d'informations cadastrales, notamment sur les contours des bâtiments, sur la position prévue du tube du M2, sur des profondeurs de sous-sol au voisinage du tube, mais aussi sur la géologie rencontré le long du corridor du M2 (issue des données lithologiques de forages géotechniques). La planimétrie des sous-sols a été traitée à l'aide des contours des bâtiments dans un SIG (Système d'Information Géographique), alors qu'une enquête de voisinage fut nécessaire pour mesurer la hauteur des sous-sols. Il a été alors possible, à partir d'un MNT (Modèle Numérique de Terrain) existant sur une grille au mètre, de mettre à jour celui ci avec les vides que représentent ces sous-sols. Les cycles de mesures gravimétriques ont été traités dans des bases de données Ac¬cess, pour permettre un plus grand contrôle des données, une plus grande rapidité de traitement, et une correction de relief rétroactive plus facile, notamment lorsque des mises à jour de la topographie ont lieu durant les travaux. Le quartier Caroline (entre le pont Bessières et la place de l'Ours) a été choisi comme zone d'étude. Le choix s'est porté sur ce quartier du fait que, durant ce travail de thèse, nous avions chronologiquement les phases pré et post creusement du tunnel du M2. Cela nous a permis d'effectuer deux campagnes gravimétriques (avant le creu¬sement durant l'été 2005 et après le creusement durant l'été 2007). Ces réitérations nous ont permis de tester notre modélisation du tunnel. En effet, en comparant les mesures des deux campagnes et la réponse gravifique du modèle du tube discrétisé en prismes rectangulaires, nous avons pu valider notre méthode de modélisation. La modélisation que nous avons développée nous permet de construire avec détail la forme de l'objet considéré avec la possibilité de recouper plusieurs fois des interfaces de terrains géologiques et la surface topographique. Ce type de modélisation peut s'appliquer à toutes constructions anthropogéniques de formes linéaires. Abstract The realization of a second underground (M2) in 2004, in downtown Lausanne, was the opportunity to develop a methodology of microgravity in urban environment. Terrain corrections take on special meaning in such environment. Many non-geologic anthropogenic objects like basements act as perturbation of gravity measurements. Civil engineering provided a large amount of cadastral informations, including out¬lines of buildings, M2 tube position, depths of some basements in the vicinity of the M2 corridor, and also on the geology encountered along the M2 corridor (from the lithological data from boreholes). Geometry of basements was deduced from building outlines in a GIS (Geographic Information System). Field investigation was carried out to measure or estimate heights of basements. A DEM (Digital Elevation Model) of the city of Lausanne is updated from voids of basements. Gravity cycles have been processed in Access database, to enable greater control of data, enhance speed processing, and retroactive terrain correction easier, when update of topographic surface are available. Caroline area (between the bridge Saint-Martin and Place de l'Ours) was chosen as the study area. This area was in particular interest because it was before and after digging in this thesis. This allowed us to conduct two gravity surveys (before excavation during summer 2005 and after excavation during summer 2007). These re-occupations enable us to test our modélisation of the tube. Actually, by comparing the difference of measurements between the both surveys and the gravity response of our model (by rectangular prisms), we were able to validate our modeling. The modeling method we developed allows us to construct detailed shape of an object with possibility to cross land geological interfaces and surface topography. This type of modélisation can be applied to all anthropogenic structures.
Resumo:
Dans le contexte de morcellement du champ psychothérapeutique, la tendance à la spécialisation technique, ainsi qu'à la disqualification mutuelle des différents courants, fait parfois oublier l'objet même de la psychothérapie, à savoir, l'être humain en souffrance. Plus que jamais, il apparaît donc nécessaire, pour le devenir d'une psychothérapie à visage humain, que tout thérapeute prenne conscience de la portée et de la limite de l'approche à laquelle il prête obédience, relativement aux autres courants : il est ainsi invité au double travail de clarification épistémologique sur les présupposés implicites à sa théorie et méthode, et de distanciation affective à l'égard du courant théorique auquel il est rattaché. L'anthropologie clinique d'inspiration phénoménologique apporte les outils indispensables à un tel travail.
Resumo:
[Table des matières] 1. Introduction. 2. Méthode. 3. Contexte juridique dans une perspective fédérale. 4. Présentation de deux exemples de collaboration à l'étranger. 5. Présentation des exemples. 6. Synthèse des modèles d'interventions. 7. Réponses aux questions d'évaluation. 8. Conclusions et recommandations. 9. Annexes.
Resumo:
Le diabète de type 2 est une maladie fréquente et en augmentation dans le monde entier. Malheureusement, elle est souvent diagnostiquée à un stade ou des complications sont déjà apparues. Depuis quelques années, des scores ont été développés pour identifier les sujets à risque de développer cette maladie. L'utilisation d'un tel score par le praticien pourrait amener ces patients à des mesures préventives, telles que le changement d'hygiène de vie, ou la prescription d'un traitement médicamenteux. Le but de notre étude est de comparer et de valider différents scores de risques de diabète de type 2 et de déterminer leur capacité à prédire la survenue de cette maladie dans la population de la cohorte CoLaus. Les premiers résultats, en étude transversale, ont tout d'abord montré de grandes différences quant à la population à risque d'un score à l'autre. En effet, le nombre de personnes à traiter varie considérablement selon la méthode utilisée. Ces différents scores ont donc nécessité une validation prospective. Ces résultats ont fait l'objet d'une publication (Schmid et col, Diabetes Care. 2011 Aug;34(8):1863-8). Au moyen des données du suivi à 5 ans, il est sorti qu'un score de risque utilisant des variables biologiques et cliniques, ainsi qu'un score utilisant des variables uniquement cliniques, obtenaient de très bon résultats quant à la prédiction du diabète de type 2. En effet, un des scores testés donne une valeur prédictive positive d'environ 20% à 5 ans, ce qui signifie qu'un patient « détecté » sur 5 pourrait bénéficier d'une intervention précoce. Toutefois, ces résultats concernent la population lausannoise et ne sont donc pas forcément applicables à l'ensemble de la population suisse. De plus, de plus amples études sont nécessaires évaluer l'efficacité d'un tel score dans la prévention du diabète en Suisse. Ces résultats ont fait l'objet d'une seconde publication (Schmid et col, Arch Intern Med. 2012 Jan 23;172(2):188-9). Dans un troisième volet de l'étude, l'impact de marqueurs génétiques a été évalué dans un sous- groupe de la population CoLaus. Les résultats n'ont toutefois montré qu'une très faible amélioration de la prédiction du risque en utilisant ces marqueurs. Ceci devrait nous encourager à intensifier les efforts de prévention sur le style de vie pour toute la population, plutôt qu'une approche ciblée sur les personnes génétiquement prédisposées. Ces résultats ont fait l'objet d'une troisième publication (Schmid et col, J Clin Endocrinol Metab. 2012 Apr 24. [Epub ahead of print]). La même démarche méthodologique a été utilisée pour évaluer l'importance pronostique de plusieurs marqueurs inflammatoires (interleukines 1 et 6, Τ Ν F-, protéine C-réactive) hépatiques (GT) ou adipocytaires (leptine et adiponectine) dans la survenue du diabète. Ces résultats sont actuellement soumis au Journal of Clinical Endocrinology and Metabolism).
Resumo:
Etude des modèles de Whittle markoviens probabilisés Résumé Le modèle de Whittle markovien probabilisé est un modèle de champ spatial autorégressif simultané d'ordre 1 qui exprime simultanément chaque variable du champ comme une moyenne pondérée aléatoire des variables adjacentes du champ, amortie d'un coefficient multiplicatif ρ, et additionnée d'un terme d'erreur (qui est une variable gaussienne homoscédastique spatialement indépendante, non mesurable directement). Dans notre cas, la moyenne pondérée est une moyenne arithmétique qui est aléatoire du fait de deux conditions : (a) deux variables sont adjacentes (au sens d'un graphe) avec une probabilité 1 − p si la distance qui les sépare est inférieure à un certain seuil, (b) il n'y a pas d'adjacence pour des distances au-dessus de ce seuil. Ces conditions déterminent un modèle d'adjacence (ou modèle de connexité) du champ spatial. Un modèle de Whittle markovien probabilisé aux conditions où p = 0 donne un modèle de Whittle classique qui est plus familier en géographie, économétrie spatiale, écologie, sociologie, etc. et dont ρ est le coefficient d'autorégression. Notre modèle est donc une forme probabilisée au niveau de la connexité du champ de la forme des modèles de Whittle classiques, amenant une description innovante de l'autocorrélation spatiale. Nous commençons par décrire notre modèle spatial en montrant les effets de la complexité introduite par le modèle de connexité sur le pattern de variances et la corrélation spatiale du champ. Nous étudions ensuite la problématique de l'estimation du coefficent d'autorégression ρ pour lequel au préalable nous effectuons une analyse approfondie de son information au sens de Fisher et de Kullback-Leibler. Nous montrons qu'un estimateur non biaisé efficace de ρ possède une efficacité qui varie en fonction du paramètre p, généralement de manière non monotone, et de la structure du réseau d'adjacences. Dans le cas où la connexité du champ est non observée, nous montrons qu'une mauvaise spécification de l'estimateur de maximum de vraisemblance de ρ peut biaiser celui-ci en fonction de p. Nous proposons dans ce contexte d'autres voies pour estimer ρ. Pour finir, nous étudions la puissance des tests de significativité de ρ pour lesquels les statistiques de test sont des variantes classiques du I de Moran (test de Cliff-Ord) et du I de Moran maximal (en s'inspirant de la méthode de Kooijman). Nous observons la variation de puissance en fonction du paramètre p et du coefficient ρ, montrant par cette voie la dualité de l'autocorrélation spatiale entre intensité et connectivité dans le contexte des modèles autorégressifs
Resumo:
Background: One third of hospitalized older-adults who developed a delirium are discharged prior to complete resolution of their symptoms. Others may develop symptoms shortly after their hospital discharge or an acute illness. Therefore, strategies for early detection and prevention of delirium at home must be created and implemented. Aims: The aim of the pilot study was two-fold. First, to develop and test the effectiveness of a nursing intervention to detect and prevent delirium among older- adults who were recently hospitalized or had an acute illness. Second, we assessed the feasibility and acceptability of this nursing intervention strategy with this specific population. Methods: A total of 114 patients age 65 and older were recruited in a home health service to participate between February and November 2012. Participants were randomized into an experimental group (n=56) or a control group (n=58). In addition to the control group which only receives standard home care, nursing interventions tailored to detect/prevent delirium were delivered to the experimental group at 5 time points following discharge (at 48 hours, 72 hours, 7 days, 14 days, and 21 days). Socio-demographic characteristics, body mass index, medications, comorbidities, delirium symptoms (Confusion Assessment Method), cognitive impairment (Mini- Mental State Examination) and functional status (Activities of Daily Living) were assessed at study entry (TT). Outcomes of delirium symptoms, cognitive impairment and functional status were assessed after one month (T2). Descriptive and bivariate methods were used to analyse the data. Results: The two groups were similar at baseline. At one month following discharge no statistical differences were observed between groups in terms of symptoms of delirium (p= 0.085), cognitive impairment (p= 0.151) and functional status (p= 0.235). However in the nursing intervention group, significant improvements in cognitive functioning (p= 0,005) and functional status (p= 0,000) as well as decreased delirium symptoms (p=0,003) were observed. The nursing intervention strategy was feasible and well received by the participants. Conclusion: Nursing intervention strategy to detect/prevent delirium appears to be effective but a larger clinical study is needed to confirm these preliminary findings. - Introduction : Un tiers des personnes âgées hospitalisées développent un état confusionnel aigu (ECA) et quittent l'hôpital sans que les symptômes ne soient résolus. D'autres peuvent développer des symptômes d'ECA à domicile après une hospitalisation ou une maladie aiguë. Pour ces raisons, des stratégies de détection et prévention précoces d'ECA doivent être développées, implantées et évaluées. But : Cette étude pilote avait pour but de développer et tester les effets d'une stratégie d'interventions infirmières pour détecter et prévenir l'ECA chez des personnes âgées à domicile après une hospitalisation ou une maladie récente. Dans un deuxième temps, la faisabilité et l'acceptabilité de l'implantation de cette stratégie auprès de cette population spécifique ainsi que de l'étude ont été évaluées. Méthode : Au total 114 personnes 65 ans) ont été recrutées entre février et novembre 2012. Les participants ont été randomisés, soit dans le groupe expérimental (GE, n=56), soit dans le groupe témoin (GT, n=58). En complément des soins usuels, une stratégie d'interventions de détection/prévention d'ECA a été dispensée au GE à 48 heures, 72 heures, 7 jours, 14 jours et 21 jours après le retour à domicile ou une maladie récente. Des données sociodémographiques et de santé (Indice de Masse Corporelle, relevé de la médication, comorbidités), la présence de symptômes d'ECA (Confusion Assessment Method), de troubles cognitifs (Mini évaluation de l'état mental) et de déficit fonctionnel (Activités de la vie quotidienne et instrumentales) ont été évalués à l'entrée de l'étude (T,). L'effet de la stratégie d'interventions a été mesuré sur le nombre de symptômes d'ECA, du déficit/état cognitif (Mini évaluation de l'état mental) et du déficit/état fonctionnel (Activités de la vie quotidienne) après un mois (T2). Des analyses descriptives et bivariées ont été effectuées. Résultats : Les deux groupes étaient équivalents au début de l'étude. Aucune différence significative n'a été retrouvée après un mois entre le GE et le GT par rapport au nombre de symptômes d'ECA (p= 0,085), au déficit cognitif (p= 0,151) et fonctionnel (p= 0,235). Toutefois, une amélioration significative a été observée dans le GE par rapport aux symptômes d'ECA (p= 0,003), aux déficits cognitifs (p= 0,005) et fonctionnels (p= 0,000) à un mois. La stratégie d'interventions s'avère faisable et a été bien acceptée par les participants. Conclusion : La stratégie d'interventions infirmières de détection/prévention d'ECA à domicile semble prometteuse, mais des études cliniques à large échelle sont nécessaires pour confirmer ces résultats préliminaires.
Resumo:
La sténose du canal médullaire lombaire peut aujourd'hui se traiter de deux façons différentes à savoir le traitement non- chirurgical (physiothérapie, AINS, infiltrations de corticostéroïdes) pour les patients souffrant de symptômes modérés et le traitement chirurgical (décompression canalaire) pour les patients avec des symptômes graves et des déficits fonctionnels. Plusieurs études ont tenté de comparer ces deux approches thérapeutiques. Pour ce faire, on se servit de questionnaires d'évaluation subjective des capacités fonctionnelles (Oswestry Disability Index) souvent associés à des mesures des capacités de marche en laboratoire.¦Notre étude utilise des capteurs gyroscopiques placés sur le corps des sujets afin de mesurer des paramètres de positions, de transferts de position et de la marche pendant 5 jours consécutifs. Cette méthode nous permet d'effectuer ces mesures objectives dans le cadre de vie des patients, dans leurs activités quotidiennes. Nous espérons ainsi obtenir des résultats qui soient plus représentatifs de leur mobilité.¦Dans le cadre de mon travail de master, je me suis concentré sur la phase pilote d'une étude du Dr Schizas. Cette phase ne regroupe qu'un nombre limité de sujets (14) répartis en deux groupes de 7 suivant le traitement reçu (chir. contre non-chir). Nous avons alors émis trois hypothèses. La première dit que, avant traitement, les patients non-opérés marchent mieux que les patients destinés à la chirurgie (symptômes moins intenses). La deuxième postule que le traitement chirurgical permet d'atténuer suffisamment les symptômes pour que les capacités de marche se rapprochent de celles des patients non opérés avant traitement (efficacité de la chirurgie). Pour finir, notre dernière hypothèse prétend que, après la chirurgie, les patients opérés voient une amélioration de leur capacité de marche par rapport à celles qu'ils avaient avant l'intervention. 4 paramètres ont été retenus afin de caractériser la marche: la longueur des pas, la vitesse, la cadence des pas et la distance parcourue. C'est à partir des moyennes et des coefficients de variabilité de ces paramètres que nous avons effectué nos comparaisons.¦Après l'analyse de nos résultats, il s'avère que nos valeurs tendent à valider nos trois hypothèses à quelques exceptions près. Hypothèse n°1: avant traitement, les patients non destinés à la chirurgie marchent plus vite (2.96 contre 2.87 P 0.84) et avec une cadence des pas plus importante (101.78 contre 94.59 P 0.047). Seule la longueur des pas est plus importante chez les futurs opérés (1.01 contre 0.96 P 0.72). Les coefficients de variabilité (CV) sont tous plus faibles chez les non-opérés (marche plus homogène). Concernant notre 2ème hypothèse, nous sommes plutôt satisfaits des résultats. A 3 mois après la chirurgie, les patients opérés, comparés aux non-opérés avant traitement ont une longueur de pas similaire (1.02 contre 0.96 P 0.70) et une vitesse plus importante (3.08 contre 2.96 P 0.83). Seule la cadence des pas est plus élevée chez les non-opérés (101.78 contre 100.23 P 0.72). Les CV confirment également un rapprochement des capacités de marche de nos patients opérés de celles des non-opérés. Pour la troisième hypothèse, nous sommes heureux de constater que les moyennes et les CV sont tous en accord avec l'idée de base. A trois mois post-traitement les patients opérés font des pas de longueur similaire (1.02 contre 1.01 P 0.93), marchent plus vite (3.08 contre 2.89 P 0.52) et à une cadence plus importante (100.23 contre 94.59 P 0.19).¦Avec seulement 14 patients, il est bien clair que ces résultats n'ont que peu de valeur statistique. Cependant, ces résultats nous encouragent à poursuivre cette étude sur un collectif de patients plus important dans le but de mieux comprendre les troubles de la mobilité des personnes atteintes de canal lombaire étroit.
Resumo:
Le présent travail rend compte de la double articulation d'analyse pensée par Antoine Berman dans Pour une critique des traductions: John Donne (Gallimard, 1994). La méthode bermanienne s'attache tant à une histoire, événementielle et individuelle, des traductions qu'à une analyse des textes à la lumière de leurs entours (paratextes, projets de traduction, etc.). Dans une première partie, nous tenterons de décrire et de comprendre à l'aide d'un panorama historique l'importation de la poésie de Rilke en traduction française, des premières versions du début du XXe siècle aux dernières traductions des Élégies de Duino (2008, 2010). Reprenant la formule de Berman, nous « irons au traducteur », à sa façon de traduire et à la traduction qu'il livre. Nous nous pencherons ainsi sur l'identité de ces traducteurs (premiers ou bien nouveaux), sur leur statut socioculturel ainsi que sur les circonstances dans lesquelles ils furent amenés à traduire et virent leur travail publié. Il s'agira d'établir de façon synthétique ce que Berman, sous l'influence de H. R. Jauss, dénomme l' « horizon » d'une traduction qui, à une date donnée, prend en compte une pluralité de critères allant de traits propres au traducteur aux codes poétiques en vigueur dans le vaste champ des Lettres et la société. Nous replacerons ainsi la traduction dans le plus large contexte du transfert culturel et de l'importation et examinerons les traducteurs en présence : les universitaires, les poètes, les traducteurs à plein temps et, dans une moindre mesure, les philosophes. De ce panorama historique émergera l'idée d'une concurrence entre les multiples traducteurs de la poésie de Rilke, plus spécialement entre universitaires et poètes. Dans une seconde partie, reflet de l'autre facette de la pensée bermanienne, nous procèderons à la comparaison et à l'évaluation critique de plusieurs versions françaises de la première Élégie de Duino - opus poétique rilkéen le plus retraduit en français. Notre corpus se limitera à cette première Élégie et à une dizaine de versions françaises que nous faisons dialoguer ou s'opposer. Partant de premières considérations sur l'enveloppe prosodique et typographique du poème, qui nous permettent de saisir la diversité des entreprises et de cerner tant des lignes de force communes que la singularité d'expérimentations plus marginales, nous « confronterons » ensemble les quatre premières versions françaises de la première Élégie, accomplies quasi simultanément dans les années 1930 par des traducteurs d'horizons variés (un germaniste, J.F. Angelloz, une artiste-peintre, L. Albert-Lasard, un traducteur de métier, M. Betz, et un poète, A. Guerne). Il s'agira de saisir l'apport de chacune d'entre elles, ainsi que le type de lien qui les unit (ou les oppose). L'étude de la quatrième version, celle d'Armel Guerne, nous mènera presque naturellement vers la question de la perception de l'écart poétique et du caractère extra-ordinaire de l'original. A la lumière de cette problématique cardinale en poésie, nous procèderons à la comparaison de versions issues des cinquante dernières années et, en considérant plusieurs éléments de sens, nous tenterons de voir comment chaque traducteur, qui est aussi et avant tout un lecteur, a perçu et restitué dans son texte français la matière poétique propre de l'original. Au terme de ce parcours contrastif parmi différentes versions de la première Élégie, nous confronterons les résultats de notre analyse textuelle et le constat de concurrence qui se dégageait de la première partie. Il s'agira de voir alors si la pratique traductive, telle qu'elle se manifeste concrètement au niveau du texte, reflète un antagonisme particulier entre Poésie et Université, ou s'il convient au contraire de relativiser, voire démystifier cette dichotomie.
Resumo:
Les crues et les risques de débordement des barrages, notamment des digues en terre, en cas de fortes précipitations, préoccupent depuis longtemps les autorités et la population. Les études réalisées dans les dernières années ont montré que le réchauffement global du climat s'est accompagné d'une augmentation de la fréquence des fortes précipitations et des crues en Suisse et dans de nombreuses régions du globe durant le 20ème siècle. Les modèles climatiques globaux et régionaux prévoient que la fréquence des fortes précipitations devrait continuer à croître durant le 21éme siècle en Suisse et dans le monde. Cela rend les recherches actuelles sur la modélisation des pluies et des crues à une échelle fine encore plus importantes. En Suisse, pour assurer une bonne protection sur le plan humain et économique, des cartes de précipitations maximales probables (PMP) ont été réalisées. Les PMP ont été confrontées avec les précipitations extrêmes mesurées dans les différentes régions du pays. Ces PMP sont ensuite utilisées par les modèles hydrologiques pour calculer des crues maximales probables (PMF). Cette la méthode PMP-PMF nécessite toutefois un certain nombre de précautions. Si elle est appliquée d'une manière incorrecte ou sur la base de données insuffisantes, elle peut entraîner une surestimation des débits de crue, notamment pour les grands bassins et pour les régions montagneuses entraînant des surcoûts importants. Ces problèmes résultent notamment du fait que la plupart des modèles hydrologiques répartissent les précipitations extrêmes (PMP) de manière uniforme dans le temps sur l'ensemble du bassin versant. Pour remédier ce problème, cette thèse a comme objectif principal de développer un modèle hydrologique distribué appelé MPF (Modeling Precipitation Flood) capable d'estimer la PMF de manière réaliste à partir de la PMP distribuée de manière spatio-temporelle à l'aide des nuages. Le modèle développé MPF comprend trois parties importantes. Dans la première partie, les précipitations extrêmes calculées par un modèle météorologique à une méso-échelle avec une résolution horizontale de 2 km, sont réparties à une échelle locale (25 ou 50 m) de manière non-uniforme dans l'espace et dans le temps. La deuxième partie concerne la modélisation de l'écoulement de l'eau en surface et en subsurface en incluant l'infiltration et l'exfiltration. Et la troisième partie inclut la modélisation de la fonte des neiges, basée sur un calcul de transfert de chaleur. Le modèle MPF a été calibré sur des bassins versants alpins où les données de précipitations et du débit sont disponibles pour une période considérablement longue, qui inclut plusieurs épisodes de fortes pluies avec des débits élevés. À partir de ces épisodes, les paramètres d'entrée du modèle tel que la rugosité du sol et la largeur moyenne des cours d'eau dans le cas d'écoulement de surface ont pu être estimés. Suivant la même procédure, les paramètres utilisés dans la simulation des écoulements en subsurface sont également estimés indirectement, puisque des mesures directes de l'écoulement en subsurface et de l'exfiltration sont difficiles à obtenir. Le modèle de distribution spatio-temporelle de la pluie a aussi été validé en utilisant les images radar avec la structure de la pluie provoquée par un nuage supercellulaire. Les hyétogrammes obtenus sur plusieurs points du terrain sont très proches de ceux enregistrées avec les images radar. Les résultats de la validation du modèle sur les épisodes de fortes crues présentent une bonne synchronisation entre le débit simulé et le débit observé. Cette corrélation a été mesurée avec trois critères d'efficacité, qui ont tous donné des valeurs satisfaisantes. Cela montre que le modèle développé est valide et il peut être utilisé pour des épisodes extrêmes tels que la PMP. Des simulations ont été faites sur plusieurs bassins ayant comme données d'entrée la pluie de type PMP. Des conditions variées ont été utilisées, comme la situation du sol saturé, ou non-saturé, ou la présence d'une couche de neige sur le terrain au moment de la PMP, ce qui conduit à une estimation de PMF pour des scénarios catastrophiques. Enfin, les résultats obtenus montrent comment mieux estimer la valeur de la crue de sécurité des barrages, à partir d'une pluie extrême dix-millennale avec une période de retour de 10'000 ans.
Resumo:
La schizophrénie est une maladie chronique qui touche 1% de la population mondiale. Elle¦comporte des facteurs de risque génétiques et environnementaux. Leur interaction pendant le¦développement du cerveau mène aux déficits de la synchronisation neuronale et aux¦dommages cellulaires qui prédisposent l'individu à développer, à l'âge adulte, la¦schizophrénie (Kim Do et al.). Kim Do et al (2009) ont découvert qu'une anomalie génétique¦de la synthèse du glutathion (GSH) est responsable de la dérégulation redox qui mène au¦stress oxydatif qui, à son tour, est impliqué dans la pathogénèse de la schizophrénie pendant le¦développement du cerveau. Le GSH protège les cellules contre les radicaux libres produits par¦le stress oxydatif. En effet, les radicaux libres provoquent la peroxydation des lipides,¦l'oxydation des protéines et des lésions au niveau de l'ADN, et par conséquent, des¦dommages cellulaires.¦Le GSH est produit par l'enzyme clé GCL (glutamate-cystéine ligase). Le GCL est composé¦de deux sous-unités: GCL-M (sous-unité modulatrice) et GCL-C (sous-unité catalytique). Des¦polymorphismes des gènes de GCL-M et GCL-C ont été trouvé associés avec la¦maladie (Tosic et al., 2006 ; Gysin et al., 2007). Dans cette étude, on se focalisera sur le TNR¦GAG (répétitions de tri-nucléotides) du GCL-C. En effet, GCL-C possède sur son codon¦START des variances avec 7, 8 ou 9 répétitions GAG générant ainsi six génotypes différents:¦7/7, 7/8, 7/9, 8/8, 8/9 et 9/9. Dans deux cohortes, les génotypes 8/7, 8/8, 8/9 et 9/9, appelés¦génotype à haute risque (HR), se trouvent en plus grand nombre chez les patients tandis que¦les génotypes 7/7 et 7/9 (génotypes à bas risque (BR)) sont plus nombreux chez les sujets¦témoins (Gysin et al., 2007). En plus, les analyses des cultures de fibroblastes montrent que¦chez les génotypes HR, en comparaison avec ceux à BR, l'expression de protéine de GCL-C,¦l'activité enzymatique de GCL et le taux de GSH sont nettement plus bas.¦Cette étude se base sur le DIGS (diagnostic interview for genetic studies), un entretien semistructuré¦qui récolte des données psychopathologiques. Grâce à cet outil, nous pouvons¦comparer les données des sujets avec les génotypes HR versus BR. Plus précisément, on va se¦focaliser sur le chapitre des psychoses du DIGS chez les schizophrènes, en se posant la¦question suivante: « Est-ce qu'il y a une différence des phénotypes entre BR et HR ? » .¦La méthode de travail va se focaliser sur : (a) revue de la littérature, (b) l'analyse et la¦compréhension du DIGS et (c) l'analyse, l'interprétation et la synthèse des résultats¦statistiques du chapitre « psychose » du DIGS.¦Les résultats nous indiquent une différence significative entre les deux groupes pour les¦symptômes suivants : (a) les idées délirantes de persécution, (b) la durée de l'émoussement¦affectif et des affects inappropriés et (c) les croyances inhabituelles ou pensées magiques¦pendant la phase prodromique.¦Étant donné que cette étude se base sur un échantillon assez restreint, il faudrait la consolider¦avec un plus grands nombre de cas et il serait intéressant de le reproduire dans une autre¦cohorte. En conclusion, le travail peut ouvrir de nouvelles perspectives, surtout pour les¦symptômes mal traités ou pas traités par les traitements actuels.
Resumo:
[Table des matières] Revue de la littérature: les expériences étrangères (Norvège, Etats-Unis, France). Information disponible en Suisse. Méthode directe pour le calcul des coûts par DRG. Problèmes relatifs à la méthode directe. Méthode indirecte pour le calcul des coûts par DRG.
Resumo:
Introduction : Le traitement des entorses acromio-claviculaires (AC) est aujourd'hui encore controversé. Les luxations AC avec lésion du fascia delto-trapézoidale (grade IV, V et VI) sont généralement traitées par une chirurgie de stabilisation. A l'inverse les entorses sans luxation de la clavicule (grade I et II) sont traitées conservativement avec de bons résultats. Il reste une interrogation concernant le traitement des luxations AC sans lésion du fascia delto-trapézoidale (grade III). Le but de notre étude est d'évaluer les résultats du traitement chirurgical des entorses AC de grade III selon un score cinématique. Matériel et Méthode : 30 patients avec une entorse AC de grade III ont été opérés d'une stabilisation de la clavicule entre 2003 et 2011 par le service d'Orthopédie et traumatologie du CHUV. Tous ont été cliniquement évalués selon le score de Constant. L'évaluation cinématique a été effectuée à l'aide d'un iPod touch, fixé sur l'humérus. Cet outil de mesure, décrit et validé par l'EPFL, prend en considération l'accélération et la vitesse angulaire du membre supérieur pour 7 différents mouvements des deux bras. L'évaluation cinématique a été effectuée en comparant le côté opéré par rapport au côté sain selon 2 scores (RAV et P) provenant de ces variables. Les scores RAV et P sont calculés par l'application installée sur l'iPod touch, ils sont donnés en pourcentage par rapport à l'épaule saine. Nous avons défini un score de Constant relatif de plus de 60 et un score cinématique de plus de 75% comme satisfaisant. Résultats : Nous avons revus dix patients avec un recul moyen de 36 mois (6 à 72 mois) d'un âge moyen de 42 ans (27 à 62 ans). Le score de Constant moyen est de 75.9 ± 21.7. Le score P moyen est de 89.3% ± 23.4 et le score RAV moyen est de 91.8% ± 15.8 (tab.1). Quatre sujets obtiennent un excellent score de Constant pour le bras opéré, 2 sujets obtiennent un bon score et un sujet obtient un score moyen, tandis que 3 sujets obtiennent un mauvais score. Huit patients obtiennent un score cinématique satisfaisant alors que nous observons 2 résultats non satisfaisants. Les mauvais résultats tant cliniques que cinématiques ont été observés chez des patients travailleurs de force, nécessitant d'effectuer des mouvements de l'épaule au-dessus du niveau du buste. Discussion et Conclusion : Sur la base d'une évaluation clinique et cinématique, le traitement chirugical des entorses AC de grade III donne des résultats satisfaisants. Notre étude ne comportant pas de groupe contrôle et notre série étant non homogène, avec un nombre limité de sujet, nous ne pouvons conclure que le traitement chirurgical est le traitement le mieux adapté aux patients avec une entorse acromio-claviculaires de type III. Nous recommandons toutefois un traitement chirugical chez les patients actifs, et les patients exerçant un métier avec nécessité de mobilisation de l'épaule au dessus du buste. Un travail manuel lourd représente un facteur de mauvais pronostic.
Resumo:
Une méthode de marquage radioactif simultané de deux musaraignes est décrite. Comme instruments, 2 compteurs a scintillation portatifs et un dispositif d'enregistrement automatique à 20 sondes ont été utilisés. Les musaraignes ont été respectivement marquées avec un filament de 100 µ Ci et 600 µ Ci. Avant l'enregistrement simultané il faut déterminer pour chaque individu le domaine vital et l'emplacement des nids et calibrer les instruments. Cette technique est appliquée à une population de Crocidura russula. Elle permet d'étudier les relations spatio-temporelles des individus durant leur activité et repos (occupation commune d'un nid).