999 resultados para méthodes qualitatives
Resumo:
Le "data mining", ou "fouille de données", est un ensemble de méthodes et de techniques attractif qui a connu une popularité fulgurante ces dernières années, spécialement dans le domaine du marketing. Le développement récent de l'analyse ou du renseignement criminel soulève des problèmatiques auxqwuelles il est tentant de d'appliquer ces méthodes et techniques. Le potentiel et la place du data mining dans le contexte de l'analyse criminelle doivent être mieux définis afin de piloter son application. Cette réflexion est menée dans le cadre du renseignement produit par des systèmes de détection et de suivi systématique de la criminalité répétitive, appelés processus de veille opérationnelle. Leur fonctionnement nécessite l'existence de patterns inscrits dans les données, et justifiés par les approches situationnelles en criminologie. Muni de ce bagage théorique, l'enjeu principal revient à explorer les possibilités de détecter ces patterns au travers des méthodes et techniques de data mining. Afin de répondre à cet objectif, une recherche est actuellement menée au Suisse à travers une approche interdisciplinaire combinant des connaissances forensiques, criminologiques et computationnelles.
Resumo:
Introduction: Les kystes synoviaux localisés à l'épaule sont des conditions rares résultant de tendinopathies rompues de la coiffe des rotateurs, d'une omarthrose sévère, d'arthropathies microcristallines de l'articulation acromio-claviculaire ou gléno-humérale, ou d'une atteinte secondaire à un rhumatisme inflammatoire chronique. Ils se présentent cliniquement le plus souvent sous la forme d'une tuméfaction fluctuante indolore en regard du moignon de l'épaule ou de l'articulation acromio-claviculaire. L'imagerie par échographie permet de caractériser aisément la présence de ces kystes. La prise en charge thérapeutique est généralement non invasive par aspiration-infiltration. Les cas réfractaires sont susceptibles de subir une intervention chirurgicale en fonction de l'âge et de l'état général du patient.Patients et Méthodes: Nous rapportons les cas de 3 patients avec imagerie par échographie et IRM ou Scanner. Le premier cas est celui d'un homme de 47 ans, greffé rénal, présentant une arthrite récidivante des épaules sur arthropathie microcristalline mixte. De multiples kystes synoviaux sont mis en évidence dans la musculature du supra-épineux gauche, communiquant avec l'articulation acromio-claviculaire. Le patient a bénéficié à plusieurs ponctions-infiltrations dirigées par ultrasonographie. Le deuxième cas est celui d'un patient de 32 ans connu pour une arthrite psoriasique évoluant depuis 6 ans. Il présente une importante tuméfaction en regard du biceps à gauche sur un kyste synovial provenant de l'articulation gléno-humérale. Il bénéficie également d'une ponction-infiltration dirigée par ultrason. Le troisième cas est celui d'une femme de 91 ans chez qui au status d'entrée on objective une volumineuse masse polylobée en regard de l'acromio-claviculaire, présente depuis 2002 qui n'a jamais été symptomatique. Un US, puis un CT montrent qu'il s'agit de volumineux kystes articulaires en relation avec une arthropathie sévère dégénérative et à apatite de l'acromio-claviculaire.Résultats: Les trois patients ont bénéficié d'une imagerie diagnostique par échographie complétée par une IRM ou Scanner. Tous les trois ont également subi une aspiration dirigée sous échographie. Dans le premier cas, deux aspiration-infiltration des kystes qui apportaient une évolution favorable avec diminution important des kystes. Dans le deuxième cas nous avons retrouvé un kyste après 2 aspirations et dans ce cas une intervention chirurgicale est considérée. Dans le troisième cas, asymptomatique, une résection à visée esthétique a été refusée par la patiente.Conclusion: Les kystes synoviaux localisés à l'épaule restent des conditions rares, provenant d'entités diverses. Nous rapportons le développement de kystes synoviaux de l'épaule dans une arthropathie microcristalline chez un patient greffé rénal, dans une arthrite psoriasique chez un jeune patient en poussée inflammatoire, et finalement de gros kystes asymptomatiques chroniques sur une atteinte dégénérative et microcristalline chez une patiente âgée. Le diagnostic de ces kystes peut être rapidement obtenu par échographie, permettant l'aspiration guidée avec analyse du liquide. En raison d'un fort taux de récidive malgré un traitement par aspiration-infiltration, une intervention chirurgicale de ces kystes est considérée.
Resumo:
(Résumé de l'ouvrage) La question du rêve est part intégrante de la question de la religion et intéresse de ce fait au plus haut point l'histoire comparée des religions. Non seulement les rêves ont-ils souvent été à l'origine d'une religion, mais ils sont fréquemment un de ses vecteurs principaux. En incluant la dimension onirique comme un élément constitutif du religieux et en développant des méthodes pour l'investiguer, le présent ouvrage se propose de montrer le lien consubstantiel entre religion et rêve. Les études réunies sont issues du colloque Rêves, visions révélatrices: réception et interprétation des songes dans le contexte religieux qui a eu lieu à Lausanne les 7 et 8 décembre 2000. Elles offrent des réflexions et des visions sur les rêves portant sur différentes traditions religieuses et faisant recours à des approches méthodologiques variées. L'ensemble des contributions tente de répondre à la double exigence de l'histoire des religions qui, tout en investissant un contexte religieux spécifique, se donne les moyens de réfléchir le rêve en lien à la religion dans une perspective comparative.
Resumo:
Cet article présente une étude, commencée en 2007, sur le développement de l'edelweiss dans deux alpages du val Ferret (VS). A moyen terme, cette étude vise à estimer la capacité de résistance à la pâture des moutons de l'espèce et à mieux connaître la dynamique de ses populations dans l'idée d'améliorer sa conservation. L'article présente les deux sites d'études (conditions écologiques, importance des populations d'edelweiss) et s'intéresse principalement à la composition du tapis végétal. Cette première étape est avant tout descriptive mais elle est d'importance primordiale pour pouvoir interpréter les observations de multiplication et de colonisation de l'edelweiss in situ. Des méthodes de l'écologie numérique sont utilisées pour explorer la variabilité de la composition spécifique des parcelles d'étude, subdivisées en groupes homogènes. On cherche ensuite les variables environnementales qui expliquent le mieux la composition floristique des groupes retenus.
Resumo:
El present projecte té per objectiu analitzar la realitat urbana del municipi de Felanitx i la seva possible evolució futura, així com la definició d’una sèrie de propostes de millora encaminades a donar resposta a les debilitats i amenaces existents, i la potenciació de les fortaleses i oportunitats identificades. Per fer-ho s’ha portat a terme una exhaustiva recerca bibliogràfica, la consulta i anàlisi cartogràfica així com la utilització de tècniques qualitatives com entrevistes i grups de discussió en el període gener-setembre 2011. Els resultats obtinguts demostren com l’actual planejament urbanístic permet un creixement molt per sobre de l’esperat a l’horitzó 2025, existint el risc que es doni un cert grau de porositat urbana i d’ocupació irreversible i innecessària del sòl. Per aquest motiu les propostes de millora urbanística giren al voltant de la definició d’un model urbanístic més compacte, de millora ambiental i social i de disminució dels riscos ambientals. A més, també es determinen unes propostes encaminades a la potenciació i diversificació de l’activitat econòmica i la vinculació amb el medi natural. En conclusió es veu necessària l’aprovació d’un nou planejament urbanístic que integri aquestes propostes de millora i sobretot adeqüi el sostre de creixement a les dinàmiques demogràfiques i no merament a les econòmiques.
Resumo:
Rrésumé: La première description dans une publication médicale des douleurs neuropathiques remonte à 1872, le Dr S.W. Mitchell les résumant ainsi [...]" la causalgie est la plus terrible des tortures qu'une lésion nerveuse puisse entraîner "[...]. Par définition, la douleur neuropathique est une douleur chronique faisant suite à une lésion ou dysfonction du système nerveux. Malgré les progrès faits dans la compréhension de ce syndrome, le détail des mécanismes impliqués nous échappe encore et son traitement reste insuffisant car moins de 50% des patients sont soulagés par les thérapies actuelles. Différents modèles expérimentaux ont été élaborés chez l'animal de laboratoire, en particulier des modèles de lésion de nerfs périphériques chez le rat, permettant des investigations tant moléculaires que fonctionnelles des mécanismes impliqués dans le développement de ces douleurs. En revanche, peu de modèles existent chez la souris, alors que cet animal, grâce à la transgénèse, est très fréquemment utilisé pour l'approche fonctionnelle ciblée sur un gène. Dans l'étude présentée ici, nous avons évalué chez la souris C57BL/6 l'adaptation d'un modèle neuropathique, proposé une nouvelle modalité de mesure de la sensibilité douloureuse adaptée à la souris et défini une méthode d'analyse performante des résultats. Ce modèle, dit de lésion avec épargne nerveuse (spared Werve injury, SNI), consiste en la lésion de deux des trois branches du nerf sciatique, soit les nerfs peronier commun et tibial. La troisième branche, le nerf sural est laissé intact et c'est dans le territoire cutané de ce dernier que la sensibilité douloureuse à des stimulations mécaniques est enregistrée. Des filaments calibrés de force croissante sont appliqués sur la surface de la patte impliquée et la fréquence relative de retrait de la patte a été modélisée mathématiquement et analysée par un modèle statistique intégrant tous les paramètres de l'expérience (mixed-effects model). Des variantes chirurgicales lésant séquentiellement les trois branches du nerf sciatique ainsi que la réponse en fonction du sexe de l'animal ont également été évaluées. La lésion SNI entraîne une hypersensibilité mécanique marquée comparativement aux souris avec chirurgie contrôle; cet effet est constant entre les animaux et persiste durant les quatre semaines de l'étude. De subtiles différences entre les variables, y compris une divergence de sensibilité mécanique entre les sexes, ont été démontrées. La nécessité de léser le nerf tibial pour le développement des symptômes a également été documentée par notre méthode d'évaluation et d'analyse. En conclusion, nous avons validé le modèle SNI chez la souris par l'apparition d'un symptôme reproductible et apparenté à l'allodynie mécanique décrite par les patients souffrant de douleurs neuropathiques. Nous avons développé des méthodes d'enregistrement et d'analyse de la sensibilité douloureuse sensibles qui permettent la mise en évidence de facteurs intrinsèques et extrinsèques de variation de la réponse. Le modèle SNI utilisé chez des souris génétiquement modifiées, de par sa précision et reproductibilité, pourra permettre la discrimination de facteurs génétiques et épigénétiques contribuant au développement et à la persistance de douleurs neuropathiques.
Resumo:
RÉSUMÉ En conjuguant les méthodes de l'histoire littéraire, de la sociologie des champs et de l'analyse littéraire, ce mémoire se propose d'étudier l'élaboration de la « posture » de Maurice Blanchot dans l'immédiat après-guerre (1944-1948). Le passé de Blanchot, marqué par des positions politiques d'extrême droite dans les années 30, et dans une certaine mesure encore sous l'Occupation, le conduit à un repositionnement conséquent dans le champ littéraire de la Libération marqué par l'Epuration des écrivains collaborateurs. Ce repositionnement se traduit par l'élaboration de la « posture » de l'écrivain en retrait, qui se présente comme la manifestation d'une autonomie littéraire radicale. Toutefois, cette posture du retrait demeure une forme de participation au champ littéraire et Blanchot, malgré sa volonté d'une parfaite autonomie de son oeuvre vis-à-vis des impératifs économiques ou idéologiques du temps, n'en est pas moins amené à réélaborer ses postulats critiques de même que sa production proprement dite (Le Très-Haut, L'Arrêt de mort), en interaction avec les nouvelles forces dominantes du champ littéraire de la Libération. Il est notamment conduit à se positionner vis-à-vis de la nouvelle avant-garde qui a émergé de la Résistance, dominée par Sartre et ses Temps Modernes, qui promeut un nouveau modèle, celui de l'écrivain engagé.
Resumo:
Dans cette étude, nous avons testé la performance diagnostique d'une nouvelle technique d'analyse multiplexée qui permet la détection d'anticorps de différentes spécificités dans la même réaction. En l'absence de gold standard, nous avons choisi de comparer la performance diagnostique de l'analyse avec deux méthodes de référance que sont l'IF et EIA, et avec un consensus déterminé selon une règle de majorité entre les trois méthodes.¦393 sérums analysés par IF, conservés par congélation, ont été décongelés pour être analysés par EIA et BBA. Pour chaque sérum, les anticorps recherchés ont été les anti-VCA (Viral Capsid Antigen) IgM, anti-VCA IgG et anti-EBNA (Epstein-Barr Nuclear Associated) IgG. Les échantillons ont été classés en cinq groupes selon les résultats de l'IF : séronégatifs, infections aiguës, infections anciennes et deux types d'indéterminés.¦Pour chaque méthode, le résultat numérique (index ou titre) des analyses est converti en termes de positif, négatif ou douteux. Pour le résultat de chaque type d'anticorps, un consensus est établi selon une règle de majorité entre les trois méthodes, permettant une interprétation du stade de l'infection. Puis l'interprétation de chacune des méthodes a été comparée au consensus. Nous avons également comparé les trois méthodes les unes aux autres concernant la détection des anticorps.¦Globalement, nous observons une bonne corrélation qualitative entre les trois approches pour détecter les anti-VCA IgG et IgM. Pour pour les anti-EBNA IgG, il y a une divergence notable entre l'IF et les deux autres méthodes, l'IF apparaissant moins sensible que les autres méthodes, résultant en un nombre accru d'interprétations indéterminées du stade de l'infection.¦L'origine de cette divergence ne peut être due à une perte d'anticorps liée au stockage de longue durée des échantillons. En effet, EIA et BBA restent plus sensibles que IF, dont l'analyse a été faite sur des sérums frais.¦Cette divergence ne semble pas non plus être due aux différents antigènes utilisés par les trois méthodes. EIA et BBA utilisent le même antigène recombinant EBNA-1, alors que l'IF utilise des "cellules lymphoïdes choisies pour leur production sélective d'antigènes EBNA". Ces cellules sont probablement des cellules infectées par EBV qui devraient exprimer plus d'antigènes de latence que seul EBNA-1. Cette différence devrait donc plutôt en principe résulter en une meilleure sensibilité de l'IF par rapport aux deux autres méthodes.¦Les anti-EBNA IgG peuvent disparaître chez les patients immunocompromis chez qui se produit une réactivation d'EBV. Nous avons donc recherché le status immunitaire des patients du groupe dont les sérums étaient négatifs pour anti-EBNA IgG en IF et positifs par les autres méthodes: seulement 28 des 70 patients étaient immunocompromis.¦Par conséquent, il est probable que dans la majorité de ces résultats discordants, les anticorps anti-EBNA IgG détectés par BBA et EIA sont de vrais positifs non décelés par l'IF.¦En conclusion, BBA est meilleur que la méthode de référance qu'est l'IF, et est égal à EIA en ce qui concerne la performance diagnostique. En outre, ces deux nouvelles méthodes offrent une économie de temps en raison de manipulations moindres, et ne requièrent aucune formation en microscopie à fluorescence. Elles sont également plus économes en échantillons que IF. BBA a l'avantage de n'avoir besoin que de deux analyses pour donner un diagnostique, alors que IF et EIA ont en besoin d'une par anticorps. Enfin, BBA dispose de contrôles internes permettant de reconnaître les liaisons non antigène-spécifiques des anticorps. Par contre, BBA nécessite l'achat d'un lecteur par cytométrie de flux assez coûteux.
Resumo:
Summary: Global warming has led to an average earth surface temperature increase of about 0.7 °C in the 20th century, according to the 2007 IPCC report. In Switzerland, the temperature increase in the same period was even higher: 1.3 °C in the Northern Alps anal 1.7 °C in the Southern Alps. The impacts of this warming on ecosystems aspecially on climatically sensitive systems like the treeline ecotone -are already visible today. Alpine treeline species show increased growth rates, more establishment of young trees in forest gaps is observed in many locations and treelines are migrating upwards. With the forecasted warming, this globally visible phenomenon is expected to continue. This PhD thesis aimed to develop a set of methods and models to investigate current and future climatic treeline positions and treeline shifts in the Swiss Alps in a spatial context. The focus was therefore on: 1) the quantification of current treeline dynamics and its potential causes, 2) the evaluation and improvement of temperaturebased treeline indicators and 3) the spatial analysis and projection of past, current and future climatic treeline positions and their respective elevational shifts. The methods used involved a combination of field temperature measurements, statistical modeling and spatial modeling in a geographical information system. To determine treeline shifts and assign the respective drivers, neighborhood relationships between forest patches were analyzed using moving window algorithms. Time series regression modeling was used in the development of an air-to-soil temperature transfer model to calculate thermal treeline indicators. The indicators were then applied spatially to delineate the climatic treeline, based on interpolated temperature data. Observation of recent forest dynamics in the Swiss treeline ecotone showed that changes were mainly due to forest in-growth, but also partly to upward attitudinal shifts. The recent reduction in agricultural land-use was found to be the dominant driver of these changes. Climate-driven changes were identified only at the uppermost limits of the treeline ecotone. Seasonal mean temperature indicators were found to be the best for predicting climatic treelines. Applying dynamic seasonal delimitations and the air-to-soil temperature transfer model improved the indicators' applicability for spatial modeling. Reproducing the climatic treelines of the past 45 years revealed regionally different attitudinal shifts, the largest being located near the highest mountain mass. Modeling climatic treelines based on two IPCC climate warming scenarios predicted major shifts in treeline altitude. However, the currently-observed treeline is not expected to reach this limit easily, due to lagged reaction, possible climate feedback effects and other limiting factors. Résumé: Selon le rapport 2007 de l'IPCC, le réchauffement global a induit une augmentation de la température terrestre de 0.7 °C en moyenne au cours du 20e siècle. En Suisse, l'augmentation durant la même période a été plus importante: 1.3 °C dans les Alpes du nord et 1.7 °C dans les Alpes du sud. Les impacts de ce réchauffement sur les écosystèmes - en particuliers les systèmes sensibles comme l'écotone de la limite des arbres - sont déjà visibles aujourd'hui. Les espèces de la limite alpine des forêts ont des taux de croissance plus forts, on observe en de nombreux endroits un accroissement du nombre de jeunes arbres s'établissant dans les trouées et la limite des arbres migre vers le haut. Compte tenu du réchauffement prévu, on s'attend à ce que ce phénomène, visible globalement, persiste. Cette thèse de doctorat visait à développer un jeu de méthodes et de modèles pour étudier dans un contexte spatial la position présente et future de la limite climatique des arbres, ainsi que ses déplacements, au sein des Alpes suisses. L'étude s'est donc focalisée sur: 1) la quantification de la dynamique actuelle de la limite des arbres et ses causes potentielles, 2) l'évaluation et l'amélioration des indicateurs, basés sur la température, pour la limite des arbres et 3) l'analyse spatiale et la projection de la position climatique passée, présente et future de la limite des arbres et des déplacements altitudinaux de cette position. Les méthodes utilisées sont une combinaison de mesures de température sur le terrain, de modélisation statistique et de la modélisation spatiale à l'aide d'un système d'information géographique. Les relations de voisinage entre parcelles de forêt ont été analysées à l'aide d'algorithmes utilisant des fenêtres mobiles, afin de mesurer les déplacements de la limite des arbres et déterminer leurs causes. Un modèle de transfert de température air-sol, basé sur les modèles de régression sur séries temporelles, a été développé pour calculer des indicateurs thermiques de la limite des arbres. Les indicateurs ont ensuite été appliqués spatialement pour délimiter la limite climatique des arbres, sur la base de données de températures interpolées. L'observation de la dynamique forestière récente dans l'écotone de la limite des arbres en Suisse a montré que les changements étaient principalement dus à la fermeture des trouées, mais aussi en partie à des déplacements vers des altitudes plus élevées. Il a été montré que la récente déprise agricole était la cause principale de ces changements. Des changements dus au climat n'ont été identifiés qu'aux limites supérieures de l'écotone de la limite des arbres. Les indicateurs de température moyenne saisonnière se sont avérés le mieux convenir pour prédire la limite climatique des arbres. L'application de limites dynamiques saisonnières et du modèle de transfert de température air-sol a amélioré l'applicabilité des indicateurs pour la modélisation spatiale. La reproduction des limites climatiques des arbres durant ces 45 dernières années a mis en évidence des changements d'altitude différents selon les régions, les plus importants étant situés près du plus haut massif montagneux. La modélisation des limites climatiques des arbres d'après deux scénarios de réchauffement climatique de l'IPCC a prédit des changements majeurs de l'altitude de la limite des arbres. Toutefois, l'on ne s'attend pas à ce que la limite des arbres actuellement observée atteigne cette limite facilement, en raison du délai de réaction, d'effets rétroactifs du climat et d'autres facteurs limitants.
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
Contributions autour des méthodes comparatistes employées en histoire des religions pour rendre compte des croyances et des pratiques religieuses ainsi que des religions dans leur contexte historique et culturel. Etudes qui traitent des rites du polythéisme grec comme des pratiques contemporaines du yoga, en passant par les diverses prétentions universalisantes du monothéisme chrétien.
Resumo:
Objectifs: Etudier les résultats techniques et cliniques de l'embolisation des hématomes musculaires spontanés de l'abdomen . Caractériser les hématomes ayant étéembolisés au CT et définir les éventuels critères cliniques et anatomiques pour une embolisation . Etudier la relation entre les hématomes embolisés et lesanticoagulants.Matériels et méthodes: Etude rétrospective des patients ayant bénéficié d'une embolisation pour un hématome musculaire abdominopelvien spontané entre 2005 et 2010. Sont analysésles données cliniques (anticaogulants, retentissement hémodynamqiue), les données scanographiques (site, volume, saignement actif), les artères embolisées etle type d'embol, le résultat clinique immédiat, les complications et la mortalité en cours d'hospitalisation .Résultats: 28 patients (âge moyen 75 ans) ont été embolisés. Tous les patients avaient un traitement anticoagulant et/ou antiplaquettaire. La majorité des hématomesembolisés concernaient le muscle grand droit de l'abdomen. Le saignement actif n'était pas identifié chez tous les patients au CT. Pas de complication immédiaterapportée. Le succès technique était de 98%. Pas de récidive précoce rapportée y compris après réintroduction du traitement anticaogulant.Conclusion: L'embolisation hémostatique des hématomes musculaires spontanés sous anticoagulants est efficace pour contrôler le saignement et permettre la réintroductiondu traitement anticoagulant.
Resumo:
L'estudi té per objectiu valorar la conveniència d'implementar la pràctica del conferencing en els programes de mediació i reparació penal, tant en la jurisdicció penal juvenil com en la jurisdicció ordinària. La recerca inclou dos estudis: el primer és una anàlisi dels programes i models de conferencing desenvolupats en 4 països: Nova Zelanda, Austràlia, Irlanda del Nord i Bèlgica; el segon recull les percepcions dels mediadors de l'àmbit penal a Catalunya pel que fa a l'assoliment dels objectius dels programes, la inclusió espontània de més persones en el procés de mediació, el coneixement sobre el conferencing, l'opinió en relació amb la implementació d'aquesta pràctica, les necessitats formatives i els interessos de futur. La metodologia de la recerca combina aproximacions qualitatives i quantitatives, i inclou l'anàlisi de la documentació dels programes dels països estudiats, la creació, validació i passació a càrrec d’experts d'un qüestionari, i la realització de dos grups de discussió i d’una entrevista als professionals dels programes de mediació penal. Els mediadors consultats consideren que el conferencing és una eina útil per als programes de mediació en l'àmbit penal. L'estudi dels models implementats en d'altres països aporta elements útils per a l'adaptació del conferencing a la realitat i les especificitats de Catalunya. Així, es concreten aspectes que cal tenir en compte per a la definició d'un programa pilot.
Resumo:
AIM: Hyperglycaemia is now a recognized predictive factor of morbidity and mortality after coronary artery bypass grafting (CABG). For this reason, we aimed to evaluate the postoperative management of glucose control in patients undergoing cardiovascular surgery, and to assess the impact of glucose levels on in-hospital mortality and morbidity. METHODS: This was a retrospective study investigating the association between postoperative blood glucose and outcomes, including death, post-surgical complications, and length of stay in the intensive care unit (ICU) and in hospital. RESULTS: A total of 642 consecutive patients were enrolled into the study after cardiovascular surgery (CABG, carotid endarterectomy and bypass in the lower limbs). Patients' mean age was 68+/-10 years, and 74% were male. In-hospital mortality was 5% in diabetic patients vs 2% in non-diabetic patients (OR: 1.66, P=0.076). Having blood glucose levels in the upper quartile range (> or =8.8 mmol/L) on postoperative day 1 was independently associated with death (OR: 10.16, P=0.0002), infectious complications (OR: 1.76, P=0.04) and prolonged ICU stay (OR: 3.10, P<0.0001). Patients presenting with three or more hypoglycaemic episodes (<4.1 mmol/L) had increased rates of mortality (OR: 9.08, P<0.0001) and complications (OR: 8.57, P<0.0001). CONCLUSION: Glucose levels greater than 8.8 mmol/L on postoperative day 1 and having three or more hypoglycaemic episodes in the postoperative period were predictive of mortality and morbidity among patients undergoing cardiovascular surgery. This suggests that a multidisciplinary approach may be able to achieve better postoperative blood glucose control. Conclusion: Objectif: L'hyperglycémie a été reconnue comme facteur prédictif de morbidité et mortalité après un pontage aortocoronaire. Notre étude avait pour objectif d'évaluer la prise en charge postopératoire des glycémies chez les patients qui avaient subi une intervention chirurgicale cardiovasculaire et d'évaluer l'impact de ces glycémies sur la mortalité et la morbidité intrahospitalières. Méthodes: Étude rétrospective recherchant une association entre la glycémie postopératoire et les complications postchirurgicales, la mortalité et la durée du séjour aux soins intensifs et à l'hôpital. Résultats: L'étude a été réalisée sur 642 patients qui avaient subi une intervention chirurgicale cardiovasculaire (ex. pontage aortocoronaire, endartérectomie de la carotide, pontage artériel des membres inférieurs). L'âge moyen est de 68 ± 10 ans et 74 % des patients étaient de sexe masculin. La mortalité intrahospitalière a été de 5 % parmi les patients diabétiques et 2 % chez les non-diabétiques (OR 1,66, p = 0,076). Les taux de glycémies situés dans le quartile supérieur (≥ 8,8 mmol/l) à j1 postopératoire sont associés de manière indépendante avec la mortalité (OR 10,16, 95 % CI 3,20-39,00, p = 0,0002), les complications infectieuses (OR 1,76, 95 % CI 1,02-3,00, p = 0,04) et la durée du séjour aux soins intensifs (OR 3,10, 95 % CI 1,83-5,38, p < 0,0001). Les patients qui avaient présenté trois hypoglycémies ou plus (< 4,1 mmol/l) ont présenté un taux augmenté de mortalité (OR 9,08, p ≤ 0,0001) et de complications (OR 8,57, p < 0,0001). Conclusion : Des glycémies supérieures à 8,8 mmol/l à j1 postopératoire et la présence de trois hypoglycémies ou plus en période postopératoire sont des facteurs prédictifs de mauvais pronostic chez les patients qui avaient subi une intervention chirurgicale cardiovasculaire. Ainsi, une approche multidisciplinaire devrait être proposée afin d'obtenir un meilleur contrôle postopératoire des glycémies.