998 resultados para Approche intégrée
Resumo:
La détection des traces pertinentes, pas toujours visibles, est le défi auquel le scientifique qui examine un champ d'investigation est systématiquement confronté : il cherche parfois des quantités infimes de matière qui dessinent des crêtes papillaires ou qui lui permettront d'extraire un profil d'ADN. Il cible ses recherches lorsque sur le lieu d'un incendie, l'odeur peut le diriger vers les restes d'un produit inflammable, lorsqu'il extrait des traces numériques pertinentes de gigantesques quantités d'informations ou lorsqu'il teste spécifiquement si une personne a consommé un produit. Le projet d'augmenter simultanément la capacité de détecter la présence de traces latentes et de reconnaître ce qui peut le mieux expliquer une présence ou une action combine nécessairement à la fois le développement de nouvelles techniques et leur intégration dans une approche globale du champ d'investigation dont les fondements sont encore à consolider.
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
Au moment où nos sociétés contemporaines s'interrogent avec passion sur le statut de l'animal et sur la responsabilité éthique des êtres humains envers la création et l'environnement - jusqu'à la question des OGM -, cette étude est d'une brûlante actualité. Qu'en est-il de la notion de dignité de la créature, ancrée dans la Constituton fédérale? Est-elle, comme le prétendent certains, une coquille vide, un mot magique et creux, sans signification réelle? Quelle pourrait être sa portée pour les animaux prétendus inférieurs et pour les plantes? Les auteurs s'appuient sur la distinction entre dignité et valeur. Ils pennent leurs distances par rapport aux catégories d'anthropocentrisme, de pathocentrisme et et de biocentrisme, catégories conditionnant la plupart des théories éthiques au sujet de l'animal et de l'environnement. Il en résulte une nouvelle conception de la relation anthropologique en ^tre l'être humain, l'animal et la nature. La perspective de l'anthropo-relationalité sert de fondement à une approche respectueuse des animaux et des plantes, tout en reconnaissant la place et la responsabilité spécifiques de l'être humain et des sociétés démocratiques.
Resumo:
The 2009 news in medicine regarding dependence confirm the bio-psycho-social field of addiction medicine and psychiatry. First a statement is made about the risk of cardiac arythmy in opioid substitution treatments. Then a review of the treatment of C hepatitis shows its importance in an addicted population. In the field of cognitive neuroscience, progress has been made in the knowledge of "craving" and of its endophenotypical components. Electronic medias related disorders are on the border of addiction: a case study is exploring this new domain. At last, recent datas are presented on the relationship between cannabis and psychosis. Les nouveautés en médecine 2009 concernant les dépendances confirment l'étendue du champ bio-psychosocial de la médecine et de la psychiatrie de l'addiction. Tout d'abord un point de situation est fait sur le risque d'arythmie cardiaque dans les traitements de substitution opiacée. Puis une revue de l'actualité du traitement de l'hépatite C dans la toxicodépendance en montre la pertinence. Sur le plan de la recherche plus fondamentale, les neurosciences cognitives progressent dans l'approche de la nature du craving et de ses composantes endophénotypiques. Les troubles liés aux médias électroniques illustrent les frontières de l'addiction : une étude de cas vient en explorer le contenu. Enfin, des données récentes sur les rapports entre cannabis et psychoses sont présentées.
Resumo:
Abstract : In the subject of fingerprints, the rise of computers tools made it possible to create powerful automated search algorithms. These algorithms allow, inter alia, to compare a fingermark to a fingerprint database and therefore to establish a link between the mark and a known source. With the growth of the capacities of these systems and of data storage, as well as increasing collaboration between police services on the international level, the size of these databases increases. The current challenge for the field of fingerprint identification consists of the growth of these databases, which makes it possible to find impressions that are very similar but coming from distinct fingers. However and simultaneously, this data and these systems allow a description of the variability between different impressions from a same finger and between impressions from different fingers. This statistical description of the withinand between-finger variabilities computed on the basis of minutiae and their relative positions can then be utilized in a statistical approach to interpretation. The computation of a likelihood ratio, employing simultaneously the comparison between the mark and the print of the case, the within-variability of the suspects' finger and the between-variability of the mark with respect to a database, can then be based on representative data. Thus, these data allow an evaluation which may be more detailed than that obtained by the application of rules established long before the advent of these large databases or by the specialists experience. The goal of the present thesis is to evaluate likelihood ratios, computed based on the scores of an automated fingerprint identification system when the source of the tested and compared marks is known. These ratios must support the hypothesis which it is known to be true. Moreover, they should support this hypothesis more and more strongly with the addition of information in the form of additional minutiae. For the modeling of within- and between-variability, the necessary data were defined, and acquired for one finger of a first donor, and two fingers of a second donor. The database used for between-variability includes approximately 600000 inked prints. The minimal number of observations necessary for a robust estimation was determined for the two distributions used. Factors which influence these distributions were also analyzed: the number of minutiae included in the configuration and the configuration as such for both distributions, as well as the finger number and the general pattern for between-variability, and the orientation of the minutiae for within-variability. In the present study, the only factor for which no influence has been shown is the orientation of minutiae The results show that the likelihood ratios resulting from the use of the scores of an AFIS can be used for evaluation. Relatively low rates of likelihood ratios supporting the hypothesis known to be false have been obtained. The maximum rate of likelihood ratios supporting the hypothesis that the two impressions were left by the same finger when the impressions came from different fingers obtained is of 5.2 %, for a configuration of 6 minutiae. When a 7th then an 8th minutia are added, this rate lowers to 3.2 %, then to 0.8 %. In parallel, for these same configurations, the likelihood ratios obtained are on average of the order of 100,1000, and 10000 for 6,7 and 8 minutiae when the two impressions come from the same finger. These likelihood ratios can therefore be an important aid for decision making. Both positive evolutions linked to the addition of minutiae (a drop in the rates of likelihood ratios which can lead to an erroneous decision and an increase in the value of the likelihood ratio) were observed in a systematic way within the framework of the study. Approximations based on 3 scores for within-variability and on 10 scores for between-variability were found, and showed satisfactory results. Résumé : Dans le domaine des empreintes digitales, l'essor des outils informatisés a permis de créer de puissants algorithmes de recherche automatique. Ces algorithmes permettent, entre autres, de comparer une trace à une banque de données d'empreintes digitales de source connue. Ainsi, le lien entre la trace et l'une de ces sources peut être établi. Avec la croissance des capacités de ces systèmes, des potentiels de stockage de données, ainsi qu'avec une collaboration accrue au niveau international entre les services de police, la taille des banques de données augmente. Le défi actuel pour le domaine de l'identification par empreintes digitales consiste en la croissance de ces banques de données, qui peut permettre de trouver des impressions très similaires mais provenant de doigts distincts. Toutefois et simultanément, ces données et ces systèmes permettent une description des variabilités entre différentes appositions d'un même doigt, et entre les appositions de différents doigts, basées sur des larges quantités de données. Cette description statistique de l'intra- et de l'intervariabilité calculée à partir des minuties et de leurs positions relatives va s'insérer dans une approche d'interprétation probabiliste. Le calcul d'un rapport de vraisemblance, qui fait intervenir simultanément la comparaison entre la trace et l'empreinte du cas, ainsi que l'intravariabilité du doigt du suspect et l'intervariabilité de la trace par rapport à une banque de données, peut alors se baser sur des jeux de données représentatifs. Ainsi, ces données permettent d'aboutir à une évaluation beaucoup plus fine que celle obtenue par l'application de règles établies bien avant l'avènement de ces grandes banques ou par la seule expérience du spécialiste. L'objectif de la présente thèse est d'évaluer des rapports de vraisemblance calcul és à partir des scores d'un système automatique lorsqu'on connaît la source des traces testées et comparées. Ces rapports doivent soutenir l'hypothèse dont il est connu qu'elle est vraie. De plus, ils devraient soutenir de plus en plus fortement cette hypothèse avec l'ajout d'information sous la forme de minuties additionnelles. Pour la modélisation de l'intra- et l'intervariabilité, les données nécessaires ont été définies, et acquises pour un doigt d'un premier donneur, et deux doigts d'un second donneur. La banque de données utilisée pour l'intervariabilité inclut environ 600000 empreintes encrées. Le nombre minimal d'observations nécessaire pour une estimation robuste a été déterminé pour les deux distributions utilisées. Des facteurs qui influencent ces distributions ont, par la suite, été analysés: le nombre de minuties inclus dans la configuration et la configuration en tant que telle pour les deux distributions, ainsi que le numéro du doigt et le dessin général pour l'intervariabilité, et la orientation des minuties pour l'intravariabilité. Parmi tous ces facteurs, l'orientation des minuties est le seul dont une influence n'a pas été démontrée dans la présente étude. Les résultats montrent que les rapports de vraisemblance issus de l'utilisation des scores de l'AFIS peuvent être utilisés à des fins évaluatifs. Des taux de rapports de vraisemblance relativement bas soutiennent l'hypothèse que l'on sait fausse. Le taux maximal de rapports de vraisemblance soutenant l'hypothèse que les deux impressions aient été laissées par le même doigt alors qu'en réalité les impressions viennent de doigts différents obtenu est de 5.2%, pour une configuration de 6 minuties. Lorsqu'une 7ème puis une 8ème minutie sont ajoutées, ce taux baisse d'abord à 3.2%, puis à 0.8%. Parallèlement, pour ces mêmes configurations, les rapports de vraisemblance sont en moyenne de l'ordre de 100, 1000, et 10000 pour 6, 7 et 8 minuties lorsque les deux impressions proviennent du même doigt. Ces rapports de vraisemblance peuvent donc apporter un soutien important à la prise de décision. Les deux évolutions positives liées à l'ajout de minuties (baisse des taux qui peuvent amener à une décision erronée et augmentation de la valeur du rapport de vraisemblance) ont été observées de façon systématique dans le cadre de l'étude. Des approximations basées sur 3 scores pour l'intravariabilité et sur 10 scores pour l'intervariabilité ont été trouvées, et ont montré des résultats satisfaisants.
Resumo:
Résumé: Ce travail d'histoire comparée de la littérature et de la sociologie s'interroge sur l'émergence de la notion de type dans les pratiques de description du monde social au cours des années 1820-1860. A partir de l'analyse des opérations de schématisation engagées par Honoré Balzac dans La Comédie humaine et par Frédéric Le Play dans Les Ouvriers européens, soit deux oeuvres que tout semble éloigner du point de vue de leurs ambitions, de leur forme, et de la trajectoire de leur auteur, mais qui toutes deux placent cependant la typification au centre de leur dispositif, il s'est agi de produire une histoire de l'imagination typologique, et des ontologies, sociales ou non, qui lui furent associées. Aussi le corpus intègre-t-il des textes d'histoire naturelle, de sciences médicales, d'histoire, de chimie, de géologie, de métallurgie, et, bien évidemment, les genres du roman sentimental, du roman historique et de la littérature panoramique, ainsi que les enquêtes ouvrières et la statistique. Abstract: This work offers a compared history of literature and sociology in France between 1820 and 1860. During that period, the notion of type appears in the literary and sociological descriptions of social reality, and becomes more and more central in the apprehension of the differenciations among classes, communities or groups. Based on the analysis of Honoré Balzac's La Comédie humaine and Frédéric Le Play's Les Ouvriers européens, this study shows that these two series of novels and of workers' monographies put typification at the center of their descriptive ambition. More broadly, it proposes a history of the uses of a typological imagination and of the ontologies, above all social, that were underlying them. That is why the texts also taken into account in this study ranges from natural history, medical sciences, history, chemistry geology and metallurgy, to the sentimental novel, the historical novel and the panoramic literature, as well as social inquiries and statistics.
Resumo:
Comment l'analyse chimique des produits contrefaits peut-elle contribuer à mieux comprendre le phénomène de la contrefaçon?Pour appréhender cette question, une approche novatrice basée sur l'analyse par SPME GC-MS des composés volatils de trente-neuf bracelets parfumés présents sur des contrefaçons horlogères a été mise en oeuvre.La détection de plusieurs dizaines de composés par montre a permis de définir des profils chimiques discriminants. Au total, trois groupes de montres possédant des profils comparables ont été détectés. Ces groupes ont été mis en perspective de liens physiques détectés sur la base du marquage des bracelets (marques et logos) par la fédération de l'industrie horlogère suisse (FH) et des informations spatiotemporelles des saisies. Les montres provenant d'une même saisie présentent systématiquement des liens physiques, mais pas forcément des profils chimiques similaires. Il en ressort que les profils chimiques peuvent fournir une information complémentaire à l'analyse des marquages, qu'ils varient peu dans le temps et que des montres liées chimiquement sont retrouvées dans le monde entier. Cette étude exploratoire révèle ainsi le potentielle d'exploitation de techniques d'analyse complémentaires pour mieux comprendre les modes de production, voire de diffusion de la contrefaçon. Finalement, la méthode analytique a permis de détecter des composés de plastiques en sus des constituants de parfums. Ce résultat laisse entrevoir la possibilité d'exploiterla méthode pour une large gamme de produits contrefaits.
Resumo:
AIM: Hyperglycaemia is now a recognized predictive factor of morbidity and mortality after coronary artery bypass grafting (CABG). For this reason, we aimed to evaluate the postoperative management of glucose control in patients undergoing cardiovascular surgery, and to assess the impact of glucose levels on in-hospital mortality and morbidity. METHODS: This was a retrospective study investigating the association between postoperative blood glucose and outcomes, including death, post-surgical complications, and length of stay in the intensive care unit (ICU) and in hospital. RESULTS: A total of 642 consecutive patients were enrolled into the study after cardiovascular surgery (CABG, carotid endarterectomy and bypass in the lower limbs). Patients' mean age was 68+/-10 years, and 74% were male. In-hospital mortality was 5% in diabetic patients vs 2% in non-diabetic patients (OR: 1.66, P=0.076). Having blood glucose levels in the upper quartile range (> or =8.8 mmol/L) on postoperative day 1 was independently associated with death (OR: 10.16, P=0.0002), infectious complications (OR: 1.76, P=0.04) and prolonged ICU stay (OR: 3.10, P<0.0001). Patients presenting with three or more hypoglycaemic episodes (<4.1 mmol/L) had increased rates of mortality (OR: 9.08, P<0.0001) and complications (OR: 8.57, P<0.0001). CONCLUSION: Glucose levels greater than 8.8 mmol/L on postoperative day 1 and having three or more hypoglycaemic episodes in the postoperative period were predictive of mortality and morbidity among patients undergoing cardiovascular surgery. This suggests that a multidisciplinary approach may be able to achieve better postoperative blood glucose control. Conclusion: Objectif: L'hyperglycémie a été reconnue comme facteur prédictif de morbidité et mortalité après un pontage aortocoronaire. Notre étude avait pour objectif d'évaluer la prise en charge postopératoire des glycémies chez les patients qui avaient subi une intervention chirurgicale cardiovasculaire et d'évaluer l'impact de ces glycémies sur la mortalité et la morbidité intrahospitalières. Méthodes: Étude rétrospective recherchant une association entre la glycémie postopératoire et les complications postchirurgicales, la mortalité et la durée du séjour aux soins intensifs et à l'hôpital. Résultats: L'étude a été réalisée sur 642 patients qui avaient subi une intervention chirurgicale cardiovasculaire (ex. pontage aortocoronaire, endartérectomie de la carotide, pontage artériel des membres inférieurs). L'âge moyen est de 68 ± 10 ans et 74 % des patients étaient de sexe masculin. La mortalité intrahospitalière a été de 5 % parmi les patients diabétiques et 2 % chez les non-diabétiques (OR 1,66, p = 0,076). Les taux de glycémies situés dans le quartile supérieur (≥ 8,8 mmol/l) à j1 postopératoire sont associés de manière indépendante avec la mortalité (OR 10,16, 95 % CI 3,20-39,00, p = 0,0002), les complications infectieuses (OR 1,76, 95 % CI 1,02-3,00, p = 0,04) et la durée du séjour aux soins intensifs (OR 3,10, 95 % CI 1,83-5,38, p < 0,0001). Les patients qui avaient présenté trois hypoglycémies ou plus (< 4,1 mmol/l) ont présenté un taux augmenté de mortalité (OR 9,08, p ≤ 0,0001) et de complications (OR 8,57, p < 0,0001). Conclusion : Des glycémies supérieures à 8,8 mmol/l à j1 postopératoire et la présence de trois hypoglycémies ou plus en période postopératoire sont des facteurs prédictifs de mauvais pronostic chez les patients qui avaient subi une intervention chirurgicale cardiovasculaire. Ainsi, une approche multidisciplinaire devrait être proposée afin d'obtenir un meilleur contrôle postopératoire des glycémies.
Resumo:
Les virus sont présents dans la plupart des environnements. Grâce aux outils moléculaires, il est maintenant possible de les mettre en évidence facilement, ce qui était difficile auparavant car cela nécessitait une infrastructure relativement complexe (cultures cellulaires ou inoculation à des animaux). En 2002, à l'aide de la métagénomique, une approche expérimentale a permis de montrer la présence de > 5 000 virus différents dans 200 litres d'eau de mer (Breitbart et al., 2002). Tous ces virus étaient essentiellement de nouvelles espèces. Ainsi, les études cherchant à détecter des virus pathogènes dans des échantillons environnementaux se sont multipliées afin de mieux comprendre leurs cycles vitaux, leurs voies de contamination et leur survie dans la nature. L'homme et les animaux contractent des virus essentiellement par ingestion d'eau contaminée ou par voies manuportée et aéroportée. Certains de ces virus (i.e. virus de la grippe aviaire H5N1, SRAS) sont à l'origine de sérieux problèmes de santé publique de par : leur dissémination rapide, leur caractère zoonotique et la difficulté à traiter les personnes atteintes.Les trois articles présentés dans cette note montrent 1) les propriétés de survie étonnantes de l'adénovirus dans les eaux souterraines ; 2) la dynamique saisonnière du norovirus également dans les eaux souterraines et 3) le rôle de la toux dans la dissémination du virus de la grippe. [Auteurs]
Resumo:
RESUME L'anévrysme de l'aorte abdominale est une dilatation permanente et localisée de l'aorte abdominale d'un diamètre transverse supérieur à 30 mm. Il s'agit d'une maladie dégénérative et inflammatoire fréquente de l'aorte, présente chez environ 5% des hommes de 65 à 74 ans de la population générale, et chez 10% des hommes hospitalisés pour une revascularisation coronarienne chirurgicale. En effet, bien que la pathogenèse de l'anévrysme de l'aorte abdominale diffère de celle du processus d'athérosclérose, les deux maladies partagent de nombreux facteurs de risque, en particulier l'âge, l'hypertension artérielle et le tabagisme. L'anévrysme de l'aorte abdominale est une maladie silencieuse, et dans 20% des cas, sa première manifestation clinique est la rupture aiguë avec choc hémorragique. La mortalité totale d'une telle complication dépasse 90% et sa mortalité strictement opératoire est d'environ 50%. Ces chiffres contrastent étonnamment avec une mortalité inférieure à 5% en cas de cure chirurgicale élective de l'anévrysme, justifiant un programme de dépistage systématique de cette maladie par ultrasonographie abdominale. Plusieurs études ont actuellement prouvé l'efficience de tels programmes, tant du point de vue de leur impact sur la mortalité que de leur rapport coût-efficacité. La question d'un dépistage systématique de la population générale ou de celui de souspopulations sélectionnées en fonction de leurs facteurs de risque reste toutefois débattue. La prise en charge de l'anévrysme de l'aorte abdominale est en principe conservatrice pour les anévrysmes de faibles diamètres, la mortalité d'une telle approche étant comparable à celle d'une attitude d'emblée chirurgicale. L'indication opératoire est par contre posée pour les anévrysmes d'un diamètre supérieur à 55 mm en raison du risque inacceptable de rupture, la valeur du diamètre transverse de l'aorte représentant le facteur prédictif de rupture le plus fréquemment utilisé en pratique quotidienne. La cure chirurgicale ouverte est le traitement de référence de l'anévrysme de l'aorte abdominale, mais la cure minimale invasive par endoprothèse, disponible depuis le début des années 1990, représente une alternative attrayante. Le choix de l'approche thérapeutique dépend fortement des caractéristiques anatomiques de l'aorte, ainsi que des comorbidités et de la préférence du patient.
Resumo:
L'approche décisionnelle met l'accent sur la manière dont l'individu aborde et négocie les décisions à différents moments de son parcours. Le modèle PIC propose un outil qui permet d'accompagner le processus décisionnel systématiquement. Souvent les conseillers ont tendance à le suivre de manière intuitive. Cependant, un suivi structuré pourrait améliorer l'efficacité de leurs interventions.
Resumo:
Cette thèse de doctorat propose une analyse comparative détaillée du phénomène de l'enchâssement narratif dans deux textes antiques du IIe s. apr. J.-C. : Leucippé et Clitophon d'Achille Tatius, écrit en grec ancien, et les Métamorphoses d'Apulée, en latin. Ces deux oeuvres sont rattachées par la critique moderne à un genre désigné comme le roman antique.Si le corpus est abordé de façon minutieuse, ce travail n'a pas la forme du commentaire philologique traditionnel, mais d'une nouvelle forme de commentaire, inspirée du Narratological Commentary de VOdyssée par Irene de Jong. L'analyse est sous-tendue par divers mouvements de synthèse et de comparaison ; cela est fait en recourant à diverses méthodes provenant de différents domaines de recherche : philologie grecque et latine, rhétorique antique, narratologie moderne et comparaison différentielle, telle que proposée par Ute Heidmann, qui défend une approche des textes non-hiérarchisante, focalisée autant sur les ressemblances que les dissemblances et les différences entre les textes étudiés.A la croisée de ces différents domaines de recherche, la thèse tente d'offrir de nouveaux apports. Sur le plan philologique, cette étude comparative de l'enchâssement dans deux textes antiques porte l'attention sur des voix et des récits qui étaient encore restés « in-ouïs » par la critique ; en ce sens qu'ils n'avaient pas encore été tous étudiés. Appliquant une comparaison non-hiérarchisante et différentielle, cette thèse va à l'encontre de deux opinions communes en philologie classique. Elle nuance l'idée générale d'une séparation étanche entre roman grec et roman latin, ainsi que l'idée reçue selon laquelle le dialogue entre la culture grecque et latine serait unilatéral, allant seulement du grec au latin et non pas aussi vice-versa. En ce qui concerne la critique sur l'enchâssement en philologie classique et plus concrètement dans les travaux sur le roman antique, l'apport de cette thèse peut être résumé par les termes « contextualisant » et « englobant ». Le contexte culturel de la Seconde Sophistique, mouvement fortement marqyé par la performance, l'oralité et la rhétorique, est pris en compte en prenant appui, en particulier, sur les traités d'art oratoire et les exercices de rhétorique. Si l'importance de ces derniers a été récemment reconnue et leur intérêt renouvelé par la critique, un rapprochement explicite avec le phénomène de l'enchâssement n'avait pas encore été effectué. Par ailleurs, l'étude du récit enchâssé dans deux romans antiques est ici, pour la première fois, effectuée dans son intégralité, en vue de mieux comprendre le procédé de l'enchâssement au sein des oeuvres étudiées, mais aussi en tant que phénomène à part entière.Sur le plan narratologique, la prise en considération de tous les récits enchâssés a permis de proposer l'ébauche d'une « grammaire de l'enchâssement narratif », applicable aussi à d'autres textes. Pour ce faire, le dispositif conceptuel proposé, entre autres, par Genette a été étendu et affiné. Les notions de récit et d'histoire ont également été élargies. Considérant l'histoire comme tout contenu comportant des séquences logico-temporelles, la narrativité a été étendue à tout discours portant sur cette histoire, ce qui a permis d'intégrer dans l'étude des rêves, oracles, plans, lamentations aussi bien que des actes comme les menaces, promesses, reproches, et même les énumérations et descriptions.Soulignant le dialogue entre la culture grecque et latine, la comparaison menée dans ce travail peut être qualifiée d'interculturelle et d'interdisciplinaire, en raison de l'intégration dialogique des philologies grecque et latine, de la narratologie et de la rhétorique.
Resumo:
Objectifs: Evaluer l'angioplastie au ballon pour le traitement des sténoses juxta-anastomotiques de survenue précoce après création des fistules d'hémodialyse.Matériels et méthodes: De septembre 2004 à septembre 2005, 9 patients ont été référés dans notre institution pour traitement d'une sténose juxta-anastomotique (0-2 cm post-anastomotiques) diagnostiquée 1 (n = 2) à 3 mois (n = 7) après chirurgie. La sténose était détectée par défaut de développement de la fistule (n = 9), échec de ponction ou de dialyse (n = 7). L'échographie confirmait une réduction de diamètre de plus de 50 % (n = 9). Après approche rétrograde veineuse 6F, l'angioplastie était réalisée avec un ballon de 4 mm (n = 4) ou 5 mm (n = 5) et complétée par angioplastie au cutting ballon de 4 mm en cas de sténose résiduelle. Le succès technique était l'absence de sténose résiduelle < 30 %, le succès clinique la dialyse possible à 3 mois de suivi.Résultats: Le succès technique était obtenu chez 8 patients (1 cas de thrombose suivant l'angioplastie) et le succès clinique chez 6/8 patients. Chez les 2 patients restants, la fistule ne se développait pas malgré l'absence de sténose récidivante.Conclusion: L'angioplastie au ballon devrait être proposée en première intention pour le traitement des sténoses juxta-anastomotiques de survenue précoce après création de fistule d'hémodialyse