373 resultados para Critères de succès
Resumo:
La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.
Resumo:
Analysée par Sigmund Freud, Marie Bonaparte (1882-1962) devint son élève et eu un rôle capital dans le développement de la psychanalyse en France. Elle fut aussi une proche de Gustave Le Bon (1841-1931), passionnée comme lui par les sciences et fréquenta notamment les scientifiques de L'Institut Pasteur. Outre son oeuvre de psychanalyste, elle publia en 1937 un texte sur le cancer de sa chienne Topsy qui sera traduit en allemand par Freud et connaitra un réel succès éditorial. L'analyse de cet ouvrage met à jour non seulement les spécificités de son rapport à l'animal mais aussi celui qu'elle entretient avec la science.
Resumo:
Nous présentons dans cet article l'histoire, les grands principes méthodologiques ainsi que la réception scientifique et médiatique du projet Research domain criteria (RDoC) lancé en 2009 aux États-Unis par le National institute of mental health (NIMH). Le projet RDoC, dévolu à la recherche, s'oppose au Manuel diagnostique et statistique des troubles mentaux (DSM) en mettant l'accent sur les dimensions du fonctionnement normal du cerveau, au croisement des recherches génétiques, des neurosciences cognitives et des sciences comportementales. Ce projet représente un pari sur le futur et son succès est tributaire de l'adhésion des chercheurs américains au nouveau cadre de référence qu'il propose, cadre qui reste encore largement à construire.
Resumo:
Cet article esquisse la situation actuelle des relations entre les sciences sociales et les neurosciences, dans une perspective épistémologique, historique et critique. Il aborde dans un premier temps les conditions d'émergence, le succès et les effets contrastés de la cérébralisation du sujet dans les sciences humaines et sociales, partagées entre neuro-scepticisme et neuro-optimisme. Dans un second temps, les auteurs proposent de déplacer le point de vue de la question classique du déterminisme biologique vers celle de la performativité sociale des sciences du cerveau. Ils analysent notamment la construction expérimentale et parfois problématique des inférences neuro-sociales qui sont au coeur des explications cérébralistes des comportements des sujets sociaux. L'article conclut sur une discussion de l'éventuelle complémentarité entre neurosciences et sciences sociales et humaines.
Resumo:
Most aerial parts of the plants are covered by a hydrophobic coating called cuticle. The cuticle is formed of cutin, a complex mixture of esterified fatty acids that are embedded and associated with waxes. The cuticle often appears as a superposition of layers of different composition: The cuticle proper formed of cutin and a mixture of waxes and underneath, the cuticle layer containing cutin, intracuticular waxes and polysaccharides of the cell wall. In addition to its involvement in plant development by preventing organ fusions, the cuticle acts as a barrier to prevent water loss and protect plants against environmental aggressions such as excessive radiation or pathogens attacks. PEC1/AtABCG32 is an ABC transporter from the PDR family involved in cutin biosynthesis. Characterization of the peci mutant in Arabidopsis thaliana showed that PEC1 plays a significant role in the diffusion barrier formation in leaves and petals. The cuticles of leaves and flowers of peci are permeable and the cuticular layer rather than the cuticular proper was altered in the petals, underlining the importance of this particular layer in the maintenance of the diffusion barrier. Chemical analysis on the flower cutin monomer composition of ped mutant revealed a decrease in hydroxylated cutin monomers, suggesting a function of PEC1 in the incorporation of these monomers in the polymer cutin. However, the exact nature of the substrates of PEC1 remained elusive. PEC1 homologues in barley and rice, respectively HvABCG31/EIBI1 and OsABCG31, are also implicated in cuticle biosynthesis. Interestingly, the rice mutant displays more severe phenotypes such as dwarfism and spreading necrosis conducting to the seedling death. In this work, we further characterized osabcg31 mutant and hairpin-RNAi downregulated OsABCG31 plant lines showing reduced growth and cuticle permeability. Our analysis showed a decrease in hydroxylated cutin monomers and severe disruptions in the cuticle, which explain the permeability. Further insights into the function of the cuticle in rice resistance/susceptibility to Pathogens were obtained after inoculation with Magnaporthe oryzae, the fungus responsible for the rice blast disease. Osabcg31 as well as the transgenic lines downregulating OsABCG31 showed increased resistance to the fungus. However, only later steps of infection are reduced . and no impact is obseived on the germination or penetration stages, suggesting that the cuticle disruption per se is not responsible for the resistance. We further investigated the cause of the resistance by analyzing the expression of defense related gene in osabcg31 prior to infection. We found that osabcg31 constitutively express defense related genes, which may explain the resistance, the dwarfism and the cell death. osabcg31 is thus a tool to study the connection between cuticle, plant development and defense signaling networks in rice. The transport function of PEC1 family members is still unknown. In order to link cutin biosynthesis and transport activity, we combined ped mutation with mutations in cutin synthesis related genes. Here, we show that PEC1 acts independently from GPAT4 and GPAT8 pathway and partially overlaps with GPAT6 biosynthesis pathway that leads to the production of hydroxylated C16 cutin precursor 2-Mono(10,16-dihydroxyhexadecanoylJglycerol (2-MHG). In addition, we noticed that despite a comparable cutin monomer composition, ped mutant leaves cuticle are permeable while that of gpat6 mutant are not. This finding raises the possibility of PEC1 being required for the incorporation of C16 hydroxylated monomers and their structural arrangement rather than their direct transport towards the cuticle. A careful investigation of the cuticle permeability, cutin composition and ultrastructure during leave development in Wt plants and ped mutants revealed a possible different regulation of several pathways of cutin biosynthesis and showed the importance of PEC1 function early during leave cuticle maturation. In order to elucidate the transport activity of PEC1, we successfully expressed PEC1 in Nicotiana benthamiana plant system for direct transport experiments. This system will be used to test the PEC 1-dependent transport of potential substrates such as sn-2-monoacylglycerol loaded with a hydroxylated C16 fatty acid. -- Toutes les parties aériennes des plantes sont recouvertes d'une couche hydrophobe appelée «cuticule». Cette cuticule est composée de cutine, un polymère d'acides gras estérifiés, et de cires. La cuticule apparaît souvent sous forme de couches superposées: une première couche extérieure appelée «cuticle proper» formée de cutine et d'un mélange de cires, et une deuxième couche, la «cuticle layer», formée de cutine associée à des cires intracuticulaires et des polysaccharides pariétaux. La cuticule joue le rôle de barrière prévenant contre la perte d'eau et les agressions environnementales. AtABCG32/PEC1 est un transporteur ABC de la famille des PDR impliqué dans la synthèse de la cutine. L'étude du mutant peci d'Arabidopsis thaliana a révélé une fonction de PEC1 dans la formation de la barrière de diffusion. La cuticule des feuilles et fleurs de peci est perméable. Des altérations de la «cuticle layer» ont été démontrées, soulignant son importance dans le maintien de la barrière. L'analyse de la composition de la cutine de peci a montré une réduction spécifique en monomères hydroxylés, suggérant un rôle de PEC1 dans leur incorporation dans la cuticule. Cependant, la nature exacte des substrats de PEC1 n'a pas été identifiée. PEC1 possède deux homologues chez l'orge et le riz, respectivement HvABCG31 et OsABCG31, et qui sont impliqués dans la biosynthèse de la cuticule. Chez le riz, des phénotypes plus sévères ont été observés tels que nanisme et nécroses conduisant à la mort des jeunes plants. Dans cette étude, nous avons continué la caractérisation de osabcg31 ainsi que des lignées de riz sous exprimant le gène OsABCG31 et présentant une cuticule perméable tout en ayant une meilleure croissance. Notre étude a démontré une réduction des monomères hydroxylés de cutine et une désorganisation de la structure de la cuticule, aggravée dans le mutant osabcg31. Ce résultat explique la perméabilité observée. Des mformations P|us approfondies sur l'implication de la cuticule dans la résistance aux pathogènes ont été obtenues après inoculation du mutant osabcg31 et les lignées sous- exprimant OsABCG31 avec une souche virulente de Magnaporthe Oryzae, le champignon responsable de la pyriculariose du riz. Les différentes lignées testées ont démontré une résistance au pathogène. Cependant, seules les étapes tardives de l'infection sont réduites et aucun impact n'est observé sur la germination des spores ou la pénétration du champignon, suggérant que les modifications de la cuticule ne sont pas directement à l'origine de la résistance. L'analyse de l'expression de gènes impliqués dans la résistance à Magnaporthe.oryzae a mis en évidence l'expression constitutive de ces gènes en l'absence de tout contact avec le pathogène. Ceci explique la résistance, le nanisme et la mort cellulaire observés. Ainsi, osabcg31 représente un outil efficace pour l'étude intégrée des systèmes de régulation de la défense, de développement des plantes et la cuticule. La nature des substrats transportés par PEC1/AtABCG32 reste inconnue. Dans le but d'établir une liaison entre biosynthèse de cutine et transport des précurseurs par PEC1, la mutation peci a été combinée avec des mutants impliqués dans différentes voies de biosynthèse. Cette étude a démontré une fonction indépendante de PEC1 de la voie de biosynthèse impliquant les enzymes GPAT4 et GPAT8, et une fonction partiellement indépendante de la voie impliquant GPAT6 qui mène à la production de précurseurs sn-2- monoacylglycerol chargés en acides gras en C16 (2-MHG). De plus, malgré un profil similaire en monomères de cutine, gpat6 conserve une cuticule imperméable alors que celle de PEC1 est perméable. Ceci suggère que PEC1 est nécessaire à l'incorporation des monomères en C16 et leur arrangement structurel plutôt que simplement à leur transport direct. L'étude approfondie de la perméabilité cuticulaire, de la structure ainsi que de la composition en cutine pendant le développement des feuilles de peci et la plante sauvage a révélé l'existence de différentes régulations des voies de biosynthèses des monomères et a démontré l'importance de PEC1 dans les premières étapes de la mise en place de la cuticule. Pour identifier les substrats transportés, l'expression de PEC1 chez le système hétérologue Nicotiana benthamiana a été conduite avec succès. Ce système sera utilisé pour tester le transport de substrats potentiels tels que le sn-2-monoacylglycerol chargé en acide gras en C16.
Resumo:
La dermatite irritative est décrite comme une réaction réversible, non immunologique caractérisée par des lésions d'aspect très variable, allant de la simple rougeur jusqu'à la formation de bulles voire d'une nécrose, accompagnée de prurit ou d'une sensation de brûlure suite à I' application d'une substance chimique. Le teste de prédiction d'irritation cutanée est traditionnellement depuis les années 1940 le Test de Draize. Ce test consiste en l'application d'une substance chimique sur une peau rasée de lapin pendant 4h et de regarder à 24h si des signes cliniques d'irritations sont présents. Cette méthode critiquable autant d'un point de vue éthique que qualitative reste actuellement le teste le plus utilisé. Depuis le début des années 2000 de nouvelles méthodes in vitro se sont développées tel que le model d'épiderme humain recombiné (RHE). Il s agit d'une multicouche de kératinocyte bien différencié obtenu depuis une culture de don d'ovocyte. Cependant cette méthode en plus d'être très couteuse n'obtient au mieux que 76% de résultat similaire comparé au test in vivo humain. Il existe donc la nécessité de développer une nouvelle méthode in vitro qui simulerait encore mieux la réalité anatomique et physiologique retrouvée in vivo. Notre objectif a été de développer cette nouvelle méthode in vitro. Pour cela nous avons travaillé avec de la peau humaine directement prélevée après une abdominoplastie. Celle ci après préparation avec un dermatome, un couteau dont la lame est réglable pour découper l'épaisseur souhaitée de peau, est montée dans un système de diffusion cellulaire. La couche cornée est alors exposée de manière optimale à 1 ml de la substance chimique testée pendant 4h. L'échantillon de peau est alors fixé dans du formaldéhyde pour permettre la préparation de lames standards d'hématoxyline et éosine. L'irritation est alors investiguée selon des critères histopathologiques de spongioses, de nécroses et de vacuolisations cellulaires. Les résultats de ce.tte première batterie de testes sont plus que prometteurs. En effet, comparé au résultat in vivo, nous obtenons 100% de concordance pour les 4 même substances testes irritantes ou non irritantes, ce qui est supérieur au model d épiderme humain recombiné (76%). De plus le coefficient de variation entre les 3 différentes séries est inférieur à 0.1 ce qui montre une bonne reproductibilité dans un même laboratoire. Dans le futur cette méthode va devoir être testée avec un plus grand nombre de substances chimiques et sa reproductibilité évaluée dans différents laboratoires. Mais cette première evaluation, très encourageante, ouvre des pistes précieuses pour l'avenir des tests irritatifs.
Financement et mode d'organisation des hôpitaux suisses : revue du recueil législatif de 1991 à 2009
Resumo:
Le financement des établissements de soins a connu dans le courant de l'année 2007 d'importants changements législatifs. De l'introduction de la tarification à l'activité sur la base des diagnostic-related groups (DRG) à la mise en concurrence directe des hôpitaux, qu'ils appartiennent au secteur public ou au secteur privé, de l'ingérence de la Confédération dans la planification hospitalière (jusque là domaine réservé des Cantons) à la mise au premier plan des critères de qualité dans l'évaluation des établissements hospitaliers, les exemples ne manquent pas pour illustrer le changement conceptuel auquel nous assistons. L'auteur de ces lignes, privilégiant l'approche historique à l'approche normative, s'est demandé quels étaient les prémices de ce changement législatif et s'est confronté aux différents textes qui ont émaillé les débats de ces vingt dernières années, qu'ils émanent du pouvoir exécutif (messages aux chambres fédérales, ordonnances d'application) ou du pouvoir législatif (textes de loi) afin d'en dégager la cohérence politique. Ce mémoire suit donc une ligne strictement chronologique. Il s'inspire des différents travaux parlementaires. A la lecture de ces textes, il apparaît que, pour les parlementaires, la question du financement des hôpitaux n'est qu'une partie, parfois essentielle, parfois accessoire, selon les époques et l'amplitude du champ d'application du document législatif, du financement des soins par l'assurance-maladie. Les grands principes qui régissent l'assurance-maladie s'appliquent donc nécessairement au financement des hôpitaux. Pour cette raison, il est apparu judicieux à l'auteur de ces lignes de ne pas séparer les deux problèmes et de se plonger dans un premier temps dans les débats qui ont eu cours lors de l'adoption de la nouvelle loi sur l'assurance-maladie (LAMaI) en 1994. [Auteur, p. 5]
Resumo:
L'objectif de cette étude est d'évaluer l'adéquation des messages publicitaires sur les médicaments parus en 2007 dans quatre journaux destinés aux professionnels de la santé ("Praxis", "Forum médical suisse", "Bulletin des médecins suisses" et "Revue médicale suisse") avec les évidences basées sur les preuves de l'EBM et des normes législatives ainsi que de vérifier s'ils sont supportés par les références bibliographiques mentionnées. Méthode: les messages publicitaires des cinq grands groupes thérapeutiques (à savoir: anti-ostéoporotiques/arthrosiques, antidépresseurs, antihypertenseurs, AINS et hypolipémiants) sont évalués sur [ces] trois critères. [Auteure, p. 5]
Resumo:
This thesis develops a comprehensive and a flexible statistical framework for the analysis and detection of space, time and space-time clusters of environmental point data. The developed clustering methods were applied in both simulated datasets and real-world environmental phenomena; however, only the cases of forest fires in Canton of Ticino (Switzerland) and in Portugal are expounded in this document. Normally, environmental phenomena can be modelled as stochastic point processes where each event, e.g. the forest fire ignition point, is characterised by its spatial location and occurrence in time. Additionally, information such as burned area, ignition causes, landuse, topographic, climatic and meteorological features, etc., can also be used to characterise the studied phenomenon. Thereby, the space-time pattern characterisa- tion represents a powerful tool to understand the distribution and behaviour of the events and their correlation with underlying processes, for instance, socio-economic, environmental and meteorological factors. Consequently, we propose a methodology based on the adaptation and application of statistical and fractal point process measures for both global (e.g. the Morisita Index, the Box-counting fractal method, the multifractal formalism and the Ripley's K-function) and local (e.g. Scan Statistics) analysis. Many measures describing the space-time distribution of environmental phenomena have been proposed in a wide variety of disciplines; nevertheless, most of these measures are of global character and do not consider complex spatial constraints, high variability and multivariate nature of the events. Therefore, we proposed an statistical framework that takes into account the complexities of the geographical space, where phenomena take place, by introducing the Validity Domain concept and carrying out clustering analyses in data with different constrained geographical spaces, hence, assessing the relative degree of clustering of the real distribution. Moreover, exclusively to the forest fire case, this research proposes two new methodologies to defining and mapping both the Wildland-Urban Interface (WUI) described as the interaction zone between burnable vegetation and anthropogenic infrastructures, and the prediction of fire ignition susceptibility. In this regard, the main objective of this Thesis was to carry out a basic statistical/- geospatial research with a strong application part to analyse and to describe complex phenomena as well as to overcome unsolved methodological problems in the characterisation of space-time patterns, in particular, the forest fire occurrences. Thus, this Thesis provides a response to the increasing demand for both environmental monitoring and management tools for the assessment of natural and anthropogenic hazards and risks, sustainable development, retrospective success analysis, etc. The major contributions of this work were presented at national and international conferences and published in 5 scientific journals. National and international collaborations were also established and successfully accomplished. -- Cette thèse développe une méthodologie statistique complète et flexible pour l'analyse et la détection des structures spatiales, temporelles et spatio-temporelles de données environnementales représentées comme de semis de points. Les méthodes ici développées ont été appliquées aux jeux de données simulées autant qu'A des phénomènes environnementaux réels; nonobstant, seulement le cas des feux forestiers dans le Canton du Tessin (la Suisse) et celui de Portugal sont expliqués dans ce document. Normalement, les phénomènes environnementaux peuvent être modélisés comme des processus ponctuels stochastiques ou chaque événement, par ex. les point d'ignition des feux forestiers, est déterminé par son emplacement spatial et son occurrence dans le temps. De plus, des informations tels que la surface bru^lée, les causes d'ignition, l'utilisation du sol, les caractéristiques topographiques, climatiques et météorologiques, etc., peuvent aussi être utilisées pour caractériser le phénomène étudié. Par conséquent, la définition de la structure spatio-temporelle représente un outil puissant pour compren- dre la distribution du phénomène et sa corrélation avec des processus sous-jacents tels que les facteurs socio-économiques, environnementaux et météorologiques. De ce fait, nous proposons une méthodologie basée sur l'adaptation et l'application de mesures statistiques et fractales des processus ponctuels d'analyse global (par ex. l'indice de Morisita, la dimension fractale par comptage de boîtes, le formalisme multifractal et la fonction K de Ripley) et local (par ex. la statistique de scan). Des nombreuses mesures décrivant les structures spatio-temporelles de phénomènes environnementaux peuvent être trouvées dans la littérature. Néanmoins, la plupart de ces mesures sont de caractère global et ne considèrent pas de contraintes spatiales com- plexes, ainsi que la haute variabilité et la nature multivariée des événements. A cet effet, la méthodologie ici proposée prend en compte les complexités de l'espace géographique ou le phénomène a lieu, à travers de l'introduction du concept de Domaine de Validité et l'application des mesures d'analyse spatiale dans des données en présentant différentes contraintes géographiques. Cela permet l'évaluation du degré relatif d'agrégation spatiale/temporelle des structures du phénomène observé. En plus, exclusif au cas de feux forestiers, cette recherche propose aussi deux nouvelles méthodologies pour la définition et la cartographie des zones périurbaines, décrites comme des espaces anthropogéniques à proximité de la végétation sauvage ou de la forêt, et de la prédiction de la susceptibilité à l'ignition de feu. A cet égard, l'objectif principal de cette Thèse a été d'effectuer une recherche statistique/géospatiale avec une forte application dans des cas réels, pour analyser et décrire des phénomènes environnementaux complexes aussi bien que surmonter des problèmes méthodologiques non résolus relatifs à la caractérisation des structures spatio-temporelles, particulièrement, celles des occurrences de feux forestières. Ainsi, cette Thèse fournit une réponse à la demande croissante de la gestion et du monitoring environnemental pour le déploiement d'outils d'évaluation des risques et des dangers naturels et anthro- pogéniques. Les majeures contributions de ce travail ont été présentées aux conférences nationales et internationales, et ont été aussi publiées dans 5 revues internationales avec comité de lecture. Des collaborations nationales et internationales ont été aussi établies et accomplies avec succès.
Resumo:
Introduction Selon les recommandations internationales, l'angioplastie primaire est le traitement de choix de l'infarctus transmural aigu du myocarde (STEMI). L'évidence de ce constat reste peu claire en ce qui concerne certaines sous-‐populations. C'est le cas, par exemple, des personnes d'âge avancé. La problématique du traitement de l'infarctus du myocarde chez le sujet âgé semble essentielle à une époque de vieillissement démographique mondial, et ce car le patient type présentant un STEMI évolue parallèlement à ce phénomène. L'objectif de la présente étude était d'observer la survie à long terme des octogénaires résidant en Suisse après traitement d'un infarctus de type STEMI selon les recommandations internationales. Méthodologie Inclusion rétrospective de tous les patients âgés de ≥ 80 ans victimes d'un STEMI entre janvier 2008 et novembre 2011. Informations démographiques et pathologiques récoltées à partir des archives et dossiers informatisés du Centre hospitalier universitaire vaudois (CHUV). Critère d'évaluation principal : mortalité à 3 ans, toutes causes confondues. Données de mortalité obtenues par le dossier informatisé (si décès intra-‐hospitalier) ou par contact avec les autorités administratives de la Suisse romande. Critères d'évaluation secondaire : réussite de l'intervention et événements intra-‐hospitaliers (informations obtenues grâce au dossier informatisé). Ce\e recherche clinique a reçu l'aval de la Commission d'éthique cantonale vaudoise. Résultats 108 patients correspondaient à nos critères dans la période sélectionnée ; 5 ont été exclus car non domiciliés en Suisse. Collectif final (103 patients) âgé en moyenne de 84.3 ans. Une majorité de femmes (51.4%) et une plus faible proportion de tabagiques étaient les divergences par rapport à la population STEMI générale. À 3 ans, une mortalité supérieure à 32% fut enregistrée dont plus du tiers des décès survenant dans le premier mois suivant l'infarctus. Discussion et conclusion La mortalité objectivée chez l'octogénaire traité par angioplastie pour un STEMI est particulièrement élevée, inattendue et semble plus importante que celle d'un octogénaire non coronarien. Ce constat devra être confirmé par d'autres auteurs car les études concernant cette problématique sont encore rares.
Resumo:
Introduction: L'hyperglycémie est un phénomène connu chez les patients gravement agressés, et surtout chez ceux nécessitant un séjour aux soins intensifs, alors que l'hypoglycémie est une complication menaçante. Des valeurs de glycémies anormales sont associées avec une mortalité et morbidité augmentées chez les patients de soins intensifs, y compris les grands brûlés. Des glycémies jusqu'à 15mmol/l ont longtemps été tolérées sans traitement. En 2001, une grande étude randomisée a complètement changé les pratiques du contrôle glycémique aux soins intensifs. Van den Berghe et al. ont montré qu'un contrôle glycémique strict atteint au moyen d'une « intensive insulin therapy » (HT) visant une glycémie 4.1-6.0 mmol/l réduisait la mortalité chez les patients chirurgicaux traités plus que 5. Par la suite plusieurs études contradictoires ont questionné la validité externe de l'étude de Louvain: avec la publication de l'étude « NICE-SUGAR » en 2009 enrôlant plus de 6000 patients cette hypothèse a été réfutée, aboutissant à un contrôle modéré de la glycémie (6-8 mmol/l). Bien que plusieurs études sur le contrôle glycémique aient également inclus quelques patients brûlés, à ce jour il n'y a pas de recommandation ferme concernant la gestion de la glycémie chez les patients brûlés adultes. Le but de l'étude était d'évaluer la sécurité du protocole de contrôle de la glycémie qui avait été introduit aux soins intensifs adultes chez des patients grand brûlés nécessitant un traitement prolongé aux soins intensifs. Méthodes : 11 s'agit d'une étude rétrospective uni-centrique sur des patients brûlés admis aux soins intensifs du CHUV à Lausanne entre de 2000 à juin 2014. Critères d'inclusions : Age >16 ans, brûlures nécessitant un traitement aux soins intensifs >10 jours. Critères d'exclusion : Décès ou transfert hors des soins intensifs <10 jours. Les investigations ont été limitées aux 21 premiers jours de l'hospitalisation aux soins intensifs. Variables : Variables démographiques, surface brûlée (TBSA), scores de sévérité, infections, durée d'intubation, durée du séjour aux soins intensifs, mortalité. Variables métaboliques : Administration totale de glucides, énergie et insuline/2411, valeurs de glycémie artérielle et CRP. Quatre périodes (P) ont été analysées, correspondant à l'évolution du protocole de contrôle de glycémie du service. P1: Avant son introduction (2000-2001) ; P2: Contrôle glycémie serré géré par les médecins (2002-2006) ; P3: Contrôle glycémie serré géré par lés infirmières (2007-2010); P4: Contrôle modéré géré par les infirmières (2011-2014). Les limites glycémiques ont été définis de manière suivante: Hypoglycémie extrême <2.3mmol/l ; hypoglycémie modéré <4.0mmol/l ; hyperglycémie modérée 8.1-10.0mmol/l ; hyperglycémie sévère >10.0mmol/l. Toutes les valeurs de glycémies artérielles ont été extraites depuis le système informatisé des soins intensifs (MetaVision ®). Statistiques: Wilcoxon rank test, Two- way Anova, Tuckey Kramer test, area under the curve (AUC), Spearman's test et odds ratio. STATA 12 1 ' StataCorp, College station, TX, USA and JPM V 10.1 (SAS Institute, Cary, NC, USA). Résultats: Sur les 508 patients brûlés admis durant la période étudiée, 229 patients correspondaient aux critères d'inclusion, âgés de 45±20ans (X±SD) et brûlés sur 32±20% de la surface corporelle. Les scores de sévérité sont restés stables. Au total 28'690 glycémies artérielles ont été analysées. La valeur médiane de glycémie est restée stable avec une diminution progressive de la variabilité intra-patient. Après initiation du protocole, les valeurs normoglycémiques ont augmenté de 34.7% à 65.9% avec diminution des événements hypoglycémiques (pas d'hypoglycémie extrême en P4). Le nombre d'hyperglycémies sévères est resté stable durant les périodes 1 à 3, avec une diminution en P4 (9.25%) : les doses d'insuline ont aussi diminué. L'interprétation des résultats de P4 a été compliquée par une diminution concomitante des apports d'énergie et de glucose (p<0.0001). Conclusions: L'application du protocole destiné aux patients de soins intensifs non brûlés a amélioré le contrôle glycémique chez les patients adultes brûlés, aboutissant à une diminution significative de la variabilité des glycémies. Un contrôle modéré de la glycémie peut être appliqué en sécurité, considérant le nombre très faible d'hypoglycémies. La gestion du protocole par les infirmières s'avère plus sûre qu'un contrôle par les médecins, avec diminution des hypoglycémies. Cependant le nombre d'hyperglycémies reste trop élevé. L'hyperglycémie' n'est pas contrôlable uniquement par l'administration d'insuline, mais nécessite également une approche multifactorielle comprenant une optimisation de la nutrition adaptée aux besoins énergétiques élevés des grands brûlés. Plus d'études seront nécessaire pour mieux comprendre la complexité du mécanisme de l'hyperglycémie chez le patient adulte brûlé et pour en améliorer le contrôle glycémique.
Resumo:
Introduction : Le bloc transverse de l'abdomen (bloc TAP, Transversus Abdominis Plane) échoguidé consiste en l'injection d'anesthésique local dans la paroi abdominale entre les muscles oblique interne et transverse de l'abdomen sous contrôle échographique. Ceci permet de bloquer l'innervation sensitive de la paroi antérolatérale de l'abdomen afin de soulager la douleur après des interventions chirurgicales. Auparavant, cette procédure reposait sur une technique dite « à l'aveugle » qui utilisait des repères anatomiques de surface. Depuis quelques années, cette technique est effectuée sous guidage échographique ; ainsi, il est possible de visualiser les structures anatomiques, l'aiguille et l'anesthésique local permettant ainsi une injection précise de l'anesthésique local à l'endroit désiré. Les précédentes méta- analyses sur le bloc TAP n'ont inclus qu'un nombre limité d'articles et n'ont pas examiné l'effet analgésique spécifique de la technique échoguidée. L'objectif de cette méta-analyse est donc de définir l'efficacité analgésique propre du bloc TAP échoguidé après des interventions abdominales chez une population adulte. Méthode : Cette méta-analyse a été effectuée selon les recommandations PRISMA. Une recherche a été effectuée dans les bases de donnée MEDLINE, Cochrane Central Register of Controlled Clinical Trials, Excerpta Medica database (EMBASE) et Cumulative Index to Nursing and Allied Health Literature (CINAHL). Le critère de jugement principal est la consommation intraveineuse de morphine cumulée à 6 h postopératoires, analysée selon le type de chirurgie (laparotomie, laparoscopie, césarienne), la technique anesthésique (anesthésie générale, anesthésie spinale avec/ou sans morphine intrathécale), le moment de l'injection (début ou fin de l'intervention), et la présence ou non d'une analgésie multimodale. Les critères de jugement secondaires sont, entre autres, les scores de douleur au repos et à l'effort à 6 h postopératoires (échelle analogique de 0 à 100), la présence ou non de nausées et vomissements postopératoires, la présence ou non de prurit, et le taux de complications de la technique. Résultats : Trente et une études randomisées contrôlées, incluant un total de 1611 adultes ont été incluses. Indépendamment du type de chirurgie, le bloc TAP échoguidé réduit la consommation de morphine à 6 h postopératoires (différence moyenne : 6 mg ; 95%IC : -7, -4 mg ; I =94% ; p<0.00001), sauf si les patients sont au bénéfice d'une anesthésie spinale avec morphine intrathécale. Le degré de réduction de consommation de morphine n'est pas influencé par le moment de l'injection (I2=0% ; p=0.72) ou la présence d'une analgésie multimodale (I2=73% ; p=0.05). Les scores de douleurs au repos et à l'effort à 6h postopératoire sont également réduits (différence moyenne au repos : -10 ; 95%IC : -15, -5 ; I =92% ; p=0.0002; différence moyenne en mouvement : -9 ; 95%IC : -14, -5 ; I2=58% ; p<0. 00001). Aucune différence n'a été retrouvée au niveau des nausées et vomissements postopératoires et du prurit. Deux complications mineures ont été identifiées (1 hématome, 1 réaction anaphylactoïde sur 1028 patients). Conclusions : Le bloc TAP échoguidé procure une analgésie postopératoire mineure et ne présente aucun bénéfice chez les patients ayant reçu de la morphine intrathécale. L'effet analgésique mineure est indépendant du moment de l'injection ou de la présence ou non d'une analgésie multimodale.
Resumo:
Dispersal, i.e. individual movement between breeding sites, is a key process for metapopulation dynamics and gene flow. Its success can be modulated by phenotypic differences between dispersing and philopatric individuals, or dispersal syndromes. However, the environmental (external) and physiological (internal) constraints underlying such syndromes remain poorly known. This project aimed at clarifying the impact of environmental variation and oxidative constraints, linked to the reactive oxygen species produced during respiration, on phenotypes associated to dispersal in a passerine bird, the collared flycatcher Ficedula albicollis. Energetic demand was experimentally (i) increased through a wing load manipulation or (ii) relieved through food supplementation. The oxidative balance of breeding flycatchers was influenced by complex interactions of dispersal status and extrinsic factors (breeding density, year, experimental treatments). Interestingly, antioxidant capacity was influenced both by permanent individual differences and by food availability, whereas measures of pro-oxidants were highly variables within individuals. Environmental variation and energetic constraints also modulated the differences in reproduction associated with dispersal: dispersing and philopatric birds differ in their management of the oxidative balance when it is competing with reproductive investment. This thesis highlights that reaction norms, rather than fixed differences, often shape traits associated to dispersal. ----- Le déplacement d'un individu entre sites de reproduction, ou dispersion, est un processus clé pour la dynamique des métapopulations et les flux de gènes. Son succès peut être modulé par des différences de phénotype, ou syndromes de dispersion. Cependant, les contraintes environnementales et physiologiques qui sous-tendent ces syndromes restent mal connues. Ce projet vise à clarifier l'impact des variations environnementales et des contraintes oxydatives (liées aux espèces réactives de l'oxygène produites durant la respiration) sur les phénotypes associés à la dispersion chez un passereau, le gobemouche à collier Ficedula albicollis. La demande énergétique a été expérimentalement (i) augmentée en manipulant la surface alaire ou (ii) diminuée par une supplémentation en nourriture. L'équilibre oxydo-réducteur des gobemouches en reproduction est influencé par des interactions complexes entre statut de dispersion et facteurs extrinsèques (densité de couples reproducteurs, année, traitement expérimental). La capacité antioxydante dépend principalement de différences permanentes entre individus, alors que les pro-oxydants présentent de grandes variations intra-individu. Environnement et contraintes énergétiques modulent aussi les différences de reproduction liées à la dispersion : les oiseaux dispersants et philopatriques diffèrent dans leur gestion de l'équilibre oxydo-réducteur lorsqu'il est en compétition avec l'investissement reproducteur. Ce travail souligne que les traits associés à la dispersion sont souvent déterminés par des normes de réaction à l'environnement et non des différences fixées entre individus.