103 resultados para Worst Case Execution Time (WCET)
Resumo:
Purpose: To evaluate the reproducibility of Cirrus-SD OCT measurements and to compare central macular thickness (CMT) measurements between TD-Stratus and SD-Cirrus OCT in patients with active exudative AMD. Methods: Consecutive case series of patients with active exudative AMD seen in the Medical Retina Department. Patients underwent 1 scan with Stratus (macular thickness map protocol) and 5 scans with Cirrus (Macular Cube protocol) at the same visit by the same experienced examiner. To be included, patients best-corrected visual acuity (BCVA) had to be >20/200 while all scans had to be of sufficient quality, well-centered and at least one Cirrus scan with CMT >300 microns. The repeatability of the SD Cirrus was estimated by using all 5 CMT measurements and the mean of the Cirrus measurements was compared with the CMT obtained by TD Stratus. Results: Cirrus OCT demonstrated high intraobserver repeatability at the central foveal region (ICC 96%). The mean of the CMT measurements was 321microns for Stratus and 387 microns for Cirrus. The average difference was 65m (SD=30). The coefficient of concordance between Stratus and Cirrus CMT measurements was rho=0,749 with a high precision and a moderate accuracy. The equation of the line of regression between Stratus and meanCirrus is given by the following: M_stratus = 0,848 x m_cirrus - 4,496 (1).Conclusions: The Cirrus macular cube protocol allows reproducible CMT measurements in patients with active exudative AMD. In cases of upgrading from TD to SD use and vice versa, there is the possibility to predict the measurements by using the equation (1). These real life data and conclusions can help in improving our clinical management of patients with neovascular AMD.
Resumo:
Several lines of research have documented early-latency non-linear response interactions between audition and touch in humans and non-human primates. That these effects have been obtained under anesthesia, passive stimulation, as well as speeded reaction time tasks would suggest that some multisensory effects are not directly influencing behavioral outcome. We investigated whether the initial non-linear neural response interactions have a direct bearing on the speed of reaction times. Electrical neuroimaging analyses were applied to event-related potentials in response to auditory, somatosensory, or simultaneous auditory-somatosensory multisensory stimulation that were in turn averaged according to trials leading to fast and slow reaction times (using a median split of individual subject data for each experimental condition). Responses to multisensory stimulus pairs were contrasted with each unisensory response as well as summed responses from the constituent unisensory conditions. Behavioral analyses indicated that neural response interactions were only implicated in the case of trials producing fast reaction times, as evidenced by facilitation in excess of probability summation. In agreement, supra-additive non-linear neural response interactions between multisensory and the sum of the constituent unisensory stimuli were evident over the 40-84 ms post-stimulus period only when reaction times were fast, whereas subsequent effects (86-128 ms) were observed independently of reaction time speed. Distributed source estimations further revealed that these earlier effects followed from supra-additive modulation of activity within posterior superior temporal cortices. These results indicate the behavioral relevance of early multisensory phenomena.
Resumo:
Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.
Resumo:
Abstract The main objective of this work is to show how the choice of the temporal dimension and of the spatial structure of the population influences an artificial evolutionary process. In the field of Artificial Evolution we can observe a common trend in synchronously evolv¬ing panmictic populations, i.e., populations in which any individual can be recombined with any other individual. Already in the '90s, the works of Spiessens and Manderick, Sarma and De Jong, and Gorges-Schleuter have pointed out that, if a population is struc¬tured according to a mono- or bi-dimensional regular lattice, the evolutionary process shows a different dynamic with respect to the panmictic case. In particular, Sarma and De Jong have studied the selection pressure (i.e., the diffusion of a best individual when the only selection operator is active) induced by a regular bi-dimensional structure of the population, proposing a logistic modeling of the selection pressure curves. This model supposes that the diffusion of a best individual in a population follows an exponential law. We show that such a model is inadequate to describe the process, since the growth speed must be quadratic or sub-quadratic in the case of a bi-dimensional regular lattice. New linear and sub-quadratic models are proposed for modeling the selection pressure curves in, respectively, mono- and bi-dimensional regu¬lar structures. These models are extended to describe the process when asynchronous evolutions are employed. Different dynamics of the populations imply different search strategies of the resulting algorithm, when the evolutionary process is used to solve optimisation problems. A benchmark of both discrete and continuous test problems is used to study the search characteristics of the different topologies and updates of the populations. In the last decade, the pioneering studies of Watts and Strogatz have shown that most real networks, both in the biological and sociological worlds as well as in man-made structures, have mathematical properties that set them apart from regular and random structures. In particular, they introduced the concepts of small-world graphs, and they showed that this new family of structures has interesting computing capabilities. Populations structured according to these new topologies are proposed, and their evolutionary dynamics are studied and modeled. We also propose asynchronous evolutions for these structures, and the resulting evolutionary behaviors are investigated. Many man-made networks have grown, and are still growing incrementally, and explanations have been proposed for their actual shape, such as Albert and Barabasi's preferential attachment growth rule. However, many actual networks seem to have undergone some kind of Darwinian variation and selection. Thus, how these networks might have come to be selected is an interesting yet unanswered question. In the last part of this work, we show how a simple evolutionary algorithm can enable the emrgence o these kinds of structures for two prototypical problems of the automata networks world, the majority classification and the synchronisation problems. Synopsis L'objectif principal de ce travail est de montrer l'influence du choix de la dimension temporelle et de la structure spatiale d'une population sur un processus évolutionnaire artificiel. Dans le domaine de l'Evolution Artificielle on peut observer une tendence à évoluer d'une façon synchrone des populations panmictiques, où chaque individu peut être récombiné avec tout autre individu dans la population. Déjà dans les année '90, Spiessens et Manderick, Sarma et De Jong, et Gorges-Schleuter ont observé que, si une population possède une structure régulière mono- ou bi-dimensionnelle, le processus évolutionnaire montre une dynamique différente de celle d'une population panmictique. En particulier, Sarma et De Jong ont étudié la pression de sélection (c-à-d la diffusion d'un individu optimal quand seul l'opérateur de sélection est actif) induite par une structure régulière bi-dimensionnelle de la population, proposant une modélisation logistique des courbes de pression de sélection. Ce modèle suppose que la diffusion d'un individu optimal suit une loi exponentielle. On montre que ce modèle est inadéquat pour décrire ce phénomène, étant donné que la vitesse de croissance doit obéir à une loi quadratique ou sous-quadratique dans le cas d'une structure régulière bi-dimensionnelle. De nouveaux modèles linéaires et sous-quadratique sont proposés pour des structures mono- et bi-dimensionnelles. Ces modèles sont étendus pour décrire des processus évolutionnaires asynchrones. Différentes dynamiques de la population impliquent strategies différentes de recherche de l'algorithme résultant lorsque le processus évolutionnaire est utilisé pour résoudre des problèmes d'optimisation. Un ensemble de problèmes discrets et continus est utilisé pour étudier les charactéristiques de recherche des différentes topologies et mises à jour des populations. Ces dernières années, les études de Watts et Strogatz ont montré que beaucoup de réseaux, aussi bien dans les mondes biologiques et sociologiques que dans les structures produites par l'homme, ont des propriétés mathématiques qui les séparent à la fois des structures régulières et des structures aléatoires. En particulier, ils ont introduit la notion de graphe sm,all-world et ont montré que cette nouvelle famille de structures possède des intéressantes propriétés dynamiques. Des populations ayant ces nouvelles topologies sont proposés, et leurs dynamiques évolutionnaires sont étudiées et modélisées. Pour des populations ayant ces structures, des méthodes d'évolution asynchrone sont proposées, et la dynamique résultante est étudiée. Beaucoup de réseaux produits par l'homme se sont formés d'une façon incrémentale, et des explications pour leur forme actuelle ont été proposées, comme le preferential attachment de Albert et Barabàsi. Toutefois, beaucoup de réseaux existants doivent être le produit d'un processus de variation et sélection darwiniennes. Ainsi, la façon dont ces structures ont pu être sélectionnées est une question intéressante restée sans réponse. Dans la dernière partie de ce travail, on montre comment un simple processus évolutif artificiel permet à ce type de topologies d'émerger dans le cas de deux problèmes prototypiques des réseaux d'automates, les tâches de densité et de synchronisation.
Resumo:
Burn injuries are very frequent, most being trifle cases. Nevertheless every year about 200 patients need to be treated in one of the two specialised Swiss burns centres. Admission criteria are burns > 15% body surface or burns to critical areas (face neck, hands, genitalia, joints) and electrical injuries. The paper reviews the physiophathology of the burn wound which differs depending on the thermal or electrical aetiology. The airway may be threatened due to true inhalation, but also to burns to the face or neck. In major burns >20% body surface in adults, or > 10% in children, fluid resuscitation will be required; oral hydration is generally sufficient by smaller burns. Surgical treatment of 2nd and 3rd degree burns starts within the first 24 days after injury. While complex treatment is generally available in peace time, a major accident such as a disco-fire that can generate hundreds casualties in a few minutes, can threaten our system and force the adoption of triage rules, and simplified treatments. Attitudes to adopt in such conditions are discussed.
Resumo:
Colorectal cancer (CRC) is the second leading cause of cancer-related death in developed countries. Early detection of CRC leads to decreased CRC mortality. A blood-based CRC screening test is highly desirable due to limited invasiveness and high acceptance rate among patients compared to currently used fecal occult blood testing and colonoscopy. Here we describe the discovery and validation of a 29-gene panel in peripheral blood mononuclear cells (PBMC) for the detection of CRC and adenomatous polyps (AP). Blood samples were prospectively collected from a multicenter, case-control clinical study. First, we profiled 93 samples with 667 candidate and 3 reference genes by high throughput real-time PCR (OpenArray system). After analysis, 160 genes were retained and tested again on 51 additional samples. Low expressed and unstable genes were discarded resulting in a final dataset of 144 samples profiled with 140 genes. To define which genes, alone or in combinations had the highest potential to discriminate AP and/or CRC from controls, data were analyzed by a combination of univariate and multivariate methods. A list of 29 potentially discriminant genes was compiled and evaluated for its predictive accuracy by penalized logistic regression and bootstrap. This method discriminated AP >1cm and CRC from controls with a sensitivity of 59% and 75%, respectively, with 91% specificity. The behavior of the 29-gene panel was validated with a LightCycler 480 real-time PCR platform, commonly adopted by clinical laboratories. In this work we identified a 29-gene panel expressed in PBMC that can be used for developing a novel minimally-invasive test for accurate detection of AP and CRC using a standard real-time PCR platform.
Resumo:
BACKGROUND: In most of the emergency departments (ED) in developed countries, a subset of patients visits the ED frequently. Despite their small numbers, these patients are the source of a disproportionally high number of all ED visits, and use a significant proportion of healthcare resources. They place a heavy economic burden on hospital and healthcare systems budgets overall. Several interventions have been carried out to improve the management of these ED frequent users. Case management has been shown in some North American studies to reduce ED utilization and costs. In these studies, cost analyses have been carried out from the hospital perspective without examining the costs induced by healthcare consumed in the community. However, case management might reduce ED visits and costs from the hospital's perspective, but induce substitution effects, and increase health service utilization outside the hospital. This study examined if an interdisciplinary case-management intervention-compared to standard ED care -reduced costs generated by frequent ED users not only from the hospital perspective, but also from the healthcare system perspective-that is, from a broader perspective taking into account the costs of healthcare services used outside the hospital. METHODS: In this randomized controlled trial, 250 adult frequent emergency department users (5 or more visits during the previous 12 months) who visited the ED of the University Hospital of Lausanne, Switzerland, between May 2012 and July 2013 were allocated to one of two groups: case management intervention (CM) or standard ED care (SC), and followed up for 12 months. Depending on the perspective of the analysis, costs were evaluated differently. For the analysis from the hospital's perspective, the true value of resources used to provide services was used as a cost estimate. These data were obtained from the hospital's analytical accounting system. For the analysis from the health-care system perspective, all health-care services consumed by users and charged were used as an estimate of costs. These data were obtained from health insurance providers for a subsample of participants. To allow comparisons in a same time period, individual monthly average costs were calculated. Multivariate linear models including a fixed effect "group" were run using socio-demographic characteristics and health-related variables as controlling variables (age, gender, educational level, citizenship, marital status, somatic and mental health problems, and risk behaviors).
Resumo:
BACKGROUND: Frequent emergency department users represent a small number of patients but account for a large number of emergency department visits. They should be a focus because they are often vulnerable patients with many risk factors affecting their quality of life (QoL). Case management interventions have resulted in a significant decrease in emergency department visits, but association with QoL has not been assessed. One aim of our study was to examine to what extent an interdisciplinary case management intervention, compared to standard emergency care, improved frequent emergency department users' QoL. METHODS: Data are part of a randomized, controlled trial designed to improve frequent emergency department users' QoL and use of health-care resources at the Lausanne University Hospital, Switzerland. In total, 250 frequent emergency department users (≥5 attendances during the previous 12 months; ≥ 18 years of age) were interviewed between May 2012 and July 2013. Following an assessment focused on social characteristics; social, mental, and somatic determinants of health; risk behaviors; health care use; and QoL, participants were randomly assigned to the control or the intervention group (n=125 in each group). The final sample included 194 participants (20 deaths, 36 dropouts, n=96 in the intervention group, n=99 in the control group). Participants in the intervention group received a case management intervention by an interdisciplinary, mobile team in addition to standard emergency care. The case management intervention involved four nurses and a physician who provided counseling and assistance concerning social determinants of health, substance-use disorders, and access to the health-care system. The participants' QoL was evaluated by a study nurse using the WHOQOL-BREF five times during the study (at baseline, and at 2, 5.5, 9, and 12 months). Four of the six WHOQOL dimensions of QoL were retained here: physical health, psychological health, social relationship, and environment, with scores ranging from 0 (low QoL) to 100 (high QoL). A linear, mixed-effects model with participants as a random effect was run to analyze the change in QoL over time. The effects of time, participants' group, and the interaction between time and group were tested. These effects were controlled for sociodemographic characteristics and health-related variables (i.e., age, gender, education, citizenship, marital status, type of financial resources, proficiency in French, somatic and mental health problems, and behaviors at risk).
Resumo:
Les traités scientifiques ne font que depuis peu d'années l'objet d'études en histoire des sciences. Pourtant, ces traités ont énormément à apporter car ils renseignent sur la manière de raisonner des auteurs, ainsi que sur le développement d'une discipline. Dans ce travail de doctorat, différents traités des maladies du système nerveux ont été dépouillés, notamment le traité de Sémiologie des affections du système nerveux (1914) de Jules Dejerine (1849-1917). Ce traité a été analysé de trois manières différentes. Il a tout d'abord été comparé à une édition précédente publiée sous forme de chapitre (1901), révélant un large remodelage du contenu du traité, suggérant une évolution rapide de la discipline neurologique en l'espace de quelques années. Deuxièmement, l'analyse de la Sémiologie a permis de recréer un réseau de professionnels avec qui Jules Dejerine était en contact et, en parcourant les livres publiés par ces auteurs, il a été possible de décrire de quelle manière ces auteurs se citent mutuellement. Finalement, ces livres contiennent de nombreuses illustrations, qui sont associées à la notion de « preuve » : les auteurs utilisent des images sous forme de dessins, de photographies ou de schémas qui illustrent des patients ou des pièces anatomiques pour « montrer » la maladie ou la lésion. Chaque illustration a un rôle à jouer pour décrire la lésion, montrer la progression de la maladie et elle aide le médecin à poser le diagnostic. Grâce à ces trois axes de recherche, un traité devient un outil de travail dynamique, qui évolue au fil des rééditions, influencé par les critiques et commentaires retrouvés dans d'autres traités et articles, et par les progrès accomplis dans la discipline traitée. Des, passages et certaines images de l'ouvrage circulent également de traité en traité et véhiculent l'autorité de l'auteur de ces passages et images qui en viennent à représenter la maladie. Ce transfert d'images joue également un rôle dans la standardisation du diagnostic et dans l'unification de la neurologie à travers le monde occidental au début du XXe siècle, une période charnière pour l'histoire de la médecine. -- Au début du XXe siècle, la neurologie est une jeune spécialité médicale qui se développe rapidement. Les différents médecins publient des traités, communiquent entre eux et échangent leurs données. Un traité scientifique est un outil de travail dynamique qui évolue avec les rééditions et le développement d'une discipline. Ces ouvrages recèlent toutes sortes d'informations et leur analyse ne fait que depuis peu de temps l'objet d'études en histoire des sciences. Ces traités regorgent notamment d'illustrations qui sont associées à la notion de « preuve » : les auteurs utilisent des images sous forme de dessins, de photographies ou de schémas qui représentent des patients ou des pièces anatomiques afin de « montrer » la maladie ou la lésion. Chaque illustration a un rôle à jouer pour décrire la pathologie, montrer la progression de la maladie et elle aide le médecin à poser le diagnostic. Les auteurs des traités, qui viennent d'Europe et d'Amérique du Nord, se citent mutuellement, permettant au lecteur de recréer leur réseau de professionnels au niveau international. De plus, comme ces auteurs réutilisent les observations et les illustrations des autres, celles-ci circulent de traité en traité et en viennent à représenter la maladie. Ce transfert d'images joue également un rôle dans la standardisation du diagnostic et dans l'unification de la neurologie à travers le monde occidental au début du XXe siècle, une période charnière pour l'histoire de la médecine. -- Until recently, the study of textbooks has been neglected in the history of the sciences. However, textbooks can provide fruitful sources of information regarding the way authors work and the development of a particular discipline. This dissertation reviews editions of a single textbook, the Sémiologie des affections du système nerveux (1914) by Jules Dejerine (1849-1917). This textbook enabled the description of three axes of research. Firstly, by comparing the book to a first edition published as a chapter, one can acknowledge an extensive remodeling of the content of the book, suggesting a vast increase in knowledge over time. Secondly, by looking at the authors that Dejerine quotes repeatedly, it becomes possible to recreate his professional network, to review the works of these authors and to determine how they cross-reference each other. Thirdly, these textbooks contain numerous medical illustrations, which are linked with the concept of "proof;" the authors demonstrate a willingness to "show" the lesion or the pathology by publishing an image. Drawings, schematic representations, radiographies, or photographs of patients or of anatomical preparations all have their own purpose in describing the lesion and the progression of the disease. They assist in the diagnosis of the pathology. By looking at all of these aspects, it is therefore possible to conclude that a neurological textbook is a dynamic object that evolves through re-editions, comments and references found in other textbooks and by the circulations of parts of these books, such as the images. The illustrations also carry the author's authority, since their ongoing use claims that the work by the owner of the image has been endorsed by others. At the same time, it validates the borrowers' arguments. By using medical illustrations from different authors worldwide, the authors are also making a claim to a common language, to a similar way of examining patients, and about how much they depend on medical imagery to prove their points. In that sense, by focusing upon these textbooks, one can affirm that neurology already existed as a worldwide specialty at the turn of the twentieth century. Much more than mere accompaniments to the text, images were of paramount importance to the unification of neurology.
Resumo:
OBJECTIVE: It has been suggested that Schistosoma mansoni, which is endemic in African fishing communities, might increase susceptibility to human immunodeficiency virus (HIV) acquisition. If confirmed, this would be of great public health importance in these high HIV-risk communities. This study was undertaken to determine whether S. mansoni infection is a risk factor for HIV infection among the fishing communities of Lake Victoria, Uganda. We conducted a matched case-control study, nested within a prospective HIV incidence cohort, including 50 HIV seroconverters (cases) and 150 controls during 2009-2011. METHODS: S. mansoni infection prior to HIV seroconversion was determined by measuring serum circulating anodic antigen (CAA) in stored serum. HIV testing was carried out using the Determine rapid test and infection confirmed by enzyme-linked immunosorbent assays. RESULTS: About 49% of cases and 52% of controls had S. mansoni infection prior to HIV seroconversion (or at the time of a similar study visit, for controls): odds ratio, adjusting for ethnicity, religion, marital status, education, occupation, frequency of alcohol consumption in previous 3 months, number of sexual partners while drunk, duration of stay in the community, and history of schistosomiasis treatment in the past 2 years was 1.23 (95% CI 0.3-5.7) P = 0.79. S. mansoni infections were chronic (with little change in status between enrolment and HIV seroconversion), and there was no difference in median CAA concentration between cases and controls. CONCLUSIONS: These results do not support the hypothesis that S. mansoni infection promotes HIV acquisition.
Resumo:
The efficacy of Gamma Knife surgery (GKS) in local tumor control of non-secreting paragangliomas (PGLs) has been fully described by previous studies. However, with regard to secreting PGL, only one previous case report exists advocating its efficacy at a biological level. The aims of this study were: 1) to evaluate the safety/efficacy of GKS in a dopamine-secreting PGL; 2) to investigate whether the biological concentrations of free methoxytyramine could be used as a marker of treatment efficacy during the follow-up. We describe the case of a 62-year-old man diagnosed with left PGL. He initially underwent complete surgical excision. Thirty months after, he developed recurrent biological and neuroradiological disease; the most sensitive biomarker for monitoring the disease, concentration of plasma free methoxytyramine, started to increase. GKS was performed at a maximal marginal dose of 16 Gy. During the following 30 months, concentration of free methoxytyramine gradually decreased from 0.14 nmol/l (2*URL) before GKS to 0.09 nmol/l, 6 months after GKS and 0.07 nmol/l at the last follow-up after GKS (1.1*URL), confirming the efficacy of the treatment. Additionally, at 30 months there was approximately 36.6% shrinkage from the initial target volume. The GKS treatment was safe and effective, this being confirmed clinically, neuroradiologically and biologically. The case illustrates the importance of laboratory tests taking into account methoxytyramine when analyzing biological samples to assess the biochemical activity of a PGL. In addition, the identification of methoxytyramine as a unique positive biomarker could designate it for the monitoring of tumor relapse after treatments, including Gamma Knife surgery.
Resumo:
This thesis develops a comprehensive and a flexible statistical framework for the analysis and detection of space, time and space-time clusters of environmental point data. The developed clustering methods were applied in both simulated datasets and real-world environmental phenomena; however, only the cases of forest fires in Canton of Ticino (Switzerland) and in Portugal are expounded in this document. Normally, environmental phenomena can be modelled as stochastic point processes where each event, e.g. the forest fire ignition point, is characterised by its spatial location and occurrence in time. Additionally, information such as burned area, ignition causes, landuse, topographic, climatic and meteorological features, etc., can also be used to characterise the studied phenomenon. Thereby, the space-time pattern characterisa- tion represents a powerful tool to understand the distribution and behaviour of the events and their correlation with underlying processes, for instance, socio-economic, environmental and meteorological factors. Consequently, we propose a methodology based on the adaptation and application of statistical and fractal point process measures for both global (e.g. the Morisita Index, the Box-counting fractal method, the multifractal formalism and the Ripley's K-function) and local (e.g. Scan Statistics) analysis. Many measures describing the space-time distribution of environmental phenomena have been proposed in a wide variety of disciplines; nevertheless, most of these measures are of global character and do not consider complex spatial constraints, high variability and multivariate nature of the events. Therefore, we proposed an statistical framework that takes into account the complexities of the geographical space, where phenomena take place, by introducing the Validity Domain concept and carrying out clustering analyses in data with different constrained geographical spaces, hence, assessing the relative degree of clustering of the real distribution. Moreover, exclusively to the forest fire case, this research proposes two new methodologies to defining and mapping both the Wildland-Urban Interface (WUI) described as the interaction zone between burnable vegetation and anthropogenic infrastructures, and the prediction of fire ignition susceptibility. In this regard, the main objective of this Thesis was to carry out a basic statistical/- geospatial research with a strong application part to analyse and to describe complex phenomena as well as to overcome unsolved methodological problems in the characterisation of space-time patterns, in particular, the forest fire occurrences. Thus, this Thesis provides a response to the increasing demand for both environmental monitoring and management tools for the assessment of natural and anthropogenic hazards and risks, sustainable development, retrospective success analysis, etc. The major contributions of this work were presented at national and international conferences and published in 5 scientific journals. National and international collaborations were also established and successfully accomplished. -- Cette thèse développe une méthodologie statistique complète et flexible pour l'analyse et la détection des structures spatiales, temporelles et spatio-temporelles de données environnementales représentées comme de semis de points. Les méthodes ici développées ont été appliquées aux jeux de données simulées autant qu'A des phénomènes environnementaux réels; nonobstant, seulement le cas des feux forestiers dans le Canton du Tessin (la Suisse) et celui de Portugal sont expliqués dans ce document. Normalement, les phénomènes environnementaux peuvent être modélisés comme des processus ponctuels stochastiques ou chaque événement, par ex. les point d'ignition des feux forestiers, est déterminé par son emplacement spatial et son occurrence dans le temps. De plus, des informations tels que la surface bru^lée, les causes d'ignition, l'utilisation du sol, les caractéristiques topographiques, climatiques et météorologiques, etc., peuvent aussi être utilisées pour caractériser le phénomène étudié. Par conséquent, la définition de la structure spatio-temporelle représente un outil puissant pour compren- dre la distribution du phénomène et sa corrélation avec des processus sous-jacents tels que les facteurs socio-économiques, environnementaux et météorologiques. De ce fait, nous proposons une méthodologie basée sur l'adaptation et l'application de mesures statistiques et fractales des processus ponctuels d'analyse global (par ex. l'indice de Morisita, la dimension fractale par comptage de boîtes, le formalisme multifractal et la fonction K de Ripley) et local (par ex. la statistique de scan). Des nombreuses mesures décrivant les structures spatio-temporelles de phénomènes environnementaux peuvent être trouvées dans la littérature. Néanmoins, la plupart de ces mesures sont de caractère global et ne considèrent pas de contraintes spatiales com- plexes, ainsi que la haute variabilité et la nature multivariée des événements. A cet effet, la méthodologie ici proposée prend en compte les complexités de l'espace géographique ou le phénomène a lieu, à travers de l'introduction du concept de Domaine de Validité et l'application des mesures d'analyse spatiale dans des données en présentant différentes contraintes géographiques. Cela permet l'évaluation du degré relatif d'agrégation spatiale/temporelle des structures du phénomène observé. En plus, exclusif au cas de feux forestiers, cette recherche propose aussi deux nouvelles méthodologies pour la définition et la cartographie des zones périurbaines, décrites comme des espaces anthropogéniques à proximité de la végétation sauvage ou de la forêt, et de la prédiction de la susceptibilité à l'ignition de feu. A cet égard, l'objectif principal de cette Thèse a été d'effectuer une recherche statistique/géospatiale avec une forte application dans des cas réels, pour analyser et décrire des phénomènes environnementaux complexes aussi bien que surmonter des problèmes méthodologiques non résolus relatifs à la caractérisation des structures spatio-temporelles, particulièrement, celles des occurrences de feux forestières. Ainsi, cette Thèse fournit une réponse à la demande croissante de la gestion et du monitoring environnemental pour le déploiement d'outils d'évaluation des risques et des dangers naturels et anthro- pogéniques. Les majeures contributions de ce travail ont été présentées aux conférences nationales et internationales, et ont été aussi publiées dans 5 revues internationales avec comité de lecture. Des collaborations nationales et internationales ont été aussi établies et accomplies avec succès.
Resumo:
INTRODUCTION: The main clinical manifestations of Whipple's disease are weight loss, arthropathy, diarrhea and abdominal pain. Cardiac involvement is frequently described. However, endocarditis is rare and is not usually the initial presentation of the disease. To the best of our knowledge, this is the first reported case of a patient with Tropheryma whipplei tricuspid endocarditis without any other valve involved and not presenting signs of arthralgia and abdominal involvement. CASE PRESENTATION: We report a case of a 50-year-old Caucasian man with tricuspid endocarditis caused by Tropheryma whipplei, showing signs of severe shock and an absence of other more classic clinical signs of Whipple's disease, such as arthralgia, abdominal pain and diarrhea. Tropheryma whipplei was documented by polymerase chain reaction of the blood and pleural fluid. The infection was treated with a combined treatment of doxycycline, hydroxychloroquine and sulfamethoxazole-trimethoprim for one year. CONCLUSION: Tropheryma whipplei infectious endocarditis should always be considered when facing a blood-culture negative endocarditis particularly in right-sided valves. Although not standardized yet, treatment of Tropheryma whipplei endocarditis should probably include a bactericidal antibiotic (such as doxycycline) and should be given over a prolonged period of time (a minimum of one year).