999 resultados para DUNE,SiPM,fotorivelazione,neutrini,test di SiPM
Resumo:
Résumé : Les photodiodes à avalanche monophotonique (SPAD) sont d'intérêts pour les applications requérant la détection de photons uniques avec une grande résolution temporelle, comme en physique des hautes énergies et en imagerie médicale. En fait, les matrices de SPAD, souvent appelés photomultiplicateurs sur silicium (SiPM), remplacent graduellement les tubes photomultiplicateurs (PMT) et les photodiodes à avalanche (APD). De plus, il y a une tendance à utiliser les matrices de SPAD en technologie CMOS afin d'obtenir des pixels intelligents optimisés pour la résolution temporelle. La fabrication de SPAD en technologie CMOS commerciale apporte plusieurs avantages par rapport aux procédés optoélectroniques comme le faible coût, la capacité de production, l'intégration d'électronique et la miniaturisation des systèmes. Cependant, le défaut principal du CMOS est le manque de flexibilité de conception au niveau de l'architecture du SPAD, causé par le caractère fixe et standardisé des étapes de fabrication en technologie CMOS. Un autre inconvénient des matrices de SPAD CMOS est la perte de surface photosensible amenée par la présence de circuits CMOS. Ce document présente la conception, la caractérisation et l'optimisation de SPAD fabriqués dans une technologie CMOS commerciale (Teledyne DALSA 0.8µm HV CMOS - TDSI CMOSP8G). Des modifications de procédé sur mesure ont été introduites en collaboration avec l'entreprise CMOS pour optimiser les SPAD tout en gardant la compatibilité CMOS. Les matrices de SPAD produites sont dédiées à être intégrées en 3D avec de l'électronique CMOS économique (TDSI) ou avec de l'électronique CMOS submicronique avancée, produisant ainsi un SiPM 3D numérique. Ce SiPM 3D innovateur vise à remplacer les PMT, les APD et les SiPM commerciaux dans les applications à haute résolution temporelle. L'objectif principal du groupe de recherche est de développer un SiPM 3D avec une résolution temporelle de 10 ps pour usage en physique des hautes énergies et en imagerie médicale. Ces applications demandent des procédés fiables avec une capacité de production certifiée, ce qui justifie la volonté de produire le SiPM 3D avec des technologies CMOS commerciales. Ce mémoire étudie la conception, la caractérisation et l'optimisation de SPAD fabriqués en technologie TDSI-CMOSP8G.
Resumo:
Negli ultimi anni, i limiti sempre più stringenti sulle emissioni inquinanti dei gas di scarico, hanno portato ad un notevole aumento della complessità dei motori a combustione interna. Questa complicazione determina un aumento esponenziale del numero di test da effettuare nella sala prova. I metodi tipici di gestione dei test non possono più essere utilizzati, ma è essenziale creare un sistema che ottimizzi le prove. Per ridurre drasticamente il tempo di esecuzione, è necessario implementare un'architettura in grado di facilitare lo scambio di dati tra i sistemi presenti nella sala prova, e, in aggiunta, definire le strategie di automazione dei test. L'approccio a taluni metodi si presenta ancora complicato in molti gruppi di sviluppo di strategie di controllo motore, anche se, una volta sviluppati, portano e a grandi benefici durante la fase di test. Il lavoro illustra i metodi implementati per la gestione di queste strategie. Prima si descrive l'approccio utilizzato nella calibrazione di anticipo di accensione per mantenere livelli accettabili di detonazione durante il processo di calibrazione. Successivamente è mostrato il sistema di automazione dei test che consente il pieno controllo del punto di funzionamento del motore, la gestione dell'acquisizione e la verifica della stabilità delle condizioni ottenute. L'ultima parte mostra sistemi di prototipazione rapida per la gestione di componenti innovatici del motore.
Resumo:
I sistemi di analisi del movimento sono in continua espansione e vengono sempre maggiormente utilizzati in ambito sportivo e riabilitativo. In particolare, la valutazione delle lesioni di LCA è, attualmente, affidata a procedure classiche, oltre che a strumenti analitici Gold Standard come il sistema optoelettronico. L’utilizzo dei sensori inerziali per l’analisi del movimento è in notevole aumento e sempre più utilizzato anche negli ambiti descritti. Tuttavia, è da valutare l’accuratezza di tali sistemi nell’esecuzione di gesti complessi ad alta dinamica. L’obiettivo del presente elaborato è stato quello di validare un sistema di sensori inerziali tramite uno optoelettronico, per lo svolgimento di specifici task motori in un’ottica di prevenzione dell’infortunio al LCA. Sono stati valutati 30 soggetti sani, attraverso l’utilizzo sincrono di due tecnologie: il sistema optoelettronico Vicon e il sistema inerziale Xsens. I movimenti svolti dai soggetti rientravano in un protocollo per la prevenzione del LCA, sviluppato presso il centro Isokinetic, il quale comprende 6 task ad elevata dinamica, ricorrenti negli sport maggiori. Si è evinta un’ottima correlazione e basso errore per tutti gli angoli articolari analizzati sul piano sagittale, una buona correlazione sul piano frontale per la maggior parte degli angoli (esclusi caviglia e pelvi), ed una minore riproducibilità sul piano trasverso, in particolare negli angoli di caviglia ginocchio e pelvi. I risultati hanno mostrato una scarsa dipendenza dalla tipologia di task analizzato. La tecnologia inerziale ha dimostrato di essere un’ottima alternativa per l’analisi del movimento in task specifici per la valutazione della biomeccanica di LCA. Le discrepanze evinte possono essere riconducibili ai diversi protocolli cinematici utilizzati ed al posizionamento dei markers. Evoluzioni della tecnologia potrebbero migliorare la precisione di questi sensori offrendo informazioni ancor più dettagliate dove ora ci sono lacune.
Resumo:
Le tecniche di fluidodinamica computazionale vengono utilizzate in numerosi settori dell’ingegneria per risolvere in modo efficiente i problemi di flusso e di termodinamica nei fluidi. Uno di questi settori in cui si è diffuso l’utilizzo delle tecniche CFD (Computational Fluid Dynamics) è il settore dell’ingegneria antincendio. Tra i vari software di simulazione presenti, FDS (Fire Dynamics Simulator) è quello più diffuso nella comunità antincendio e utilizzato all’interno della presente analisi. L’elaborato introduce le basi dell’ingegneria antincendio spiegando le varie fasi attraverso il quale passa la metodologia prestazionale, passando poi ad approfondire le dinamiche d’incendio, in particolare nelle gallerie stradali e le tecniche di modellazione termo fluidodinamica degli incendi. L’analisi tratta il confronto tra delle prove d’incendio in scala reale effettuate all’interno di una galleria e le relative simulazioni fluidodinamiche realizzate al fine di verificare la corrispondenza tra la modellazione con software e l’effettiva evoluzione dell’incendio. Nell’analisi verranno confrontati diversi metodi di modellazione, evidenziando i vantaggi e i limiti incontrati nel corso delle simulazioni, confrontandoli al tempo stesso con i risultati ottenuti dai test in scala reale. I modelli ottenuti hanno permesso di estendere le simulazioni a focolari di potenza maggiore al fine di effettuare un’analisi delle prestazioni antincendio della galleria oggetto di studio.
Resumo:
L’adroterapia è un tipo di terapia oncologica in cui il tumore è irraggiato con particelle cariche (adroni) quali protoni e ioni carbonio. Il vantaggio principale rispetto alla radioterapia convenzionale a raggi X consiste nel fatto che l’irraggiamento con adroni non coinvolge i tessuti sani circostanti quelli malati. Tuttavia, si conosce ancora poco sui processi di frammentazione nucleare che avvengono tra gli adroni del fascio usato nel trattamento e i nuclei presenti nel corpo umano. Così, nel 2017 nasce l’esperimento FOOT (FragmentatiOn Of Target) con lo scopo di misurare le sezioni d’urto differenziali dei frammenti nucleari prodotti nell’interazione a energie di 200-400 MeV/u (tipicamente impiegate in adroterapia). Attualmente l’apparato sperimentale di FOOT è in grado di compiere misure accurate solo per frammenti carichi, ma nell’ultimo anno si è cominciata ad esplorare la possibilità di rivelare anche i neutroni. Per questa operazione è necessario servirsi di scintillatori liquidi affiancati ad un sistema di veto costituito da scintillatori plastici sottili accoppiati a sensori che segnalano il passaggio di eventuali frammenti carichi. In una precedente campagna di misure con la collaborazione FOOT, si sono utilizzati come sensori dei tubi fotomoltiplicatori (PMT). Per migliorare le prestazioni del sistema di veto si è reso necessario l’utilizzo di scintillatori plastici veloci, letti da sensori fotomoltiplicatori al silicio (SiPM). In questa tesi mi sono occupato della risoluzione temporale dei segnali acquisiti con scintillatori plastici EJ-204 di 3 mm di spessore, letti da SiPM SenseL®.
Resumo:
Questo lavoro si propone di implementare tre scenari di compromissione informatica tramite l'ausilio della strumentazione fornita da Ansible e Docker. Dopo una prima parte teorica di presentazione delle più recenti vulnerabilità/compromissioni informatiche, si passa all'illustrazione degli strumenti e dell'architettura degli scenari, anche tramite l'ausilio di codice. Tramite la funzione UNIX time si effettua l'analisi di diverse tecniche di distribuzione, dimostrando come l'automazione abbia effettivi e seri vantaggi rispetto ad una continua implementazione manuale, principalmente da un punto di vista temporale e computazionale.
Resumo:
L’olio di oliva è tra i prodotti alimentari principali della dieta mediterranea e possiede delle caratteristiche salutistiche, compositive e sensoriali peculiari. La qualità e la genuinità dell’olio di oliva vergine sono valutate sia mediante determinazioni analitiche chimiche e strumentali, sia attraverso l’analisi sensoriale. Quest’ultima, realizzata con il metodo del panel test, è tra i metodi ufficiali per la classificazione degli oli di oliva vergini nelle tre categorie commerciali extra vergine, vergine e lampante. Tuttavia, l’analisi sensoriale presenta dei limiti legati, in particolare, al numero elevato di campioni di olio da analizzare rispetto alle capacità di lavoro dei panel. Negli ultimi anni è aumentata, così, la necessità di sviluppare e validare metodi analitici strumentali che, pre-classificando gli oli in esame, siano di supporto al panel test e possano ridurre il numero di campioni da sottoporre ad analisi sensoriale. In questo elaborato di tesi sono state prese in considerazione due diverse tecniche analitiche, la gas cromatografica accoppiata alla spettrometria a mobilità ionica (HS-GC-IMS) e la flash gas cromatografia (FGC E-nose), entrambe impiegate per la valutazione della frazione volatile dell’olio di oliva, responsabile degli attributi olfattivi del prodotto. Utilizzando i risultati ottenuti applicando queste due tecniche, mediante analisi multivariata, è stato possibile stimare la categoria merceologica di ogni campione appartenente ad un set di 52 oli di oliva vergini, classificandoli con un determinato livello di probabilità. Entrambe le metodiche analitiche sono già state utilizzate e valutate in precedenti studi; con la sperimentazione effettuata nell’ambito di questa tesi è stato possibile confermare l’efficacia dei modelli di stima che possono essere impiegati con finalità di screening in supporto al panel test, nell’ottica di renderli sempre più robusti ed affidabili per la classificazione degli oli di oliva vergini.
Resumo:
The objective was to develop and test a procedure for applying variable rates of fertilizers and evaluate yield response in coffee (Coffea arabica L.) with regard to the application of phosphorus and potassium. The work was conducted during the 2004 season in a 6.4 ha field located in central Sao Paulo state. Two treatments were applied with alternating strips of fixed and variable rates during the whole season: one following the fertilizing procedures recommended locally, and the other based on a grid soil sampling. A prototype pneumatic fertilizer applicator was used, carrying two conveyor belts, one for each row. Harvesting was done with a commercial harvester equipped with a customized volumetric yield monitor, separating the two treatments. Data were analyzed based on geostatistics, correlations and regressions. The procedure showed to be feasible and effective. The area that received fertilizer applications at a variable rate showed a 34% yield increase compared to the area that received a fixed rate. The variable rate fertilizer resulted in a savings of 23% in phosphate fertilizer and a 13% increase in potassium fertilizer, when compared to fixed rate fertilizer. Yield in 2005, the year after the variable rate treatments, still presented residual effect from treatments carried out during the previous cycle.
Resumo:
Aiming at contributing with the search for neuroactive substances from natural sources, we report for the first time antinociceptive and anticonvulsant effects of some Lychnophora species. We verify the protective effects of polar extracts (600 mg/kg, intraperitoneally), and methanolic fractions of L. staavioides and L. rupestris (100 mg/kg, intraperitoneally) in pentylenetetrazole-induced seizures on mice. Previously, a screening was accomplished, evaluating the antinociceptive central activity (hot plate test), with different extracts of L. rupestris, L. staavioides and L. diamantinana. It was possible to select the possible extracts of Lychnophora with central nervous system activity. Some of the active extracts were submitted to fractionation and purification process and the methanolic fractions of L. rupestris (stem) and L. staavioides (stem), with anticonvulsant properties (100 mg/kg, intraperitoneally), yielded 4,5-di-O-[E]-caffeoylquinic acid. This substance was injected intraperitoneally in mice and showed anticonvulsant effect against pentylenetetrazole-induced seizures at doses of 25 and 50 mg/kg. It has often been shown that seizures induced by pentylenetetrazole are involved in inhibition and/or attenuation of GABAergic neurotransmission. However, other systems of the central nervous system such as adenosinergic and glutamatergic could be involved in the caffeoylquinic acid effects. Further studies should be conducted to verify that the target receptor could be participating in this anticonvulsant property. Although other investigations have reported a series of biological activities from Lychnophora species, this is the first report of central analgesic and anticonvulsant activity in species of this genus.
Resumo:
We examined the correlation between results obtained from the in vivo Draize test for ocular irritation and in vitro results obtained from the sheep red blood cell (RBC) haemolytic assay, which assesses haemolysis and protein denaturation in erythrocytes, induced by cosmetic products. We sought to validate the haemolytic assay as a preliminary test for identifying highly-irritative products, and also to evaluate the in vitro test as alternative assay for replacement of the in vivo test. In vitro and in vivo analyses were carried out on 19 cosmetic products, in order to correlate the lesions in the ocular structures with three in vitro parameters: (i) the extent of haemolysis (H50); (ii) the protein denaturation index (131); and (iii) the H50/DI ratio, which reflects the irritation potential (IP). There was significant correlation between maximum average scores (MAS) and the parameters determined in vitro (r = 0.752-0.764). These results indicate that the RBC assay is a useful and rapid test for use as a screening method to assess the IP of cosmetic products, and for predicting the IP value with a high level of concordance (94.7%). The assay showed high sensitivity and specificity rates of 91.6% and 100%, respectively.
Resumo:
The present study was carried out to evaluate the Malar-CheckTM Pf test, an immunochromatographic assay that detects Plasmodium falciparum Histidine Rich Protein II, does not require equipment, and is easy and rapid to perform. In dilution assays performed to test sensitivity against known parasite density, Malar-CheckTMwere compared with thick blood smear (TBS), the gold standard for diagnosis. Palo Alto isolate or P. falciparum blood from patients with different parasitemias was used. The average cut-off points for each technique in three independent experiments were 12 and 71 parasites/mm³ (TBS and Malar-CheckTM, respectively). In the field assays, samples were collected from patients with fever who visited endemic regions. Compared to TBS, Malar-CheckTMyielded true-positive results in 38 patients, false-positive results in 3, true-negative results in 23, and false-negative result in 1. Malar-CheckTMperformed with samples from falciparum-infected patients after treatment showed persistence of antigen up to 30 days. Malar-CheckTM should aid the diagnosis of P. falciparum in remote areas and improve routine diagnosis even when microscopy is available. Previous P. falciparum infection, which can determine a false-positive test in cured individuals, should be considered. The prompt results obtained with the Malar-CheckTM for early diagnosis could avoid disease evolution to severe cases.
Resumo:
Planners in public and private institutions would like coherent forecasts of the components of age-specic mortality, such as causes of death. This has been di cult toachieve because the relative values of the forecast components often fail to behave ina way that is coherent with historical experience. In addition, when the group forecasts are combined the result is often incompatible with an all-groups forecast. It hasbeen shown that cause-specic mortality forecasts are pessimistic when compared withall-cause forecasts (Wilmoth, 1995). This paper abandons the conventional approachof using log mortality rates and forecasts the density of deaths in the life table. Sincethese values obey a unit sum constraint for both conventional single-decrement life tables (only one absorbing state) and multiple-decrement tables (more than one absorbingstate), they are intrinsically relative rather than absolute values across decrements aswell as ages. Using the methods of Compositional Data Analysis pioneered by Aitchison(1986), death densities are transformed into the real space so that the full range of multivariate statistics can be applied, then back-transformed to positive values so that theunit sum constraint is honoured. The structure of the best-known, single-decrementmortality-rate forecasting model, devised by Lee and Carter (1992), is expressed incompositional form and the results from the two models are compared. The compositional model is extended to a multiple-decrement form and used to forecast mortalityby cause of death for Japan
Resumo:
OBJECTIVE Serum levels of soluble TNF-like weak inducer of apoptosis (sTWEAK) and its scavenger receptor CD163 (sCD163) have been linked to insulin resistance. We analysed the usefulness of these cytokines as biomarkers of type 2 diabetes in a Spanish cohort, together with their relationship to food consumption in the setting of the Di@bet.es study. RESEARCH DESIGN AND METHODS This is a cross-sectional, matched case-control study of 514 type 2 diabetes subjects and 517 controls with a Normal Oral Glucose Tolerance Test (NOGTT), using data from the Di@bet.es study. Study variables included clinical and demographic structured survey, food frequency questionnaire and physical examination. Serum concentrations of sTWEAK and sCD163 were measured by ELISA. Linear regression analysis determined which variables were related to sTWEAK and sCD163 levels. Logistic regression analysis was used to estimate odd ratios of presenting type 2 diabetes. RESULTS sCD163 concentrations and sCD163/sTWEAK ratio were 11.0% and 15.0% higher, respectively, (P<0.001) in type 2 diabetes than in controls. Following adjustment for various confounders, the OR for presenting type 2 diabetes in subjects in the highest vs the lowest tertile of sCD163 was [(OR), 2,01 (95%CI, 1,46-2,97); P for trend <0.001]. Coffee and red wine consumption was negatively associated with serum levels of sCD163 (P = 0.0001 and; P = 0.002 for coffee and red wine intake, respectively). CONCLUSIONS High circulating levels of sCD163 are associated with type 2 diabetes in the Spanish population. The association between coffee and red wine intake and these biomarkers deserves further study to confirm its potential role in type 2 diabetes.
Resumo:
RESUME Dès le printemps 2004, la construction d'une 2ème ligne de métro est entreprise dans la ville de Lausanne en Suisse. En reliant Ouchy, au bord du lac Léman (alt. 373 m) à Epalinges (alt. 711 m), le nouveau métro "M2" traversera dès 2008 l'agglomération lausannoise du Sud au Nord sur une distance de 6 km. Depuis l'avant-projet, en 1999, une grande quantité de données géologiques a été récolté et de nombreux forages exécutés sur le site. Ceci nous a donné une occasion unique d'entreprendre une étude de microgravimétrique urbaine de détail. Le mode de creusement du tunnel dépend fortement des matériaux à excaver et il est classiquement du domaine du géologue, avec ses connaissances de la géologie régionale et de la stratigraphie des forages, de fournir à l'ingénieur un modèle géologique. Ce modèle indiquera dans ce cas l'épaisseur des terrains meubles qui recouvrent le soubassement rocheux. La représentativité spatiale d'une information très localisée, comme celle d'un forage, est d'autant plus compliquée que le détail recherché est petit. C'est à ce moment là que la prospection géophysique, plus spécialement gravimétrique, peut apporter des informations complémentaires déterminantes pour régionaliser les données ponctuelles des forages. La microgravimétrie en milieu urbain implique de corriger avec soin les perturbations gravifiques sur la mesure de la pesanteur dues aux effets de la topographie, des bâtiments et des caves afin d'isoler l'effet gravifique dû exclusivement à l'épaisseur du remplissage des terrains meubles. Tenant compte de l'intensité des corrections topographiques en milieu urbain, nous avons donné une grande importance aux sous-sols, leurs effets gravifiques pouvant atteindre l'ordre du dixième de mGal. Nous avons donc intégré ces corrections celle de topographie et traité les effets des bâtiments de manière indépendante. Nous avons inclus dans le modèle numérique de terrain (MNT) la chaussée et les sous-sols afin de construire un modèle numérique de terrain urbain. Nous utiliserons un nouvel acronyme « MNTU »pour décrire ce modèle. Nous proposons d'établir des cartes de corrections topographiques préalables, basées sur les données à disposition fournies par le cadastre en faisant des hypothèses sur la profondeur des sous-sols et la hauteur des bâtiments. Les deux zones de test choisies sont caractéristiques des différents types d'urbanisation présente à Lausanne et se révèlent par conséquent très intéressantes pour élaborer une méthodologie globale de la microgravimétrie urbaine. Le but était d'évaluer l'épaisseur du remplissage morainique sur un fond rocheux molassique se situant à une profondeur variable de quelques mètres à une trentaine de mètres et d'en établir une coupe dans l'axe du futur tracé du métro. Les résultats des modélisations se sont révélés très convaincants en détectant des zones qui diffèrent sensiblement du modèle géologique d'avant projet. Nous avons également démontré que l'application de cette méthode géophysique, non destructive, est à même de limiter le nombre de sondages mécaniques lors de l'avant-projet et du projet définitif, ce qui peut limiter à la fois les coûts et le dérangement engendré par ces travaux de surface. L'adaptabilité de la technique gravimétrique permet d'intervenir dans toutes les différentes phases d'un projet de génie civil comme celui de la construction d'un métro en souterrain. KURZFASSUNG Seit dem Frühling 2004 ist in der Stadt Lausanne (Schweiz) die neue U-Bahn "M2" in Konstruktion. Diese soll auf 6 km Länge die Lausanner Agglomeration von Süd nach Nord durchqueren. Die dem Projekt zu Grunde liegende technische Planung sieht vor, daß die Bahnlinie hauptsächlich in der Molasse angesiedelt sein wird. Seit dem Vorentwurf (1999) ist eine große Anzahl geologischer Angaben gesammelt worden. Daraus ergab sich die einmalige Gelegenheit, die Informationen aus den damit verbundenen zahlreichen Bohrungen zu einer detaillierten mikrogravimetrischen Studie der Stadt Lausanne zu erweitern und zu vervollständigen. Das Ziel bestand darin, die Mächtigkeit der die Molasseüberdeckenden Moräneablagerung abzuschätzen, um eine entsprechendes geologisches Profile entlang der künftigen Bahnlinie zu erstellen. Weiterhin sollte gezeigt werden, daß die Anwendung dieser nicht-invasiven geophysikalischen Methode es ermöglicht, die Anzahl der benötigten Bohrungen sowohl in der Pilotphase wie auch im endgültigen Projekt zu reduzieren, was zu wesentlichen finanziellen Einsparungen in der Ausführung des Werkes beitragen würde. Die beiden in dieser Studie bearbeiteten Testzonen befinden sich im Nordteil und im Stadtzentrum von Lausanne und sind durch eine unterschiedliche Urbanisierung charakterisiert. Das anstehende Gestein liegt in verschiedenen Tiefen: von einigen Metern bis zu etwa dreißig Metern. Diese Zonen weisen alle Schwierigkeiten einer urbanen Bebauung mit hoher Verkehrsdichte auf und waren daher massgebend bei der Ausarbeitung einer globalen mikrogravimetrischen Methodologie für die Stadt Lausanne. Die so entwickelte Technik ermöglicht, die störenden Auswirkungen der Topographie, der Gebäude, der Keller und der Öffentlichen Infrastrukturen sorgfältig zu korrigieren, um so die ausschließlich auf die Mächtigkeit des Lockergesteins zurückzuführenden Effekte zu isolieren. In Bezug auf die Intensität der Auswirkungen der topographischen Korrekturen im Stadtgebiet wurde den Untergeschossen eine besonders grosse Bedeutung zugemessen da die entsprechenden Schwerkrafteffekte eine Grösse von rund einem Zehntel mGal erreichen können. Wir schlagen deshalb vor, vorläufige Karten der topographischen Korrekturen zu erstellen. Diese Korrekturen basieren auf den uns vom Katasterplan gelieferten Daten und einigen Hypothesen bezüglich der Tiefe der Untergeschosse und der Höhe der Gebäude. Die Verfügbarkeit einer derartigen Karte vor der eigentlichen gravimetrischen Messkampagne würde uns erlauben, die Position der Meßstationen besser zu wählen. Wir sahen zudem, daß ein entsprechenden a priori Filter benutzt werden kann, wenn die Form und die Intensität der Anomalie offensichtlich dem entsprechenden Gebäude zugeordnet werden können. Diese Strategie muß jedoch mit Vorsicht angewandt werden, denn falls weitere Anomalien dazukommen, können bedeutende Verschiebungen durch Übèrlagerungen der Schwerewirkung verschiedener Strukturen entstehen. Die Ergebnisse der Modellierung haben sich als sehr überzeugend erwiesen, da sie im Voraus unbekannte sensible Zonen korrekt identifiziert haben. Die Anwendbarkeit der in dieser Arbeit entwickelten gravimetrischen Technik ermöglicht es, während allen Phasen eines Grossbauprojekts, wie zum Beispiel bei der Konstruktion einer unterirdischen U-Bahn, einzugreifen. ABSTRACT Since Spring of 2004 a new metro line has been under construction in the city of Lausanne in Switzerland. The new line, the M2, will be 6 km long and will traverse the city from south to north. The civil engineering project determined that the line would be located primarily in the Molasse. Since the preparatory project in 1999, a great quantity of geological data has been collected, and the many drillings made on the site have proved to be a unique opportunity to undertake a study of urban microgravimetry. The goal was to evaluate the thickness of the morainic filling over the molassic bedrock, and to establish a section along the axis of the future line. It then had to be shown that the application of this nondestructive geophysical method could reduce the number of mechanical surveys required both for a preparatory and a definitive project, which would lead to real savings in the realization of a civil engineering project. The two test zones chosen, one in the northern part of the city and one in the city centre, are characterised by various types of urbanisation. Bedrock is at a depth varying from a few metres to about thirty metres. These zones well exemplify the various difficulties encountered in an urban environment and are therefore very interesting for the development of an overall methodology of urban microgravimetry. Microgravimetry in an urban environment requires careful corrections for gravific disturbances due to the effects of topography, buildings, cellars, and the infrastructure of distribution networks, in order to isolate the gravific effect due exclusively to the thickness of loose soil filling. Bearing in mind the intensity of the topographic corrections in an urban environment, we gave particular importance to basements. Their gravific effects can reach the order of one tenth of one meal, and can influence above all the precision of the Bouguer anomaly. We propose to establish preliminary topographic correction charts based on data provided to us by the land register, by making assumptions on the depths of basements and the heights of buildings. Availability of this chart previous to a gravimetry campaign would enable us to choose optimum measuring sites. We have also seen that an a priori filter can be used when the form and the intensity of the anomaly correspond visually to the corresponding building. This strategy must be used with caution because if other anomalies are to be associated, important shifts can be generated by the superposition of the effects of different structures. The results of the model have proved to be very convincing in detecting previously unknown sensitive zones. The adaptability of the gravimetry technique allows for application in all phases of a civil engineering project such as the construction of an underground metro line. RIASSUNTO Dalla primavera 2004 una nuova linea metropolitana é in costruzione nella città di Losanna in Svizzera. La nuova metropolitana "M2" traverserà per la lunghezza di 6 km il centro urbano di Losanna da sud a nord. II progetto d'ingegneria civile prevedeva un tracciato situato essenzialmente nel fondo roccioso arenaceo terziario (molassa). Dalla redazione del progetto preliminare, avvenuta nel 1999, una grande quantità di dati geologici sono stati raccolti e sono stati eseguiti numerosi sondaggi. Questo sì é presentato come un'occasione unica per mettere a punto uno studio microgravimetrico in ambiente urbano con lo scopo di valutare lo spessore dei terreni sciolti di origine glaciale che ricoprono il fondo roccioso di molassa e di mettere in evidenza come l'applicazione di questo metodo geofisico non distruttivo possa limitare il numero di sondaggi meccanici nella fase di progetto preliminare ed esecutivo con conseguente reale risparmio economico nella realizzazione di una tale opera. Le due zone di test sono situate una nella zona nord e la seconda nel centro storico di Losanna e sono caratterizzate da stili architettonici differenti. II fondo roccioso é situato ad una profondità variabile da qualche metro ad una trentina. Queste due zone sembrano ben rappresentare tutte le difficoltà di un ambiente urbano e ben si prestano per elaborare una metodologia globale per la microgravimetria in ambiente urbano. L'applicazione di questa tecnica nell'ambiente suddetto implica la correzione attenta delle perturbazioni sulla misura dell'accelerazione gravitazionale, causate dalla topografia, gli edifici, le cantine e le infrastrutture dei sottoservizi, per ben isolare il segnale esclusivamente causato dallo spessore dei terreni sciolti. Tenuto conto, dell'intensità delle correzioni topografiche, abbiamo dato grande importanza alle cantine, poiché il loro effetto sulle misure può raggiungere il decimo di mGal. Proponiamo quindi di redigere una carta delle correzioni topografiche preliminare all'acquisizione, facendo delle ipotesi sulla profondità delle cantine e sull'altezza degli edifici, sulla base delle planimetrie catastali. L'analisi di questa carta permetterà di scegliere le posizioni più adatte per le stazioni gravimetriche. Abbiamo anche osservato che un filtro a priori, qualora la forma e l'intensità dell'anomalia fosse facilmente riconducibile in maniera visuale ad un edificio, possa essere efficace. Tuttavia questa strategia deve essere utilizzata con precauzione, poiché può introdurre uno scarto, qualora più anomalie, dovute a differenti strutture, si sovrappongano. I risultati delle modellizzazioni si sono rivelati convincenti, evidenziando zone sensibili non conosciute preventivamente. L'adattabilità della tecnica gravimetrica ha mostrato di poter intervenire in differenti fasi di un progetto di ingegneria civile, quale è quella di un'opera in sotterraneo.
Resumo:
BACKGROUND: Prognosis prediction for resected primary colon cancer is based on the T-stage Node Metastasis (TNM) staging system. We investigated if four well-documented gene expression risk scores can improve patient stratification. METHODS: Microarray-based versions of risk-scores were applied to a large independent cohort of 688 stage II/III tumors from the PETACC-3 trial. Prognostic value for relapse-free survival (RFS), survival after relapse (SAR), and overall survival (OS) was assessed by regression analysis. To assess improvement over a reference, prognostic model was assessed with the area under curve (AUC) of receiver operating characteristic (ROC) curves. All statistical tests were two-sided, except the AUC increase. RESULTS: All four risk scores (RSs) showed a statistically significant association (single-test, P < .0167) with OS or RFS in univariate models, but with HRs below 1.38 per interquartile range. Three scores were predictors of shorter RFS, one of shorter SAR. Each RS could only marginally improve an RFS or OS model with the known factors T-stage, N-stage, and microsatellite instability (MSI) status (AUC gains < 0.025 units). The pairwise interscore discordance was never high (maximal Spearman correlation = 0.563) A combined score showed a trend to higher prognostic value and higher AUC increase for OS (HR = 1.74, 95% confidence interval [CI] = 1.44 to 2.10, P < .001, AUC from 0.6918 to 0.7321) and RFS (HR = 1.56, 95% CI = 1.33 to 1.84, P < .001, AUC from 0.6723 to 0.6945) than any single score. CONCLUSIONS: The four tested gene expression-based risk scores provide prognostic information but contribute only marginally to improving models based on established risk factors. A combination of the risk scores might provide more robust information. Predictors of RFS and SAR might need to be different.