999 resultados para Campo magnetico,Via Lattea,Metodi di rilevazione
Resumo:
Aims: We aimed to quantify the release of bio-markers of myocardial damage in relation to direct intramyocardial injections of genes and stem cells in patients with severe coronary artery disease. Methods and Results: We studied 71 patients with “no-option” coronary artery disease. Patients had, via the percutaneous transluminal route, a total of 11±1 (mean ± SD) intramyocardial injections of vascular endothelial growth factor genes (n=56) or mesenchymal stromal cells (n=15). Injections were guided to an ischemic area by electromechanical mapping, using the NOGA™/Myostar™ catheter system. ECG was monitored continuously until discharge. Plasma CKMB (upper normal laboratory limit=5 μg/l) was 2 μg/l (2-3) at baseline; increased to 6 (5-9) after 8 hours (p < 0.0001) and normalized to 4 (3-5) after 24 hours. A total of 8 patients (17%), receiving a volume of 0.3 ml per injection, had CKMB rises exceeding 3 times the upper limit, whereas no patient in the group receiving 0.2 ml had a more than two fold CKMB increase. No patient developed new ECG changes. There were no clinically important ventricular arrhythmias and no death. Conclusion: Direct Intramyocardial injections of stem cells or genes lead to measurable release of cardiac bio-markers, which was related to the injected volume.
Resumo:
La tesi dottorale in oggetto prende spunto da alcune considerazioni di base relative alla salute di una comunità. Infatti quest’ultima si fonda sulla sicurezza dell’ambiente in cui vive e sulla qualità delle relazioni tra i suoi componenti. In questo ambito la mobilità rappresenta uno degli elementi di maggior criticità, sia per la sicurezza delle persone, che per la salute pubblica, che per le conseguenze sull’ambiente che ne derivano. Negli ultimi anni la circolazione stradale è notevolmente aumentata è questo ha portato a notevoli aspetti negativi, uno dei quali è connesso agli incidenti stradali. In tale ambito viene ricordato che l’Unione Europea ha da tempo indicato come obiettivo prioritario il miglioramento della sicurezza stradale e nel 2001 ha fissato il traguardo di dimezzare entro il 2010 il numero delle vittime degli incidenti stradali. Non ultima, l’approvazione da parte del Parlamento europeo e del Consiglio di un atto legislativo (d’imminente pubblicazione sulla GU Europea) relativo alla gestione della sicurezza in tutte le fasi della pianificazione, della progettazione e del funzionamento delle infrastrutture stradali, in cui si evidenzia l’esigenza di una quantificazione della sicurezza stradale. In tale contesto viene sottolineato come uno dei maggiori problemi nella gestione della sicurezza stradale sia la mancanza di un metodo affidabile per stimare e quantificare il livello di sicurezza di una strada esistente o in progetto. Partendo da questa considerazione la tesi si sviluppa mettendo in evidenza le grandezza fondamentali nel problema della sicurezza stradale, (grado di esposizione, rischio d’incidente e le possibili conseguenze sui passeggeri) e analizzando i sistemi adottati tradizionalmente per effettuare analisi di sicurezza: • Statistiche dei dati storici d’incidente; • Previsione da modelli basati su analisi di regressione dei dati incidentali; • Studi Before-After; • Valutazione da giudizi di esperti. Dopo aver analizzato gli aspetti positivi e negativi delle alternative in parola, viene proposto un nuovo approccio, che combina gli elementi di ognuno dei metodi sopra citati in un algoritmo di previsione incidentale. Tale nuovo algoritmo, denominato Interactive Highway Safety Design Model (IHSDM) è stato sviluppato dalla Federal Highway Administration in collaborazione con la Turner Fairbank Higway Research Center ed è specifico per le strade extraurbane a due corsie. Il passo successivo nello sviluppo della tesi è quello di un’analisi dettagliata del modello IHSDM che fornisce il numero totale di incidenti previsti in un certo intervallo temporale. Viene analizzata la struttura del modello, i limiti d’applicabilità, le equazioni che ne sono alla base e i coefficienti moltiplicativi relativi ad ogni caratteristica geometrica e funzionale. Inoltre viene presentata un’ampia analisi di sensibilità che permette di definire quale sia l’influenza d’ogni singolo Fattore di Previsione incidentale (Accident Predication Factor) sul risultato finale. Dai temi trattati, emerge chiaramente come la sicurezza è legata a più sistemi tra loro interconnessi e che per utilizzare e migliorare i modelli previsionali è necessario avere a disposizione dati completi, congruenti, aggiornati e facilmente consultabili. Infatti, anche quando sono disponibili elementi su tutti gli incidenti avvenuti, spesso mancano informazioni di dettaglio ma fondamentali, riguardanti la strada come ad esempio il grado di curvatura, la larghezza della carreggiata o l’aderenza della pavimentazione. In tale ottica, nella tesi viene presentato il Sistema Informativo Stradale (SIS) della Provincia di Bologna, concepito come strumento di gestione delle problematiche inerenti la viabilità e come strumento di supporto per la pianificazione degli interventi e la programmazione delle risorse da investire sulla rete. Viene illustrato come il sistema sia in grado di acquisire, elaborare ed associare dati georeferenziati relativi al territorio sia sotto forma di rappresentazioni grafiche, sia mediante informazioni descrittive di tipo anagrafico ed alfanumerico. Quindi viene descritto il rilievo ad alto rendimento, effettuato con l’ausilio di un laboratorio mobile multifunzionale (Mobile Mapping System), grazie al quale è stato possibile definire con precisione il grafo completo delle strade provinciali e il database contenente i dati relativi al patrimonio infrastrutturale. Tali dati, relativi alle caratteristiche plano-altimetriche dell’asse (rettifili, curve planimetriche, livellette, raccordi altimetrici, ecc...), alla sezione trasversale (numero e larghezza corsie, presenza di banchine, ecc..), all’ambiente circostante e alle strutture annesse vengono presentati in forma completa specificando per ognuno la variabilità specifica. Inoltre viene evidenziato come il database si completi con i dati d’incidentali georeferenziati sul grafo e compresivi di tutte le informazioni contenute nel modello ISTAT CTT/INC spiegandone le possibili conseguenze sul campo dell’analisi di sicurezza. La tesi si conclude con l’applicazione del modello IHSDM ad un caso reale, nello specifico la SP255 di S.Matteo Decima. Infatti tale infrastruttura sarà oggetto di un miglioramento strutturale, finanziato dalla Regione Emilia Romagna, che consistente nell’allargamento della sede stradale attraverso la realizzazione di una banchina pavimentata di 1.00m su entrambi i lati della strada dalla prog. km 19+000 al km 21+200. Attraverso l’utilizzo dell’algoritmo di previsione incidentale è stato possibile quantificare gli effetti di questo miglioramento sul livello di sicurezza dell’infrastruttura e verificare l’attendibilità del modello con e senza storia incidentale pregressa. Questa applicazione ad un caso reale mette in evidenza come le informazioni del SIS possano essere sfruttate a pieno per la realizzazione di un analisi di sicurezza attraverso l’algoritmo di previsione incidentale IHSDM sia nella fase di analisi di uno specifico tronco stradale che in quella fondamentale di calibrazione del modello ad una specifica rete stradale (quella della Provincia di Bologna). Inoltre viene sottolineato come la fruibilità e la completezza dei dati a disposizione, possano costituire la base per sviluppi di ricerca futuri, come ad esempio l’indagine sulle correlazioni esistenti tra le variabili indipendenti che agiscono sulla sicurezza stradale.
Resumo:
Con la crescente diffusione del web e dei servizi informatici offerti via internet, è aumentato in questi anni l’utilizzo dei data center e conseguentemente, il consumo di energia elettrica degli stessi. Il problema ambientale che comporta l’alto fabbisogno energetico, porta gli operatori di data center ad utilizzare tecniche a basso consumo e sistemi efficienti. Organizzazioni ambientali hanno rilevato che nel 2011 i consumi derivanti dai data center raggiungeranno i 100 milioni di kWh, con un costo complessivo di 7,4 milioni di dollari nei soli Stati Uniti, con una proiezione simile anche a livello globale. La seguente tesi intende valutare le tecniche in uso per diminuire il consumo energetico nei data center, e quali tecniche vengono maggiormente utilizzate per questo scopo. Innanzitutto si comincerà da una panoramica sui data center, per capire il loro funzionamento e per mostrare quali sono i componenti fondamentali che lo costituiscono; successivamente si mostrerà quali sono le parti che incidono maggiormente nei consumi, e come si devono effettuare le misurazioni per avere dei valori affidabili attraverso la rilevazione del PUE, unità di misura che valuta l’efficienza di un data center. Dal terzo capitolo si elencheranno le varie tecniche esistenti e in uso per risolvere il problema dell’efficienza energetica, mostrando alla fine una breve analisi sui metodi che hanno utilizzato le maggiori imprese del settore per risolvere il problema dei consumi nei loro data center. Lo scopo di questo elaborato è quello di capire quali sono le tecniche e le strategie per poter ridurre i consumi e aumentare l’efficienza energetica dei data center.
Resumo:
L’area di progetto, sulla quale convergono parti costruite in tempi e modalità diverse, si confronta con limiti importanti rispetto ai quali il progetto viene declinato in modi differenti: la via Emilia, la ferrovia, l’intervento Gregotti, sull’area dell’ex Zuccherificio, il lungo Savio e la vicinanza con lo svincolo della secante; tramite il progetto si vuole disegnare un ingresso per la città di Cesena, ridefinendone i margini e un fronte per la ferrovia e per la strada. L’intento è di lavorare a un progetto a scala urbana, capace di confrontarsi con la città e di instaurare con essa un rapporto di complementarietà e integrazione. La particolare articolazione dell’area ha comportato uno studio preciso della geometria che regolasse il disegno planimetrico, in modo da chiarire le relazioni fra i diversi edifici e fra essi e gli spazi vuoti; tentando di definire un sistema di gerarchie e allineamenti chiaro e riconoscibile. La rete dei percorsi che collega i nuovi spazi, alcuni pubblici altri privati, tenta di ristabilire quel sistema di relazioni e di riprodurre quella complessità che sono l’elemento fondante della città. L’intero progetto è trattato in modo unitario, perciò se da un lato il campus è un sistema autonomo, con funzioni proprie, allo stesso tempo si relaziona a tutto il resto grazie al parco e ai percorsi accompagnati dal sistema dei portici; si crea in tal modo uno spazio articolato che concilia al suo interno l’elemento naturale, l’urbanizzazione residenziale e gli edifici dell’università; in modo che diventi un complesso riconoscibile e allo stesso tempo integrato nella città e fruibile dai cittadini.
Resumo:
L’ecografia è la metodica diagnostica più utilizzata come screening e follow-up nei pazienti epatopatici con o senza lesioni focali e questo grazie alle sue peculiari caratteristiche, che sono date dall’essere real-time, maneggevole, priva di radiazioni ionizzanti e con bassi costi. Tuttavia tale metodica se confrontata con la TC o la RMN, può avere importanti limiti, quali l’impossibilità di visualizzare piccole lesioni localizzate in aree anatomicamente “difficili” o in pazienti obesi, che sono già state identificate con altre tecniche, come la TC o la RMN. Per superare queste limitazioni sono stati introdotti dei sistemi di “fusione d’immagine” che consentono di sincronizzare in tempo reale una metodica real time con bassa risoluzione spaziale come l’ecografia ed una statica ad alta risoluzione come la TC o la RMN. Ciò si ottiene creando attorno al paziente un piccolo campo elettromagnetico costituito da un generatore e da un rilevatore applicato al trasduttore ecografico ed introducendo in un computer abbinato all’ecografo il “volume rendering” dell’addome del paziente ottenuto mediante TC multistrato o RM. Il preciso “ appaiamento spaziale “ delle due metodiche si ottiene individuando in entrambe lo stesso piano assiale di riferimento e almeno 3-4 punti anatomici interni. Tale sistema di fusione d’immagine potrebbe essere molto utile in campo epatologico nella diagnostica non invasiva del piccolo epatocarcinoma, che secondo le ultime linee guida, nei noduli di dimensioni fra 1 e 2 cm, richiede una concordanza nel comportamento contrastografico della lesione in almeno due tecniche d’immagine. Lo scopo del nostro lavoro è stato pertanto quello di valutare, in pazienti epatopatici, il contributo che tale sistema può dare nell’identificazione e caratterizzazione di lesioni inferiori a 20 mm, che erano già state identificate alla TC o alla RMN come noduli sospetti per HCC, ma che non erano stati visualizzati in ecografia convenzionale. L’eventuale re-identificazione con l’ecografia convenzionale dei noduli sospetti per essere HCC, può permettere di evitare, alla luce dei criteri diagnostici non invasivi un’ ulteriore tecnica d’immagine ed eventualmente la biopsia. Pazienti e Metodi: 17 pazienti cirrotici (12 Maschi; 5 Femmine), con età media di 68.9 +/- 6.2 (SD) anni, in cui la TC e la RMN con mezzo di contrasto avevano identificato 20 nuove lesioni focali epatiche, inferiori a 20 mm (13,6 +/- 3,6 mm), sospette per essere epatocarcinomi (HCC), ma non identificate all’ecografia basale (eseguita in cieco rispetto alla TC o alla RMN) sono stati sottoposti ad ecografia senza e con mezzo di contrasto, focalizzata su una zona bersaglio identificata tramite il sistema di fusione d’immagini, che visualizza simultaneamente le immagini della TC e della RMN ricostruite in modalità bidimensionale ( 2D), tridimensionale ( 3 D) e real-time. La diagnosi finale era stata stabilita attraverso la presenza di una concordanza diagnostica, secondo le linee guida internazionali o attraverso un follow-up nei casi di discordanza. Risultati: Una diagnosi non invasiva di HCC è stata raggiunta in 15/20 lesioni, inizialmente sospettate di essere HCC. Il sistema di fusione ha identificato e mostrato un comportamento contrastografico tipico in 12/15 noduli di HCC ( 80%) mentre 3/15 HCC (20%) non sono stati identificati con il sistema di fusione d’immagine. Le rimanenti 5/20 lesioni non sono state visualizzate attraverso i sistemi di fusione d’immagine ed infine giudicate come falsi positivi della TC e della RMN, poiché sono scomparse nei successivi mesi di follow-up e rispettivamente dopo tre, sei, nove, dodici e quindici mesi. Conclusioni: I nostri risultati preliminari mostrano che la combinazione del sistema di fusione dell’immagine associata all’ecografia senza e con mezzo di contrasto (CEUS), migliora il potenziale dell’ecografia nell’identificazione e caratterizzazione dell’HCC su fegato cirrotico, permettendo il raggiungimento di una diagnosi, secondo criteri non invasivi e slatentizzazndo casi di falsi positivi della TC e della RMN.
Resumo:
Presentiamo alcune proposte di modifica alle superfici di suddivisione di Catmull-Clark, per garantire la continuità del secondo ordine anche nei vertici straordinari e una buona qualità di forma. La ricerca di questi miglioramenti è motivata dal tentativo di integrazione delle superfici di suddivisione in un sistema di modellazione geometrica in contesto CAD/CAGD, il quale richiede che certi requisiti di regolarità e qualità siano soddisfatti. Illustriamo due approcci differenti per la modifica della superficie limite. Il primo prevede il blending tra la superficie originale e una superficie polinomiale approssimante, definita opportunamente, in modo tale da ottenere la regolarità desiderata. Il secondo metodo consiste nella sostituzione della superficie di Catmull-Clark con un complesso di patch di Gregory bicubici e adeguatamente raccordati. Insieme all’attività di analisi, riformulazione ed estensione di queste proposte, abbiamo realizzato una implementazione in codice C/C++ e OpenGL (con programmi accessori scritti in MATLAB e Mathematica), finalizzata alla sperimentazione e alla verifica delle caratteristiche dei metodi presentati.
Resumo:
Il lavoro della presente Tesi è stato lo sviluppo della sintesi asimmetrica di aziridine chirali a partire da chetoni α,β-insaturi α-sostituiti, verificando la possibilità di applicare ammine primarie come organocatalizzatori attraverso un meccanismo tandem ione imminio-enammina. Nelle nostre prove le migliori ammine primarie si sono rivelate gli pseudoenantiomeri 9-ammino-9-deossi-epi-idrochinina e idrochinidina, e i migliori acidi per formare il sale catalitico sono stati acido trifluoroacetico (TFA) e acido salicilico. Il fattore chiave per le reazioni di aziridinazione è stata la scelta della molecola sorgente di azoto, che deve avere comportamento nucleofilico nel primo step di aza-Michael (via ione imminio), e comportamento elettrofilico nello step di chiusura del ciclo (via enammina). Le prove preliminari sono state condotte con il sale catalitico formato dalla 9-ammino-9-deossi-epi-idrochinina e TFA in toluene a 50 °C. Migliori risultati sono stati ottenuti sostituendo la sorgente di azoto utilizzata inizialmente e utilizzando il sale catalitico composto da 9-ammino-9-deossi-epi-idrochinidina e acido salicilico in toluene a 50 °C. In questo caso la resa è stata pari a 56% ed eccesso enantiomerico (ee) del 90%. Sfruttando quindi le condizioni ottimizzate inizialmente, abbiamo provato la reazione su altri due chetoni con maggiore ingombro sterico rispetto a quello utilizzato per l’ottimizzazione iniziale del processo. In entrambi i casi la reattività è stata sensibilmente inferiore a quanto atteso, con rese non superiori al 14%. Inoltre anche i valori di ee sono stati poco soddisfacenti. Ipotizziamo che questi risultati deludenti siano causati dall’ingombro sterico della catena in posizione β che impedisce l’avvicinamento del catalizzatore, il quale, non creando un intorno asimmetrico, non crea una distinzione tra le due possibili direzioni di attacco del nucleofilo. Da questi ultimi risultati sembra che la reazione di aziridinazione da noi ottimizzata sia per ora limitata al solo chetone utilizzato nella fase iniziale del lavoro. Al fine di estendere l’applicazione di queste condizioni, nel futuro saranno effettuate prove anche con altri chetoni α,β-insaturi α-sostituiti, ma che non presentino sostituzione in posizione β, dato che abbiamo osservato che essa rappresenta il maggiore limite per la reattività e selettività. Infine sarà importante determinare la configurazione assoluta del prodotto finora ottenuto, mediante spettroscopia ECD e VCD. E’ infatti importante conoscere tutte le caratteristiche chimiche e fisiche di prodotto ottenuto, in modo da avere maggiore conoscenza del processo da noi sviluppato, per poterlo migliorare ed estenderne l’applicabilità in futuro.
Resumo:
The research focuses on the implementation and validation of advanced direct and indirect methods of investigation for the structural and mechanical characterisation of bimrocks. In particular, a non conventional in situ shear test has been develop in order to evaluate the strength parameters of bimrocks by properly taking into account the influence of blocks. Also, a geostatistical approach has been introduced for the investigation of block morphological and spatial properties from digital images, by means of a variographic analysis of the block Indicator Variable.
Resumo:
Questa tesi di laurea ha un duplice scopo: da un lato l’analisi delle caratteristiche delle balle di paglia usate come materiale da costruzione, dall’altro la valutazione ambientale tramite metodologia LCA di un intervento di reinsediamento post-sisma a Pescomaggiore, in Abruzzo, realizzato con edifici in balle di paglia autocostruiti. Nella parte prima si focalizza l’attenzione sulle direttive europee e i loro recepimenti italiani a cui fare riferimento per le gestione energetica degli edifici, oltre ad una panoramica sulla certificazione energetica. Si riportano inoltre sinteticamente quelle parti della normativa edilizia che riguardano le costruzioni con materiali innovativi. La parte seconda è il frutto di una lunga fase di ricerca bibliografica, in cui si è cercato di fare chiarezza sulle caratteristiche della paglia: traspirabilità, isolamento termico, resistenza al fuoco e fonoassorbenza le parti su cui si è maggiormente rivolta l’attenzione. Nella parte terza viene descritta dettagliatamente la metodologia LCA, e in particolare la sua applicazione nel campo dell’edilizia: le diverse fasi in cui si compone, l’uso di software e di banche dati appropriate e i metodi più utilizzati per l’analisi degli impatti. Nella quarta ed ultima parte viene descritto dettagliatamente il caso di studio: una delle case di paglia dell’Ecovillaggio di Pescomaggiore; segue una descrizione accurata della fase di inventario, effettuata anche tramite un sopralluogo in sito. Infine vengono riportati e commentati i risultati dell’analisi, ed espresse considerazioni e proposte migliorative.
Resumo:
Environmental Management includes many components, among which we can include Environmental Management Systems (EMS), Environmental Reporting and Analysis, Environmental Information Systems and Environmental Communication. In this work two applications are presented: the developement and implementation of an Environmental Management System in local administrations, according to the European scheme "EMAS", and the analysis of a territorial energy system through scenario building and environmental sustainability assessment. Both applications are linked by the same objective, which is the quest for more scientifically sound elements; in fact, both EMS and energy planning are oftec carachterized by localism and poor comparability. Emergy synthesis, proposed by ecologist H.T. Odum and described in his book "Environmental Accounting: Emergy and Environmental Decision Making" (1996) has been chosen and applied as an environmental evaluation tool, in order complete the analysis with an assessment of the "global value" of goods and processes. In particular, eMergy syntesis has been applied in order to improve the evaluation of the significance of environmental aspects in an EMS, and in order to evaluate the environmental performance of three scenarios of future evolution of the energy system. Regarding EMS, in this work an application of an EMS together with the CLEAR methodology for environmental accounting is discussed, in order to improve the identification of the environmental aspects; data regarding environmental aspects and significant ones for 4 local authorities are also presented, together with a preliminary proposal for the integration of the assessment of the significance of environmental aspects with eMergy synthesis. Regarding the analysis of an energy system, in this work the carachterization of the current situation is presented together with the overall energy balance and the evaluation of the emissions of greenhouse gases; moreover, three scenarios of future evolution are described and discussed. The scenarios have been realized with the support of the LEAP software ("Long Term Energy Alternatives Planning System" by SEI - "Stockholm Environment Institute"). Finally, the eMergy synthesis of the current situation and of the three scenarios is shown.