45 resultados para Jesucrist-Passió-Culte

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L' argomento di questa tesi tratta l'analisi di una copertura reticolare a forma libera di grande luce. Partendo da una modellazione FEM della reticolare risolta al calcolatore si è cercato un metodo di analisi semplificato alternativo per l'individuazione approssimata delle sollecitazioni che nascono in seguito ai carichi. Ripercorrendo i passi sviluppati dal metodo americano per il calcolo dei solai a fungo, si individuano le sezioni portanti principali della forma strutturale, deducendo l'andamento del momento flettente dagli sforzi in corrispondenza dei correnti tesi e compressi. Sulle stesse sezioni sono stati costruiti dei modelli mono e bidimensionali semplificati che cercano di rappresentare, con diversa scala di precisione, l'andamento della sollecitazione flettente realmente presente nella struttura. Dall'analisi del momento flettente risultante dai modelli monodimensionali si individuano le modifiche effettuabili sulla geometria strutturale con lo scopo di migliorarne la risposta globale ed i parametri di progetto utili per il dimensionamento. Al termine si sono confrontati i risultati ottenuti dalle due strutture analizzate, ovvero con o senza le modifiche alla geometria, riportando alcuni parametri caratteristici del comportamento strutturale e traendo così conclusioni sulla soluzione migliore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Rocca delle Caminate nella coscienza e nell’immaginario Ben volentieri mi sono occupato dell’ambizioso progetto di restauro e recupero funzionale della Rocca delle Caminate, perché se è vero che il complesso ha rivestito un’importanza rilevante sotto il profilo storico e politico di questa parte di Romagna, è pur vero che vive nei miei ricordi fin dall’epoca dell’infanzia, ed è venuto acquistando nel tempo un preciso valore nella mia coscienza e nel mio immaginario. Questa rocca, questa fortificazione, questa torre che si staglia all’orizzonte dominando con austerità le amene vallate, l’ho sempre veduta e ha sempre sollevato in me suggestioni e interrogativi che però non mi ero mai preoccupato di chiarire: ero, per così dire, rimasto fedele alla mia emotività e mi erano bastati i racconti di nonna che andava spesso rammentando di quando, durante il ventennio fascista, insieme alle sorelle percorreva a piedi i sentieri che dalla vicina Dogheria conducevano alle Caminate, in occasione di una tal festa o di una tal funzione religiosa. Le sue parole e i suoi racconti continuano a donarmi un po’ del profumo dell’epoca, e fa specie notare come ancora oggi – in un tempo che fa dello sfavillio delle luci sfoggio di opulenza e miraggio di benessere – vengano puntualmente traditi dall’ammirazione per un faro che all’epoca ruotava emanando luce verde, bianca e rossa: quella del tricolore italiano. La Rocca delle Caminate – dicevo – è sempre stata una veduta familiare e fin troppo consuetudinaria, nei cui riguardi ero quasi giunto a una sorta d’indolenza intellettuale. Eppure, alla vigilia di decidere l’oggetto di questa tesi, ho volto lo sguardo ancora verso la “torre che domina a meraviglia il circostante paese”, ma in questa circostanza trovandomi cambiato: non più solo emozionato dal racconto nella memoria degli anziani, bensì spinto a una sfida anche per onorare il loro attaccamento verso questa fortificazione. È un popolo, quello che ho trovato, che mi ha stupito alquanto per la capacità di ricordare. Voglio dire ricordo, non trasognata visione; sottolineo fulgida testimonianza, non di rado animata dalla fierezza di chi sente fortemente il radicamento a una terra e rivendica il diritto di poter un giorno rivedere la ‘propria’ Rocca come l’ha veduta un tempo, poterla finalmente visitare e toccare, al di là di ogni colore politico, al di là di ogni vicenda passata, bella o brutta che sia. Poterla, in concreto, vivere. Così, un giorno ho varcato il limite dell’ingresso della Rocca e ho iniziato a camminare lungo il viale che conduce al castello; mi sono immerso nel parco e ho goduto della frescura dei pini, dei frassini e dei cipressi che fanno da contorno alla fortificazione. Certamente, ho avvertito un po’ di soggezione giunto ai piedi dell’arce, e mi è sorto spontaneo pormi alcune domande: quanti fanti e cavalieri saranno giunti a questa sommità in armi? Quanti ne saranno morti travolti nella furia della battaglia? Quanti uomini avranno provveduto alla sicurezza di questi bastioni oggi privati per sempre delle originarie mura difensive? Quanti castellani avranno presieduto alla difesa del castro? Ma più che a ogni altra cosa, il mio pensiero è andato a un protagonista della storia recente, a Benito Mussolini, che fra la fine degli anni venti e l’inizio degli anni trenta aveva eletto questo luogo a dimora estiva. Camminando lungo i corridoi della residenza e visitando le ampie stanze, nel rimbombo dei miei passi è stato pressoché impossibile non pensare a quest’uomo che si riconosceva in un duce e che qui ha passato le sue giornate, qui ha indetto feste, qui ha tenuto incontri politici e ha preso importanti decisioni. Come dimenticare quel mezzobusto, quella testa, quella postura impettita? Come dimenticare quello sguardo sempre un po’ accigliato e quei proclami che coglievano il plauso delle masse prima ancora di essere compiutamente formulati? In questo clima, fra castellani, capitani, cavalieri e duces di ogni epoca, sono entrato in punta di piedi, procedendo ai rilevamenti e ai calcoli per la realizzazione di questo progetto. È vero, non è stato facile muoversi nel silenzio che avvolge questo posto magico senza romperne l’incanto, e se a volte, maldestramente, ho fatto più rumore del solito, me ne rammarico. Sono sicuro che questi illustri signori sapranno scusarmene.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella definizione di incidente rilevante presente nelle Direttive Seveso, come pure nel loro recepimento nella legislazione italiana, rientrano eventi incidentali che abbiano conseguenze gravi per il bersaglio “ambiente”, sia in concomitanza sia in assenza di effetti dannosi per l’uomo. Tuttavia, a fronte di questa attenzione al bersaglio “ambiente” citata dalle norme, si constata la mancanza di indici quantitativi per la stima del rischio di contaminazione per i diversi comparti ambientali e, conseguentemente, anche di metodologie per il loro calcolo. Misure di rischio quantitative consolidate e modelli condivisi per la loro stima riguardano esclusivamente l’uomo, con la conseguenza che la valutazione di rischio per il bersaglio “ambiente” rimane ad un livello qualitativo o, al più, semi-quantitativo. Questa lacuna metodologica non consente di dare una piena attuazione al controllo ed alla riduzione del rischio di incidente rilevante, secondo l’obiettivo che le norme stesse mirano a raggiungere. E d‘altra parte il verificarsi periodico di incidenti con significativi effetti dannosi per l’ambiente, quali, ad esempio lo sversamento di gasolio nel fiume Lambro avvenuto nel febbraio 2010, conferma come attuale e urgente il problema del controllo del rischio di contaminazione ambientale. La ricerca presentata in questo lavoro vuole rappresentare un contributo per colmare questa lacuna. L’attenzione è rivolta al comparto delle acque superficiali ed agli sversamenti di liquidi oleosi, ovvero di idrocarburi insolubili in acqua e più leggeri dell’acqua stessa. Nel caso in cui il rilascio accidentale di un liquido oleoso raggiunga un corso d’acqua superficiale, l’olio tenderà a formare una chiazza galleggiante in espansione trasportata dalla corrente e soggetta ad un complesso insieme di trasformazioni fisiche e chimiche, denominate fenomeni di “oil weathering”. Tra queste rientrano l’evaporazione della frazione più volatile dell’olio e la dispersione naturale dell’olio in acqua, ovvero la formazione di una emulsione olio-in-acqua nella colonna d’acqua al di sotto della chiazza di olio. Poiché la chiazza si muove solidale alla corrente, si può ragionevolmente ritenere che l’evaporato in atmosfera venga facilmente diluito e che quindi la concentrazione in aria dei composti evaporati non raggiunga concentrazioni pericolose esternamente alla chiazza stessa. L’effetto fisico dannoso associato allo sversamento accidentale può pertanto essere espresso in doversi modi: in termini di estensione superficiale della chiazza, di volume di olio che emulsifica nella colonna d’acqua, di volume della colonna che si presenta come emulsione olio-in-acqua, di lunghezza di costa contaminata. In funzione di questi effetti fisici è possibile definire degli indici di rischio ambientale analoghi alle curve di rischio sociale per l’uomo. Come una curva di rischio sociale per l’uomo esprime la frequenza cumulata in funzione del numero di morti, così le curve di rischio sociale ambientale riportano la frequenza cumulata in funzione dell’estensione superficiale della chiazza, ovvero la frequenza cumulata in funzione del volume di olio che emulsifica in acqua ovvero la frequenza cumulata in funzione del volume di colonna d’acqua contaminato ovvero la frequenza cumulata in funzione della lunghezza di costa contaminata. Il calcolo degli indici di rischio così definiti può essere effettuato secondo una procedura analoga al calcolo del rischio per l’uomo, ovvero secondo i seguenti passi: 1) descrizione della sorgente di rischio; 2) descrizione del corso d’acqua che può essere contaminato in caso di rilascio dalla sorgente di rischio; 3) identificazione, degli eventi di rilascio e stima della loro frequenza di accadimento; 4) stima, per ogni rilascio, degli effetti fisici in termini di area della chiazza, di volume di olio emulsificato in acqua, di volume dell’emulsione olio-in-acqua, lunghezza di costa contaminata; 5) ricomposizione, per tutti i rilasci, degli effetti fisici e delle corrispondenti frequenze di accadimento al fine di stimare gli indici di rischio sopra definiti. Al fine di validare la metodologia sopra descritta, ne è stata effettuata l’applicazione agli stabilimenti a rischio di incidente rilevante presenti nei bacini secondari che fanno parte del bacino primario del Po. E’ stato possibile calcolare gli indici di rischio per ogni stabilimento, sia in riferimento al corso d’acqua del bacino secondario a cui appartengono, sia in riferimento al Po, come pure ottenere degli indici di rischio complessivi per ogni affluente del Po e per il Po stesso. I risultati ottenuti hanno pienamente confermato la validità degli indici di rischio proposti al fine di ottenere una stima previsionale del rischio di contaminazione dei corsi d’acqua superficiali, i cui risultati possano essere utilizzati per verificare l’efficacia di diverse misure di riduzione del rischio e per effettuare una pianificazione d’emergenza che consenta, in caso di incidente, di contenere, recuperare e favorire la dispersione dell’olio sversato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’elaborazione di questa tesi è stata svolta con l’ausilio di strumenti di Business Intelligence. In particolare, si è dapprima alimentato un data warehouse territoriale, in cui sono stati inseriti, dopo averli elaborati, i dati messi a disposizione dagli osservatori territoriali nazionali e dall’azienda Geofor spa. A partire da questi, sono stati prodotti degli indicatori statistici e dei report, utili per evidenziare andamenti e trend di crescita di alcuni particolari indici. Il principale strumento utilizzato è StatPortal, un portale Web di Business Intelligence OLAP per la realizzazione di Data warehouse territoriali. L’argomento sarà approfondito nel capitolo sette, dedicato agli strumenti utilizzati, ma in breve, questo sistema consente di raccogliere, catalogare e condividere informazione statistica e geostatistica, nonché di produrre indicatori e reportistica. Il lavoro è organizzato come segue: inizialmente c’è una prima parte di definizione e classificazione dei rifiuti che ha l’obiettivo di permettere al lettore di inquadrare il tema e prendere coscienza del problema. Successivamente, è stata sviluppata una parte più storica, con una rapida analisi temporale per comprendere il “tipping point”, cioè il momento in cui i rifiuti hanno iniziato a essere percepiti come un problema per la comunità, concludendo con un accenno agli scenari attuali e futuri. In seguito, si è indirizzata l’attenzione sul panorama italiano, europeo e mondiale citando alcuni interessanti e originali esempi di efficienza nella gestione dei rifiuti, che potrebbero servire da spunto per qualche stakeholder nazionale. Si è poi introdotta quella che è la normativa vigente, sottolineando quali sono gli obiettivi che impone ed entro quali tempi dovranno essere raggiunti, elencando quindi i principi fondamentali del D.lgs.152/2006 e del D.lgs 36/2003. Continuando su questo filo logico, si è voluto introdurre al lettore, la questione dei Rifiuti Solidi Urbani (RSU) nel Comune di Pisa. Sono stati definiti: lo stato dell’arte dell’igiene urbana pisana, i sistemi implementati nella città con i vari pregi e difetti e quali sono state le azioni pratiche messe in atto dall’Amministrazione per far fronte al tema. Il capitolo sei rappresenta uno dei due punti focali dell’intero lavoro: il Rapporto sullo Stato dell’Ambiente della città di Pisa in tema di rifiuti urbani. Qui saranno analizzati i vari indici e report prodotti ad hoc con lo strumento Statportal appena menzionato, con lo scopo di segnalare evidenze e obiettivi dell’Amministrazione. Nel settimo capitolo si analizza la fase di progettazione del Data Warehouse. Sono elencati i passi fondamentali nella costruzione di un DW dimensionale, esponendone in primo luogo la specifica dei requisiti del progetto ed elencando per ognuno di essi le dimensioni, le misure e le aggregazioni relative. In seguito saranno descritti nel dettaglio la fase di progettazione concettuale e lo schema logico. In ultimo, sarà presentato l’altro punto focale di questa tesi, nonché la parte più interattiva: un portale web creato appositamente per il Comune con l’obiettivo di coinvolgere ed aiutare i cittadini nel conferimento dei rifiuti da loro prodotti. Si tratta di una sorta di manuale interattivo per individuare come eseguire una corretta differenziazione dei rifiuti. Lo scopo primario è quello di fare chiarezza alle utenze nella differenziazione, il che, in maniera complementare, dovrebbe incrementare la qualità del rifiuto raccolto, minimizzando i conferimenti errati. L’obiettivo principale di questo lavoro resta quindi il monitoraggio e l’analisi delle tecniche e dei processi di gestione dei rifiuti nel Comune di Pisa. Analogamente si vuole coinvolgere e suscitare l’interesse del maggior numero di persone possibile al tema della sostenibilità ambientale, rendendo consapevole il lettore che il primo passo verso un mondo più sostenibile spetta in primis a Noi che quotidianamente acquistiamo, consumiamo ed infine gettiamo via i residui senza troppo preoccuparci. Il fatto che anche in Italia, si stia sviluppando un senso civico e una forte responsabilizzazione verso l’ambiente da parte dei cittadini, fa ben sperare. Questo perché si è riusciti a imprimere il concetto che le soluzioni si ottengano impegnandosi in prima persona. E’ alla nostra comunità che si affida il dovere di non compromettere l’esistenza delle generazioni future, incaricandola del compito di ristabilire un equilibrio, ormai precario, tra umanità e ambiente, se non altro perché, come recita un vecchio proverbio Navajo: “il mondo non lo abbiamo in eredità dai nostri padri ma lo abbiamo in prestito dai nostri figli”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell’ultimo decenno si è assisitito ad una frenetica evoluzione delle tecnologie di connessione e trasferimento dati, dagli impianti di fibra ottica sempre più diffusi e performanti, alle varie tecnologie mobile UMTS e LTE. Tutto ciò ha permesso a sempre più persone di poter spendere una maggiore fetta del proprio tempo sulla rete sia per svago che per lavoro. Questo ha portato col tempo l’utente interattivo alla ricerca di servizi remoti che prima usufruiva in locale, sia per motivi di portabilità e di interconnessione, sia per una semplice questione di sincronizzazione fra i vari dispositivi posseduti. Il presente progetto di tesi si pone come obiettivo di indagare con occhio ingegneristico all’evoluzione della struttura del web fino ad identificare e analizzare l’attuale necessità di poter avere in rete tutti quei servizi anche completi e strutturalmente complessi che prima si aveva sul proprio desktop; tutto ciò attraverso l’esempio di un nuovo linguaggio di sviluppo per applicazioni web strutturate proposto da Google: DART. In questa analisi non si potrà prescindere dallo studio attento della tecnologia che sin dagli inizi della rete ha fatto da struttura al web ovvero l’Html e il suo ultimo standard Hmtl5. Nella prima parte verrà mostrata, attraverso un breve percorso, la nascita e lo sviluppo del web, sino ai giorni nostri. Si effettuerà quindi una panoramica, rivisitando tutti più importanti passi che hanno portato la rete internet ad essere ciò che oggi utilizziamo, ponendo una particolare attenzione alle attuali esigenze di progettazione della struttura dei servizi web. Nel secondo capitolo viene introdotta la tecnologia a base del web, l’Html; attraverso una breve analisi dell’evoluzione di quest’ultima si arriverà sino all’attuale HTML5 e alle funzionalità offerte nell’ottica della programmazione web strutturata. Nel terzo capitolo si analizzerà in maniera più approfondita la necessità di un web strutturato e le potenzialità del progetto Dart attraverso alcuni esempi esplicativi. Infine si trarranno alcune conclusioni sull’attuale situazione del web, sulla necessità di un web strutturato e sulla possibilità di riuscita del progetto Dart.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Progettazione ed implementazione di una strategia di migrazione da IPv4 a IPv6 in una realtà complessa come quella del consorzio interuniversitario CINECA. Sono stati presi in considerazione sia i livelli di rete e trasporto, sia il livello applicativo, cercando di fornire una visione completa delle problematiche incontrate. La strategia di migrazione scelta comprende le scelte tecniche fino ad ora implementate dal CINECA e i successivi passi che verranno intrapresi in futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi tratta dello sviluppo di un progetto chiamato Faxa e di una sua concreta applicazione nell’ambito della domotica (CasaDomotica). Faxa è un framework per la comunicazione via wireless tra dispositivi che supportano il sistema operativo Android e dispositivi Arduino Ethernet, comunicazione che avviene localmente attraverso il wi-fi. Il progetto si inserisce nel panorama più ampio chiamato “Internet of Things”, ovvero internet delle cose, dove ogni oggetto di uso domestico è collegato ad Internet e può essere quindi manipolato attraverso la rete in modo da realizzare una vera e propria “smart house”; perchè ciò si attui occorre sviluppare applicazioni semplici e alla portata di tutti. Il mio contributo comincia con la realizzazione del framework Faxa, così da fornire un supporto semplice e veloce per comporre programmi per Arduino e Android, sfruttando metodi ad alto livello. Il framework è sviluppato su due fronti: sul lato Android è composto sia da funzioni di alto livello, necessarie ad inviare ordini e messaggi all'Arduino, sia da un demone per Android; sul lato Arduino è composto dalla libreria, per inviare e ricevere messaggi. Per Arduino: sfruttando le librerie Faxa ho redatto un programma chiamato “BroadcastPin”. Questo programma invia costantemente sulla rete i dati dei sensori e controlla se ci sono ordini in ricezione. Il demone chiamato “GetItNow” è una applicazione che lavora costantemente in background. Il suo compito è memorizzare tutti i dati contenuti nei file xml inviati da Arduino. Tali dati corrispondono ai valori dei sensori connessi al dispositivo. I dati sono salvati in un database pubblico, potenzialmente accessibili a tutte le applicazioni presenti sul dispositivo mobile. Sul framework Faxa e grazie al demone “GetItNow” ho implementato “CasaDomotica”, un programma dimostrativo pensato per Android in grado di interoperare con apparecchi elettrici collegati ad un Arduino Ethernet, impiegando un’interfaccia video semplice e veloce. L’utente gestisce l’interfaccia per mezzo di parole chiave, a scelta comandi vocali o digitali, e con essa può accendere e spegnere luci, regolare ventilatori, attuare la rilevazione di temperatura e luminosità degli ambienti o quanto altro sia necessario. Il tutto semplicemente connettendo gli apparecchi all’Arduino e adattando il dispositivo mobile con pochi passi a comunicare con gli elettrodomestici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni la ricerca ha fatto grandi passi avanti riguardo ai metodi di progetto e realizzazione delle strutture portanti degli edifici, a tal punto da renderle fortemente sicure sotto tutti i punti di vista. La nuova frontiera della ricerca sta quindi virando su aspetti che non erano mai stati in primo piano finora: gli elementi non-strutturali. Considerati fino ad oggi semplicemente carico accessorio, ci si rende sempre più conto della loro capacità di influire sui comportamenti delle strutture e sulla sicurezza di chi le occupa. Da qui nasce l’esigenza di questo grande progetto chiamato BNCs (Building Non-structural Component System), ideato dall’Università della California - San Diego e sponsorizzato dalle maggiori industrie impegnate nel campo delle costruzioni. Questo progetto, a cui ho preso parte, ha effettuato test su tavola vibrante di un edificio di cinque piani in scala reale, completamente arredato ed allestito dei più svariati elementi non-strutturali. Lo scopo della tesi in questione, ovviamente, riguarda l’identificazione strutturale e la verifica della sicurezza di uno di questi elementi non-strutturali: precisamente la torre di raffreddamento posta sul tetto dell’edificio (del peso di circa 3 tonnellate). Partendo da una verifica delle regole e calcoli di progetto, si è passato ad una fase di test sismici ed ispezioni post-test della torre stessa, infine tramite l’analisi dei dati raccolti durante i test e si è arrivati alla stesura di conclusioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

“ Per anni ho creduto essere cresciuto in una periferia di Buenos Aires, periferia di strade avventurose e di tramonti visibili. In realtà sono cresciuto in un giardino, dietro le lance di un cancellata, e in una biblioteca di infiniti volumi inglesi. Quel Palermo del coltello e la chitarra (mi assicurano) era agli angoli delle strade, ma chi popolava le mie mattine e procurava un gradevole orrore alle mie notti erano il bucaniere cieco di Stevenson, agonizzante sotto gli zoccoli dei cavalli, e il traditore che abbandonò l’amico sulla luna, e il viaggiatore del tempo che riportò dal futuro un fiore appassito, e il genio prigioniero per secoli nell’anfora salomonica, e il profeta velato del Khorasan, che dietro le gemme e la seta nascondeva la lebbra. Cosa succedeva, nel frattempo, oltre le lance della cancellata? Quali destini vernacoli e violenti andavano compiendosi a pochi passi da me, nella sordida bettola o nello spazio turbolento? Com’era quel Palermo o come sarebbe stato bello che fosse? A tali domande vuole rispondere questo libro, più d’immaginazione che documentato.” E’ così che Jorge Luis Borges apre il libro Evaristo Carriego, saggio biografico che passò quasi inosservato all’interno degli ambienti intellettuali della capitale dei quali faceva parte lo scrittore stesso. Il libro era dedicato alla figura, estranea a quegli ambienti, del poeta “bohemien, tisico ed anarchico” Evaristo Carriego, vissuto tra otto e novecento nel quartiere Palermo, in quei tempi periferia malfamata di Buenos Aires. Buenos Aires è la città borgesiana per eccellenza: priva di caratteristiche tipologiche precise, volubile allo sguardo, specchio e metafora di tutte le grandi città del mondo. Ma soprattutto Buenos Aires è una città “inventata” da Borges, che le ha dato un’immagine letteraria che si relaziona in maniera complessa con quella reale. Segnerà nell’immaginario di Borges l’inizio e la fine della sua vita, una sorta di centralità, unico stralcio di stabilità, al quale l’inquieta mente dell’argentino possa far ritorno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si mostrano i passi seguiti nello sviluppo di un modello matematico e simulativo che mira a ricostruire il campo di flusso veicolare della rete stradale della regione Emilia Romagna. Si descrivono le fonti di dati utilizzate per la ricostruzione: dispositivi GPS a bassa capillarità e spire induttive su strada; si discute delle caratteristiche dei dati e dei problemi intrinseci e contingenti da cui sono affetti, nonché delle metodologie adottate nel tentativo di risolvere questi problemi. Si illustra l’idea centrale alla base delle ricostruzioni, e si descrive un criterio di validazione del modello. Si mostrano i risultati dei vari algoritmi ideati, ognuno affiancato dal parametro di validità, evidenziando quale metodo produca risultati migliori. Si conclude discutendo delle potenzialità del modello in termini di applicabilità in altre regioni o zone geografiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Scoprire come funziona la natura non è fine a se stesso. A volte ci vogliono anni, decenni o ancora di più per comprendere che una scoperta, che può risultare agli occhi dei più inutile, è in grado di cambiar la vita di molti. Può sembrare di aver buttato via soldi, tempo e intelletto. Ma la ricerca e lo studio pagano sempre. La qualità della vita è migliorata e migliorerà notevolmente grazie a chi si è impegnato e si impegna nella ricerca. Basti pensare alla corrente elettrica e al riscaldamento nelle nostre case; ai mezzi che ci permettono di spostarci sempre più velocemente in posti sempre più lontani; a modi di comunicare anch’essi più veloci e più fruibili. Anche la medicina ha fatto passi da gigante, spesso grazie alle applicazioni della fisica, soprattutto nel settore della fisica nucleare. Oggi sentiamo parlare di PET, di risonanza magnetica; tutti nella nostra vita abbiamo fatto una radiografa, ma pochi conoscono i principi che ci sono dietro queste tecniche mediche. In questa tesi sarà discusso in modo più accurato l’utilizzo della fissione nucleare e la sua storia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno dei principali passi della catena di produzione di circuiti integrati è quello di testare e valutare una serie di chip campione per verificare che essi rientrino nei valori e nelle specifiche scelte. Si tratta di un passaggio molto importante che determina le caratteristiche del prodotto nella realtà, mostrando le proprie capacità o i propri limiti, permettendo così di valutare un’eventuale produzione su larga scala. Ci permette inoltre di stimare quali dei chip rispetto agli altri presi in esame è migliore in alcuni aspetti, oppure quale risulta più lontano dalle specifiche volute. Il lavoro alle spalle di questa tesi è proprio questo: si è cercato di caratterizzare un microchip chiamato Carbonio, nato nei laboratori della II Facoltà di Ingegneria di Cesena, creando un banco di misura automatico, tramite l’ausilio del software Labview e di una scheda hardware realizzata ad hoc, che desse la possibilità di eseguire alcuni test consecutivi su ogni singolo circuito integrato in modo da caratterizzarlo estrapolando tutte le informazioni cercate e verificandone il funzionamento. Tutti i valori estratti sono stati poi sottoposti a una breve analisi statistica per stabilire per esempio quale circuito integrato fosse meno immune ai disturbi dovuti al rumore elettrico oppure per eseguire un’indagine al fine di vedere come i valori dei parametri scelti si disponessero rispetto ai lori rispettivi valori medi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tricuspide è la valvola meno studiata tra quelle cardiache e per questo motivo le conoscenze su questa sono in genere approssimative. Le poche conoscenze sulla valvola, inoltre, non garantiscono una elevata percentuale di successo di un intervento chirurgico. Fino a qualche anno fa i parametri utilizzati per studiare la valvola e determinare il grado di severità delle patologie che la colpiscono (insufficienza e stenosi) erano ricavati da immagini ecografie bidimensionali. Questi però molto spesso risultano inadeguati. Così i ricercatori, negli ultimi tempi, hanno elaborato metodi che utilizzano l’ecocardiografia tridimensionale anche per la valvola tricuspide (prima l’ecocardiografia in clinica era utilizzata per valutare le valvole della parte sinistra del cuore) e si sono potuti così rivalutare i parametri precedentemente ricavati con analisi bidimensionale. Tutto ciò ha avuto ricadute positive sulla terapia chirurgica che si è potuta avvalere di protesi valvolari più fisiologiche derivate dalle più precise conoscenze anatomiche e funzionali con ovvie conseguenze positive sul benessere dei pazienti trattati. Naturalmente questi sono solamente i primi passi che la ricerca ha compiuto in questo campo e si prospettano nuovi sviluppi soprattutto per quanto riguarda il software che dovrebbe essere implementato in modo tale che lo studio della valvola tricuspide diventi di routine anche nella pratica clinica. In particolare, lo studio della valvola tricuspide mediante eco 3D consentirebbe anche la valutazione pre- operatoria ed il planning paziente-specifico dell'intervento da effettuare. In particolare questo elaborato prevede nel capitolo 1 la trattazione dell’anatomia e della fisiologia della valvola, nel capitolo 2 la descrizione delle patologie che colpiscono la tricuspide, nel capitolo 3 i parametri che si possono ricavare con esami strumentali e in particolare con ecocardiografia bidimensionale e infine nel capitolo 4 lo studio della valvola tricuspide con ecocardiografia tridimensionale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fino a qualche anno fa, la conversione di documenti cartacei in documenti digitali appariva come una vera e propria utopia. Quest’oggi invece pensiamo al digitale di qualsiasi tipologia come fosse un fattore prioritario, scontato ed immediato, da poterlo considerare una vera a propria dipendenza. Mentre una volta i documenti venivano depositati in archivi talvolta rudi e polverosi, spiacevoli da recuperare, sia per tempistiche sia per condizioni, oggi la quotidianità è così frenetica che occorre ottenere tutto in modo tempestivo. Un’ evoluzione socio-culturale ha portato all’elaborazione di tecniche sempre più sofisticate di ottimizzazione nel campo; si parla di “dematerializzazione dei documenti” o “processo di conservazione sostitutiva”, innovazione che ha determinato una vera e propria rivoluzione nella Pubblica Amministrazione, nei rapporti tra privati, nell’Ordinamento Giuridico e nella scienza del diritto, poiché è radicalmente mutata la concezione di “documento” così com’è conosciuto da migliaia di anni, nella sua natura res signata, “cosa “ che riporta informazioni. Il concetto di ”smaterializzazione” non è un’ assoluta novità se si pensa alle transazioni finanziarie di enormi quantità di denaro, che da anni avvengono in tutto il mondo, grazie a “documenti informatici”, senza che passi di mano una sola banconota. Lo scopo di questa tesi è approfondire il processo di conservazione sostitutiva, partendo dalle figure ad esso legate, per poi continuare con le regole tecniche di adozione, la validità probatoria dei documenti informatici, i formati, i metadati utilizzati, e così via.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo del presente lavoro di tesi riguarda la caratterizzazione di un sensore ottico per la lettura di ematocrito e lo sviluppo dell’algoritmo di calibrazione del dispositivo. In altre parole, utilizzando dati ottenuti da una sessione di calibrazione opportunamente pianificata, l’algoritmo sviluppato ha lo scopo di restituire la curva di interpolazione dei dati che caratterizza il trasduttore. I passi principali del lavoro di tesi svolto sono sintetizzati nei punti seguenti: 1) Pianificazione della sessione di calibrazione necessaria per la raccolta dati e conseguente costruzione di un modello black box.  Output: dato proveniente dal sensore ottico (lettura espressa in mV)  Input: valore di ematocrito espresso in punti percentuali ( questa grandezza rappresenta il valore vero di volume ematico ed è stata ottenuta con un dispositivo di centrifugazione sanguigna) 2) Sviluppo dell’algoritmo L’algoritmo sviluppato e utilizzato offline ha lo scopo di restituire la curva di regressione dei dati. Macroscopicamente, il codice possiamo distinguerlo in due parti principali: 1- Acquisizione dei dati provenienti da sensore e stato di funzionamento della pompa bifasica 2- Normalizzazione dei dati ottenuti rispetto al valore di riferimento del sensore e implementazione dell’algoritmo di regressione. Lo step di normalizzazione dei dati è uno strumento statistico fondamentale per poter mettere a confronto grandezze non uniformi tra loro. Studi presenti, dimostrano inoltre un mutazione morfologica del globulo rosso in risposta a sollecitazioni meccaniche. Un ulteriore aspetto trattato nel presente lavoro, riguarda la velocità del flusso sanguigno determinato dalla pompa e come tale grandezza sia in grado di influenzare la lettura di ematocrito.