65 resultados para Cento anni fa
Resumo:
CAPITOLO 1 INTRODUZIONE Il lavoro presentato è relativo all’utilizzo a fini metrici di immagini satellitari storiche a geometria panoramica; in particolare sono state elaborate immagini satellitari acquisite dalla piattaforma statunitense CORONA, progettata ed impiegata essenzialmente a scopi militari tra gli anni ’60 e ’70 del secolo scorso, e recentemente soggette ad una declassificazione che ne ha consentito l’accesso anche a scopi ed utenti non militari. Il tema del recupero di immagini aeree e satellitari del passato è di grande interesse per un ampio spettro di applicazioni sul territorio, dall’analisi dello sviluppo urbano o in ambito regionale fino ad indagini specifiche locali relative a siti di interesse archeologico, industriale, ambientale. Esiste infatti un grandissimo patrimonio informativo che potrebbe colmare le lacune della documentazione cartografica, di per sé, per ovvi motivi tecnici ed economici, limitata a rappresentare l’evoluzione territoriale in modo asincrono e sporadico, e con “forzature” e limitazioni nel contenuto informativo legate agli scopi ed alle modalità di rappresentazione delle carte nel corso del tempo e per diversi tipi di applicazioni. L’immagine di tipo fotografico offre una rappresentazione completa, ancorché non soggettiva, dell’esistente e può complementare molto efficacemente il dato cartografico o farne le veci laddove questo non esista. La maggior parte del patrimonio di immagini storiche è certamente legata a voli fotogrammetrici che, a partire dai primi decenni del ‘900, hanno interessato vaste aree dei paesi più avanzati, o regioni di interesse a fini bellici. Accanto a queste, ed ovviamente su periodi più vicini a noi, si collocano le immagini acquisite da piattaforma satellitare, tra le quali rivestono un grande interesse quelle realizzate a scopo di spionaggio militare, essendo ad alta risoluzione geometrica e di ottimo dettaglio. Purtroppo, questo ricco patrimonio è ancora oggi in gran parte inaccessibile, anche se recentemente sono state avviate iniziative per permetterne l’accesso a fini civili, in considerazione anche dell’obsolescenza del dato e della disponibilità di altre e migliori fonti di informazione che il moderno telerilevamento ci propone. L’impiego di immagini storiche, siano esse aeree o satellitari, è nella gran parte dei casi di carattere qualitativo, inteso ad investigare sulla presenza o assenza di oggetti o fenomeni, e di rado assume un carattere metrico ed oggettivo, che richiederebbe tra l’altro la conoscenza di dati tecnici (per esempio il certificato di calibrazione nel caso delle camere aerofotogrammetriche) che sono andati perduti o sono inaccessibili. Va ricordato anche che i mezzi di presa dell’epoca erano spesso soggetti a fenomeni di distorsione ottica o altro tipo di degrado delle immagini che ne rendevano difficile un uso metrico. D’altra parte, un utilizzo metrico di queste immagini consentirebbe di conferire all’analisi del territorio e delle modifiche in esso intercorse anche un significato oggettivo che sarebbe essenziale per diversi scopi: per esempio, per potere effettuare misure su oggetti non più esistenti o per potere confrontare con precisione o co-registrare le immagini storiche con quelle attuali opportunamente georeferenziate. Il caso delle immagini Corona è molto interessante, per una serie di specificità che esse presentano: in primo luogo esse associano ad una alta risoluzione (dimensione del pixel a terra fino a 1.80 metri) una ampia copertura a terra (i fotogrammi di alcune missioni coprono strisce lunghe fino a 250 chilometri). Queste due caratteristiche “derivano” dal principio adottato in fase di acquisizione delle immagini stesse, vale a dire la geometria panoramica scelta appunto perché l’unica che consente di associare le due caratteristiche predette e quindi molto indicata ai fini spionaggio. Inoltre, data la numerosità e la frequenza delle missioni all’interno dell’omonimo programma, le serie storiche di questi fotogrammi permettono una ricostruzione “ricca” e “minuziosa” degli assetti territoriali pregressi, data appunto la maggior quantità di informazioni e l’imparzialità associabili ai prodotti fotografici. Va precisato sin dall’inizio come queste immagini, seppur rappresentino una risorsa “storica” notevole (sono datate fra il 1959 ed il 1972 e coprono regioni moto ampie e di grandissimo interesse per analisi territoriali), siano state molto raramente impiegate a scopi metrici. Ciò è probabilmente imputabile al fatto che il loro trattamento a fini metrici non è affatto semplice per tutta una serie di motivi che saranno evidenziati nei capitoli successivi. La sperimentazione condotta nell’ambito della tesi ha avuto due obiettivi primari, uno generale ed uno più particolare: da un lato il tentativo di valutare in senso lato le potenzialità dell’enorme patrimonio rappresentato da tali immagini (reperibili ad un costo basso in confronto a prodotti simili) e dall’altro l’opportunità di indagare la situazione territoriale locale per una zona della Turchia sud orientale (intorno al sito archeologico di Tilmen Höyük) sulla quale è attivo un progetto condotto dall’Università di Bologna (responsabile scientifico il Prof. Nicolò Marchetti del Dipartimento di Archeologia), a cui il DISTART collabora attivamente dal 2005. L’attività è condotta in collaborazione con l’Università di Istanbul ed il Museo Archeologico di Gaziantep. Questo lavoro si inserisce, inoltre, in un’ottica più ampia di quelle esposta, dello studio cioè a carattere regionale della zona in cui si trovano gli scavi archeologici di Tilmen Höyük; la disponibilità di immagini multitemporali su un ampio intervallo temporale, nonché di tipo multi sensore, con dati multispettrali, doterebbe questo studio di strumenti di conoscenza di altissimo interesse per la caratterizzazione dei cambiamenti intercorsi. Per quanto riguarda l’aspetto più generale, mettere a punto una procedura per il trattamento metrico delle immagini CORONA può rivelarsi utile all’intera comunità che ruota attorno al “mondo” dei GIS e del telerilevamento; come prima ricordato tali immagini (che coprono una superficie di quasi due milioni di chilometri quadrati) rappresentano un patrimonio storico fotografico immenso che potrebbe (e dovrebbe) essere utilizzato sia a scopi archeologici, sia come supporto per lo studio, in ambiente GIS, delle dinamiche territoriali di sviluppo di quelle zone in cui sono scarse o addirittura assenti immagini satellitari dati cartografici pregressi. Il lavoro è stato suddiviso in 6 capitoli, di cui il presente costituisce il primo. Il secondo capitolo è stato dedicato alla descrizione sommaria del progetto spaziale CORONA (progetto statunitense condotto a scopo di fotoricognizione del territorio dell’ex Unione Sovietica e delle aree Mediorientali politicamente correlate ad essa); in questa fase vengono riportate notizie in merito alla nascita e all’evoluzione di tale programma, vengono descritti piuttosto dettagliatamente gli aspetti concernenti le ottiche impiegate e le modalità di acquisizione delle immagini, vengono riportati tutti i riferimenti (storici e non) utili a chi volesse approfondire la conoscenza di questo straordinario programma spaziale. Nel terzo capitolo viene presentata una breve discussione in merito alle immagini panoramiche in generale, vale a dire le modalità di acquisizione, gli aspetti geometrici e prospettici alla base del principio panoramico, i pregi ed i difetti di questo tipo di immagini. Vengono inoltre presentati i diversi metodi rintracciabili in bibliografia per la correzione delle immagini panoramiche e quelli impiegati dai diversi autori (pochi per la verità) che hanno scelto di conferire un significato metrico (quindi quantitativo e non solo qualitativo come è accaduto per lungo tempo) alle immagini CORONA. Il quarto capitolo rappresenta una breve descrizione del sito archeologico di Tilmen Höyuk; collocazione geografica, cronologia delle varie campagne di studio che l’hanno riguardato, monumenti e suppellettili rinvenute nell’area e che hanno reso possibili una ricostruzione virtuale dell’aspetto originario della città ed una più profonda comprensione della situazione delle capitali del Mediterraneo durante il periodo del Bronzo Medio. Il quinto capitolo è dedicato allo “scopo” principe del lavoro affrontato, vale a dire la generazione dell’ortofotomosaico relativo alla zona di cui sopra. Dopo un’introduzione teorica in merito alla produzione di questo tipo di prodotto (procedure e trasformazioni utilizzabili, metodi di interpolazione dei pixel, qualità del DEM utilizzato), vengono presentati e commentati i risultati ottenuti, cercando di evidenziare le correlazioni fra gli stessi e le problematiche di diversa natura incontrate nella redazione di questo lavoro di tesi. Nel sesto ed ultimo capitolo sono contenute le conclusioni in merito al lavoro in questa sede presentato. Nell’appendice A vengono riportate le tabelle dei punti di controllo utilizzati in fase di orientamento esterno dei fotogrammi.
Resumo:
Il documento pre-normativo italiano sul rinforzo di strutture in c.a. mediante l’uso di materiale fibrorinforzato. 1.1 INTRODUZIONE La situazione unica dell’Italia per quanto riguarda la conservazione delle costruzioni esistenti, è il risultato della combinazione di due aspetti, come primo, il medio-alto rischio sismico di una gran parte di territorio, come testimoniato dalla zonizzazione sismica recente, e come secondo aspetto, l'estrema complessità di un ambiente edilizio che non ha confronto nel mondo. Le tipologie della costruzione in Italia si distinguono a quelle stimate come patrimonio storico, che in alcuni casi risalgono a circa 2000 anni fa, a quelle che sono state costruite in ultimi cinque secoli, durante e dopo il Rinascimento, che sono considerate come patrimonio culturale ed architettonico dell' Italia (e del mondo!), infine a quelle fatte in tempi recenti, considerevolmente durante e dopo il boom economico del l960 ed ora visti come antiquate. Le due prime categorie in gran parte sono composte dalle edilizie di muratura, mentre agli ultimi principalmente appartengono le costruzioni di cemento armato.
Resumo:
Il seguente elaborato nasce per venire incontro ad una richiesta di aiuto partita dalla comunità di St. Albert, un centro missionario nel nord dello Zimbabwe. In questo stato ogni giorno milioni di persone lottano per sopravvivere contro fame ed epidemie, la comunità di St. Albert nata attorno all’omonimo ospedale combatte contro queste calamità cercando di fornire medicinali, cibo e un istruzione. Purtroppo alcuni anni fa, a causa del perdurare di condizioni siccitose, i pozzi da cui la missione prelevava acqua si sono quasi completamente prosciugati facendo sì che l’intera missione rischiasse di non poter proseguire la sua attività. Nel 2008 si sono verificate precipitazioni più intense che hanno determinato una ricarica di falda e la ripresa dell’utilizzo di parte dei pozzi, ma questi accadimenti anno messo a nudo la non completa affidabilità di questa fonte di approvvigionamento, così si è evidenziata la necessità di creare un bacino imbrifero artificiale. In situazioni di insicurezza sulla disponibilità idrica la diversificazione delle fonti di approvvigionamento diventa indispensabile. Così nel 2004 si iniziò a costruire una diga per creare un bacino di riserva idrica nelle vicinanze, oggi i lavori sono quasi ultimati ma manca un impianto di potabilizzazione che renda adatta l’acqua prelevata dall’invaso per il consumo umano. Con questa tesi si vuole dare un supporto progettuale alla creazione del potabilizzatore, cercando di ridisegnare il funzionamento della rete per permettere un uso più razionale possibile delle risorse idriche. Facendo ciò però ci si dovrà calare in una serie di problematiche di contesto economiche e sociali di un paese in profonda crisi, dove può risultare un problema reperire i materiali e le risorse più basilari, anche quelle più strettamente organizzative e logistiche, che richiedono la valutazione dello stato di know-how locale in relazione alle capacità di gestire apparecchiature di un certo livello tecnologico.
Resumo:
Lo stato attuale del mercato continua a dimostrare come l'interesse del pubblico verso i dispositivi mobili sia in costante crescita; se fino a pochi anni fa il termine smartphone era ai piu' privo di significato, ora e' abbastanza comune per giovani e adulti essere concentrati su piccoli dispositivi dove si possono contattare i clienti via e-mail, verificare lo stato di avanzamento dei processi aziendali, consultare il web e cosi' via. L'obiettivo di questa tesi e' introdurre l'utilizzo di diverse tipologie di framework, prendendo come riferimento i sistemi operativi per i dispositivi mobili e quello di presentare soluzioni (attraverso i framework) per lo sviluppo di applicazioni mobili su diverse piattaforme software.
Resumo:
L’analisi istologica riveste un ruolo fondamentale per la pianificazione di eventuali terapie mediche o chirurgiche, fornendo diagnosi sulla base dell’analisi di tessuti, o cellule, prelevati con biopsie o durante operazioni. Se fino ad alcuni anni fa l’analisi veniva fatta direttamente al microscopio, la sempre maggiore diffusione di fotocamere digitali accoppiate consente di operare anche su immagini digitali. Il presente lavoro di tesi ha riguardato lo studio e l’implementazione di un opportuno metodo di segmentazione automatica di immagini istopatologiche, avendo come riferimento esclusivamente ciò che viene visivamente percepito dall’operatore. L’obiettivo è stato quello di costituire uno strumento software semplice da utilizzare ed in grado di assistere l’istopatologo nell’identificazione di regioni percettivamente simili, presenti all’interno dell’immagine istologica, al fine di considerarle per una successiva analisi, oppure di escluderle. Il metodo sviluppato permette di analizzare una ampia varietà di immagini istologiche e di classificarne le regioni esclusivamente in base alla percezione visiva e senza sfruttare alcuna conoscenza a priori riguardante il tessuto biologico analizzato. Nella Tesi viene spiegato il procedimento logico seguito per la progettazione e la realizzazione dell’algoritmo, che ha portato all’adozione dello spazio colore Lab come dominio su cu cui calcolare gli istogrammi. Inoltre, si descrive come un metodo di classificazione non supervisionata utilizzi questi istogrammi per pervenire alla segmentazione delle immagini in classi corrispondenti alla percezione visiva dell’utente. Al fine di valutare l’efficacia dell’algoritmo è stato messo a punto un protocollo ed un sistema di validazione, che ha coinvolto 7 utenti, basato su un data set di 39 immagini, che comprendono una ampia varietà di tessuti biologici acquisiti da diversi dispositivi e a diversi ingrandimenti. Gli esperimenti confermano l’efficacia dell’algoritmo nella maggior parte dei casi, mettendo altresì in evidenza quelle tipologie di immagini in cui le prestazioni risultano non pienamente soddisfacenti.
Resumo:
La crescente disponibilità di dispositivi meccanici e -soprattutto - elettronici le cui performance aumentano mentre il loro costo diminuisce, ha permesso al campo della robotica di compiere notevoli progressi. Tali progressi non sono stati fatti unicamente per ciò che riguarda la robotica per uso industriale, nelle catene di montaggio per esempio, ma anche per quella branca della robotica che comprende i robot autonomi domestici. Questi sistemi autonomi stanno diventando, per i suddetti motivi, sempre più pervasivi, ovvero sono immersi nello stesso ambiente nel quale vivono gli essere umani, e interagiscono con questi in maniera proattiva. Essi stanno compiendo quindi lo stesso percorso che hanno attraversato i personal computer all'incirca 30 anni fa, passando dall'essere costosi ed ingombranti mainframe a disposizione unicamente di enti di ricerca ed università, ad essere presenti all'interno di ogni abitazione, per un utilizzo non solo professionale ma anche di assistenza alle attività quotidiane o anche di intrattenimento. Per questi motivi la robotica è un campo dell'Information Technology che interessa sempre più tutti i tipi di programmatori software. Questa tesi analizza per prima cosa gli aspetti salienti della programmazione di controllori per robot autonomi (ovvero senza essere guidati da un utente), quindi, come l'approccio basato su agenti sia appropriato per la programmazione di questi sistemi. In particolare si mostrerà come un approccio ad agenti, utilizzando il linguaggio di programmazione Jason e quindi l'architettura BDI, sia una scelta significativa, dal momento che il modello sottostante a questo tipo di linguaggio è basato sul ragionamento pratico degli esseri umani (Human Practical Reasoning) e quindi è adatto alla implementazione di sistemi che agiscono in maniera autonoma. Dato che le possibilità di utilizzare un vero e proprio sistema autonomo per poter testare i controllori sono ridotte, per motivi pratici, economici e temporali, mostreremo come è facile e performante arrivare in maniera rapida ad un primo prototipo del robot tramite l'utilizzo del simulatore commerciale Webots. Il contributo portato da questa tesi include la possibilità di poter programmare un robot in maniera modulare e rapida per mezzo di poche linee di codice, in modo tale che l'aumento delle funzionalità di questo risulti un collo di bottiglia, come si verifica nella programmazione di questi sistemi tramite i classici linguaggi di programmazione imperativi. L'organizzazione di questa tesi prevede un capitolo di background nel quale vengono riportare le basi della robotica, della sua programmazione e degli strumenti atti allo scopo, un capitolo che riporta le nozioni di programmazione ad agenti, tramite il linguaggio Jason -quindi l'architettura BDI - e perché tale approccio è adatto alla programmazione di sistemi di controllo per la robotica. Successivamente viene presentata quella che è la struttura completa del nostro ambiente di lavoro software che comprende l'ambiente ad agenti e il simulatore, quindi nel successivo capitolo vengono mostrate quelle che sono le esplorazioni effettuate utilizzando Jason e un approccio classico (per mezzo di linguaggi classici), attraverso diversi casi di studio di crescente complessità; dopodiché, verrà effettuata una valutazione tra i due approcci analizzando i problemi e i vantaggi che comportano questi. Infine, la tesi terminerà con un capitolo di conclusioni e di riflessioni sulle possibili estensioni e lavori futuri.
Resumo:
Dalla collaborazione fra il Comune di Ravenna ed ENI ha preso origine il progetto “RIGED – Ra” ossia il “Progetto di ripristino e gestione delle dune costiere ravennati”. Nell’ambito di tale attività sperimentale si è voluto effettuare una caratterizzazione dell’idrologia di una limitata, ma rappresentativa, porzione dell’acquifero freatico costiero situata in un cordone di dune posto nella Pineta di Lido di Classe, a sud di Foce Bevano. Lo studio si pone di essere rappresentativo per le caratteristiche idrogeologiche delle dune costiere adriatiche nella zona di Ravenna. A tale fine è stato valutato l’andamento di alcuni parametri chimico-fisici delle acque sotterranee; inoltre, è stata monitorata mensilmente la profondità della tavola d’acqua (water table - WT). Questi monitoraggi hanno permesso di descrivere la distribuzione delle acque dolci e di quelle salate nonché la loro dinamica stagionale. Infine, è stata eseguita un’analisi idro-geochimica con l’intento di valutare la tipologia delle acque presenti nell’area in esame e la loro eventuale variazione stagionale. Per la raccolta dei campioni è stata sfruttata l’innovativa metodologia a minifiltri utilizzata da alcuni anni nel nord dell’Europa, in modo particolare in Olanda. Questa tecnica ha due caratteristiche peculiari: i tempi di campionamento vengono ridotti notevolmente ed, inoltre, permette un’ottima precisione e rappresentatività delle acque di falda a diverse profondità poiché si effettua un campionamento ogni 0,50 m. L’unico limite riscontrato, al quale vi è comunque rimedio, è il fatto che la loro posizione risulti fissa per cui, qualora vi siano delle fluttuazioni dell’acquifero al di sopra del minifiltro più superficiale, queste non vengono identificate. È consigliato quindi utilizzare questo metodo di campionamento poiché risulta essere più performante rispetto ad altri (ad esempio al sistema che sfrutta lo straddle packers SolinstTM ) scegliendo tra due diverse strategie per rimediare al suo limite: si aggiungono minifiltri superficiali che nel periodo estivo si trovano nella zona vadosa dell’acquifero oppure si accompagna sempre il campionamento con una trivellata che permetta il campionamento del top della falda. Per quanto concerne la freatimetria il campionamento mensile (6 mesi) ha mostrato come tutta l’area di studio sia un sistema molto suscettibile all’andamento delle precipitazioni soprattutto per la fascia di duna prossima alla costa in cui la scarsa vegetazione e la presenza di sedimento molto ben cernito con una porosità efficace molto elevata facilitano la ricarica dell’acquifero da parte di acque dolci. Inoltre, sul cordone dunoso l’acquifero si trova sempre al di sopra del livello medio mare anche nel periodo estivo. Per questa caratteristica, nel caso l’acquifero venisse ricaricato artificialmente con acque dolci (Managed Aquifer Recharge), potrebbe costituire un efficace sistema di contrasto all’intrusione salina. Lo spessore d’acqua dolce, comunque, è molto variabile proprio in funzione della stagionalità delle precipitazioni. Nell’area retro-dunale, invece, nel periodo estivo l’acquifero freatico è quasi totalmente al di sotto del livello marino; ciò probabilmente è dovuto al fatto che, oltre ai livelli topografici prossimi al livello medio mare, vi è una foltissima vegetazione molto giovane, ricresciuta dopo un imponente incendio avvenuto circa 10 anni fa, la quale esercita una notevole evapotraspirazione. È importante sottolineare come durante la stagione autunnale, con l’incremento delle precipitazioni la tavola d’acqua anche in quest’area raggiunga livelli superiori a quello del mare. Dal monitoraggio dei parametri chimico – fisici, in particolare dal valore dell’Eh, risulta che nel periodo estivo l’acquifero è un sistema estremamente statico in cui la mancanza di apporti superficiali di acque dolci e di flussi sotterranei lo rende un ambiente fortemente anossico e riducente. Con l’arrivo delle precipitazioni la situazione cambia radicalmente, poiché l’acquifero diventa ossidante o lievemente riducente. Dalle analisi geochimiche, risulta che le acque sotterranee presenti hanno una composizione esclusivamente cloruro sodica in entrambe le stagioni monitorate; l’unica eccezione sono i campioni derivanti dal top della falda raccolti in gennaio, nei quali la composizione si è modificata in quanto, il catione più abbondante rimane il sodio ma non si ha una dominanza di un particolare anione. Tale cambiamento è causato da fenomeni di addolcimento, rilevati dall’indice BEX, che sono causati all’arrivo delle acque dolci meteoriche. In generale, si può concludere che la ricarica superficiale e la variazione stagionale della freatimetria non sono tali da determinare un processo di dolcificazione in tutto l’acquifero dato che, nelle zone più profonde, si rivela la presenza permanente di acque a salinità molto superiore a 10 g/L. La maggior ricarica superficiale per infiltrazione diretta nelle stagioni a più elevata piovosità non è quindi in grado di approfondire l’interfaccia acqua dolce-acqua salata e può solamente causare una limitata diluizione delle acque di falda superficiali.
Resumo:
L'analisi di un'immagine con strumenti automatici si è sviluppata in quella che oggi viene chiamata "computer vision", la materia di studio proveniente dal mondo informatico che si occupa, letteralmente, di "vedere oltre", di estrarre da una figura una serie di aspetti strutturali, sotto forma di dati numerici. Tra le tante aree di ricerca che ne derivano, una in particolare è dedicata alla comprensione di un dettaglio estremamente interessante, che si presta ad applicazioni di molteplici tipologie: la profondità. L'idea di poter recuperare ciò che, apparentemente, si era perso fermando una scena ed imprimendone l'istante in un piano a due dimensioni poteva sembrare, fino a non troppi anni fa, qualcosa di impossibile. Grazie alla cosiddetta "visione stereo", invece, oggi possiamo godere della "terza dimensione" in diversi ambiti, legati ad attività professionali piuttosto che di svago. Inoltre, si presta ad utilizzi ancora più interessanti quando gli strumenti possono vantare caratteristiche tecniche accessibili, come dimensioni ridotte e facilità d'uso. Proprio quest'ultimo aspetto ha catturato l'attenzione di un gruppo di lavoro, dal quale è nata l'idea di sviluppare una soluzione, chiamata "SuperStereo", capace di permettere la stereo vision usando uno strumento estremamente diffuso nel mercato tecnologico globale: uno smartphone e, più in generale, qualsiasi dispositivo mobile appartenente a questa categoria.
Resumo:
In Medicina Nucleare è possibile ottenere immagini funzionali grazie all’iniezione nel paziente di un radiofarmaco. Quello più utilizzato nelle procedure diagnostiche di Medicina Nucleare è il 99mTc, un gamma emettitore con tempo di dimezzamento di circa sei ore. Attualmente, questo nuclide è prodotto attraverso generatori di 99Mo-99mTc, sfruttando il decadimento β- del 99Mo. Da diversi anni, però, si cerca in tutto il mondo una soluzione alternativa alla produzione di 99mTc, poiché il 99Mo si ottiene in reattori nucleari a partire dalla reazione di fissione del 235U, ma tali reattori sono stati quasi tutti costruiti più di cinquanta anni fa e necessitano continuamente di spegnimenti prolungati e riparazioni. L’alternativa più accreditata è quella relativa alla produzione diretta di 99mTc in ciclotrone attraverso l’irraggiamento di 100Mo con protoni. Il problema principale risiede nella scelta della forma chimica che contenga il 100Mo e del tipo di target da irraggiare. Quest’ultimo deve resistere ad alte correnti e a lunghi tempi di irraggiamento per ottenere quantità di 99mTc sufficienti a soddisfare almeno il fabbisogno del centro ospedaliero in cui è prodotto. Questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria del Policlinico S.Orsola-Malpighi, è basato sulla realizzazione di un target a basso costo di triossido Molibdeno arricchito per la produzione diretta di 99mTc. Si sono inoltre valutate le impurezze e l’attività del nuclide di nostro interesse a seguito di irraggiamenti nel ciclotrone PETtrace.
Resumo:
Con l’incremento della popolazione mondiale e la conseguente crescita del fabbisogno di energia dovuta a nuovi lavori e sempre più macchinari in circolazione, è insorta l'esigenza di produrre più energia elettrica. A partire dagli anni ’50 numerosi scienziati hanno analizzato il problema energetico e sono giunti alla conclusione che fonti di energia come petrolio, carbone e gas non erano in grado di soddisfare il bisogno umano sul lungo termine e si è quindi passati alla ricerca di altre fonti di energia come il nucleare. Oggi, grazie ad un progetto ed uno studio di circa 50 anni fa – finalizzato alla alimentazione di satelliti geostazionari - , si sta sempre di più affermando la scelta del fotovoltaico, in quanto rappresenta un’energia pulita e facilmente utilizzabile anche nei luoghi dove non è possibile avere un allaccio alla normale rete elettrica. La ricerca di questo nuovo metodo di produrre energia, che tratta la conversione di luce solare in energia elettrica, si è evoluta, differenziando materiali e metodi di fabbricazione delle celle fotovoltaiche, e quindi anche dei moduli fotovoltaici. Con la crescente produzione di apparati elettronici si è arrivati però ad avere un nuovo problema: il consumo sempre maggiore di silicio con un conseguente aumento di prezzo. Negli ultimi anni il prezzo del silicio è significativamente aumentato e questo va a pesare sull’economia del pannello fotovoltaico, dato che questo materiale incide per il 40-50% sul costo di produzione. Per questo motivo si sono voluti trovare altri materiali e metodi in grado di sostituire il silicio per la costruzione di pannelli fotovoltaici, con il seguire di nuovi studi su materiali e metodi di fabbricazione delle celle. Ma data la conoscenza e lo studio dovuto ai vari utilizzi nell’elettronica del silicio, si è anche studiato un metodo per ottenere una riduzione del silicio utilizzato, creando wafer in silicio sempre più sottili, cercando di abbassare il rapporto costo-watt , in grado di abbassare i costi di produzione e vendita.
Resumo:
Nel 1919 l'arabista spagnolo Miguel Asín Palacios dà alle stampe La Escatologìa musulmana en la Divina, in cui, attraverso una serie impressionante di analogie, dimostra l'esistenza di un rapporto «modello-copia» tra le narrazioni musulmane del viaggio ultraterreno di Maometto e la Divina Commedia. Questa controversa opera sarà la scintilla di una polemica, che ancora oggi, a distanza di cento anni rimane aperta e sconosciuta ai più. Questo è il motivo che mi ha spinta a trattare questo argomento nel presente elaborato: il mio scopo è quello di fornire una sintesi della Questione delle fonti islamiche della Divina Commedia, mostrare una panoramica dell'evoluzione del dibattito e dimostrare come, quelle che nell'opera di Palacios erano solo ipotesi, si siano rivelate essere, entro certi limiti, una realtà. Che il Medioevo europeo fosse saturo di pensiero e di arte islamica è innegabile: affermare che Dante, con la sua universale curiositas, si astenne completamente da questi influssi sembra indicare soltanto un certo disagio dei critici italiani nei confronti di questo mondo, a cui l'Europa guarda spesso solo attraverso eventi quali la guerra santa, la sottomissione della donna e il fanatismo. Proprio in un epoca come la nostra, in cui le barbare follie del fondamentalismo ci spingono a temere l'altro, questi studi assumono nuovo valore: la presenza di un'influenza islamica non rende meno grande il genio dantesco, anzi ne allarga gli orizzonti e rende la sua opera un esempio di interculturalità e di apertura profondamente attuale.
Resumo:
Il lavoro svolto in questa tesi si inserisce in una ricerca iniziata pochi anni fa dal Dott. Bontempi. Riguarda la stima della fluenza fotonica tramite due metodi diversi da quelli adottati nella letteratura. I metodi proposti dalla letteratura valutano operativamente la fluenza fotonica ad alta intensità. Sono basati sulla correlazione tra fluenza fotonica e quantità dosimetriche, come l’esposizione o l’Air Kerma. Altre correlano la valutazione dell’HVL con la fluenza dei fotoni. Sebbene queste metodologie siano semplici da implementare, la valutazione della fluenza dei fotoni è ottenuta tramite il concetto di equivalenza del fascio monocromatico. Questo causa discrepanze nella valutazione della reale quantità di fotoni emessa dalla sorgente di raggi X. Il Dott. Bontempi ha sviluppato due diverse metodologie per il calcolo della fluenza: il primo metodo è basato sul calcolo del Kerma unito ad un modello semi empirico per il computo dello spettro dei raggi X. Il secondo metodo è invece basato sulla valutazione della funzione nNPS registrata in un’immagine a raggi X e quella ottenuta simulando il sistema sorgente-rivelatore.
Resumo:
La sinergia tra diverse aree scientifiche svolge oggi un ruolo preminente nella risoluzione di problematiche molto complesse: in ambito medico, un massiccio intervento delle scienze fisico-matematiche ha portato, grazie alla ricerca sulle proprietà subatomiche (NMR), sulla funzione elettromeccanica tissutale (pace-makers) e sulla biocompatibilità di materiali innovativi, ad un completo rinnovamento e miglioramento delle terapie tradizionali, delineando nuove strategie terapeutiche. In questo quadro di attiva collaborazione si colloca la ricerca in ambito biomeccanico cardiovascolare che, approfondendo la funzionalità del cuore e dei vasi in condizioni normali e patologiche, propone soluzioni terapeutiche alternative all'approccio farmacologico, impensabili fino a pochi anni fa. Uno di questi ambiti è l'insufficienza cardiaca: al ventricolo incapace di produrre l'energia necessaria alla perfusione ematica viene associato un sistema di pulsazione meccanica che riduce il carico durante l'eiezione ed aumenta la perfusione coronarica in diastole. Tuttavia, benché l'efficacia della contropulsazione intra-aortica sia riconosciuta da decenni, alcune problematiche rimangono irrisolte: l'inapplicabilità su pazienti aritmici, l'eccessiva sollecitazione meccanica in pazienti vasculopatici, la complessità e l'alto costo dell'apparecchiatura. Questo lavoro affronta la validazione e la caratterizzazione di una soluzione terapeutica alternativa, di tipo completamente passivo, il cui effetto non è basato sulla somministrazione di energia meccanica dall'esterno, attraverso la pulsazione, ma sull'adattamento di impedenza biomeccanica tra la sorgente elastica pulsatile (il ventricolo) ed il carico (l'aorta). Per verificare l'ipotesi funzionale è stato realizzato un sistema contrattile che simulasse diversi livelli di insufficienza ventricolare ed un sistema vascolare con resistenza idraulica ed elastanza variabili. Sono stati rilevati i parametri fisiologici (pressioni, flusso, potenza ed efficienza) nelle diverse condizioni di accoppiamento biomeccanico e si sono ripetuti i rilievi inserendo il dispositivo di contropulsazione passiva. La validazione sperimentale ha prodotto risultati coerenti con quanto atteso ed è stata indispensabile per l'ottenimento, da parte del Comitato Etico, dell'autorizzazione per la sperimentazione clinica del sistema in oggetto.
Resumo:
In questa tesi, sono esposti i sistemi di navigazione che si sono evoluti, parimenti con il progresso scientifico e tecnologico, dalle prime misurazioni della Terra, per opera della civiltà ellenica, circa 2.500 anni fa, sino ai moderni sistemi satellitari e ai mai tramontati sistemi di radionavigazione. I sistemi di navigazione devono rispondere alla sempre maggiore richiesta di precisione, affidabilità, continuità e globalità del servizio, della società moderna. È sufficiente pensare che, attualmente, il solo traffico aereo civile fa volare 5 miliardi di passeggeri ogni anno, in oltre 60 milioni di voli e con un trasporto cargo di 85 milioni di tonnellate (ACI - World Airports Council International, 2012). La quota di traffico marittimo mondiale delle merci, è stata pari a circa 650 milioni di TEU (twenty-foot equivalent unit - misura standard di volume nel trasporto dei container ISO, corrisponde a circa 40 metri cubi totali), nel solo anno 2013 (IAPH - International Association of Ports and Harbors, 2013). Questi pochi, quanto significativi numeri, indicano una evidente necessità di “guidare” questo enorme flusso di aerei e navi in giro per il mondo, sempre in crescita, nella maniera più opportuna, tracciando le rotte adeguate e garantendo la sicurezza necessaria anche nelle fasi più delicate (decollo e atterraggio per gli aeroplani e manovre in porto per le grandi navi). Nello sviluppo della tesi si proverà a capire quali e quanto i sistemi di navigazione possono assolvere al ruolo di “guida” del trasporto aereo e marittimo.
Resumo:
I semiconduttori organici presentano proprietà che consentono la produzione di dispositivi impensabili fino a pochi anni fa: sono flessibili, leggeri e robusti, ed inoltre facili ed economici da depositare. La loro capacità di rivelare direttamente la radiazione ionizzante, convertendola in segnale elettrico, li pone come ottimi candidati per una nuova generazione di rivelatori a stato solido per raggi X, utilizzabili in situazioni e luoghi prima inaccessibili a quelli inorganici, o addirittura comodamente indossabili. Tuttavia i fenomeni di fotogenerazione e raccolta di carica in questi materiali non sono ancora completamente compresi. Ottimali per lo studio di queste ed altre proprietà intrinseche sono le forme di impacchettamento a cristallo singolo. Questa tesi analizza e confronta i segnali elettrici di campioni di cristalli singoli di TIPS-pentacene quando esposti a flussi crescenti di radiazione visibile e di raggi X a diversi voltaggi, proponendo dei modelli per la loro interpretazione. Viene inoltre riportato un confronto con le stesse misure effettuate su un campione dello stesso materiale in forma di film sottile.