998 resultados para Fayyum,ASTER,classificazione immagini satellitari,paleoambienti
Resumo:
A partire dalla caduta di Costantinopoli (1453) il problema dell’espansionismo ottomano acquisì progressiva importanza negli equilibri politici europei, scandendo con momenti di tregua e ostilità i rapporti tra Ponente e Levante per i successivi due secoli. Le conseguenze di tali tensioni politiche si riversarono sulla ritrattistica dei principi europei, il cui nuovo ruolo di eroi antiturchi trovò espressione, coerentemente con la diffusa lettura del problema ottomano in un’ottica di comparatio temporum, nell’istituzione di parallelismi con figure d’eroi antecedenti, della storia o del mito. Tali immagini allegoriche principesche hanno costituito il soggetto del presente studio e sono state indagate attraverso tre focus su altrettanti contesti cronologici, compresi tra la presa turca della capitale dell’Impero bizantino e la riconquista cristiana di Tunisi (1535). La considerazione di questo arco temporale, meno indagato rispetto a cronologie successive, ha consentito di individuare e rendere ragione di alcune specificità iconografiche delle immagini allegoriche dei principi antiturchi: tra queste in primis è emerso un movimento oscillatorio tra il riuso di iconografie sacrali-cavalleresche, di matrice crociata, e l’impiego di un repertorio di modelli eroici antichi, elaborato ad hoc nel detto frangente storico-culturale, le cui origini sono state rintracciate negli scritti encomiastici ed esortativi degli umanisti italiani attivi nel secondo Quattrocento. I casi di studio presi in esame hanno inoltre conferito alla ricerca un carattere d’interesse anche in rapporto agli studi sulla ritrattistica d’identificazione, annoverando una serie di diverse forme di espressione visiva della comparazione eroica, delle quali il ritratto in veste eroica costituisce la manifestazione più compiuta. Sia sul frangente iconografico sia su quello tipologico, i risultati ottenuti della ricerca sono infine stati verificati, in sede di conclusioni, su un succinto corpus di opere esteso al tardo Cinquecento e al Seicento.
Resumo:
Objective The objective of this study was to develop a clinical nomogram to predict gallium-68 prostate-specific membrane antigen positron emission tomography/computed tomography (68Ga-PSMA-11-PET/CT) positivity in different clinical settings of PSA failure. Materials and methods Seven hundred three (n = 703) prostate cancer (PCa) patients with confirmed PSA failure after radical therapy were enrolled. Patients were stratified according to different clinical settings (first-time biochemical recurrence [BCR]: group 1; BCR after salvage therapy: group 2; biochemical persistence after radical prostatectomy [BCP]: group 3; advanced stage PCa before second-line systemic therapies: group 4). First, we assessed 68Ga-PSMA-11-PET/CT positivity rate. Second, multivariable logistic regression analyses were used to determine predictors of positive scan. Third, regression-based coefficients were used to develop a nomogram predicting positive 68Ga-PSMA-11-PET/CT result and 200 bootstrap resamples were used for internal validation. Fourth, receiver operating characteristic (ROC) analysis was used to identify the most informative nomogram’s derived cut-off. Decision curve analysis (DCA) was implemented to quantify nomogram’s clinical benefit. Results 68Ga-PSMA-11-PET/CT overall positivity rate was 51.2%, while it was 40.3% in group 1, 54% in group 2, 60.5% in group 3, and 86.9% in group 4 (p < 0.001). At multivariable analyses, ISUP grade, PSA, PSA doubling time, and clinical setting were independent predictors of a positive scan (all p ≤ 0.04). A nomogram based on covariates included in the multivariate model demonstrated a bootstrap-corrected accuracy of 82%. The nomogram-derived best cut-off value was 40%. In DCA, the nomogram revealed clinical net benefit of > 10%. Conclusions This novel nomogram proved its good accuracy in predicting a positive scan, with values ≥ 40% providing the most informative cut-off in counselling patients to 68Ga-PSMA-11-PET/CT. This tool might be important as a guide to clinicians in the best use of PSMA-based PET imaging.
Resumo:
Guidelines report a wide range of options in locally advanced pancreatic cancer (LAPC): definitive chemotherapy or chemoradiotherapy or the emerging stereotactic body radiotherapy (SBRT) (+/- chemotherapy). On behalf of the AIRO (Italian Association of Radiation Oncology and Clinical Oncology) Gastrointestinal Study Group, we collected retrospective clinical data on 419 LAPC from 15 Italian centers. The study protocol (PAULA-1: Pooled Analysis in Unresectable Locally Advanced pancreatic cancer) was approved by institutional review board of S. Orsola-Malpighi Hospital (201/2015/O/OssN). From this large database we performed tree different studies. The first was a retrospective study about 56 LAPC treated with SBRT at a median biologically equivalent dose of 48 Gy +/- chemotherapy. We demonstrated a statistically significant impact of biologically equivalent dose based on an α/β ratio of 10Gy ≥ 48Gy for local control (LC) (p: 0.045) and overall survival (p: 0.042) in LAPC. The second was a retrospective matched-cohort case-control study comparing SBRT (40 patients) and chemoradiation (40 patients) in LAPC in terms of different endpoints. Our findings suggested an equivalence in terms of most outcomes among the two treatments and an advantage of SBRT in terms of LC (p: 0.017). The third study was a retrospective comparison of definitive chemotherapy, chemoradiotherapy and SBRT (+/- chemotherapy) in terms of different outcomes in LAPC. A predictive model for LC in LAPC was also developed reaching an AUC of 68% (CI 58,7%-77,4%). SBRT treatment emerged as a positive predictive factor for improved LC. Findings deriving from our three studies suggest that SBRT is comparable to standard of care (definitive chemotherapy and chemoradiotherapy) in terms of outcomes. SBRT seems to be an emerging therapeutic option in LAPC significantly improving local control. Furthermore, we have shown the potential of a predictive model for LC. Randomized trials are needed to compare these different therapeutic options in LAPC.
Resumo:
Proton radiation therapy is a form of external radiation that uses charged particles which have distinct physical advantages to deliver the majority of its dose in the target while minimizing the dose of radiation to normal tissues. In children who are particularly susceptible even at low and medium doses of radiation, the significant reduction of integral dose can potentially mitigate the incidence of side effects and improve quality of life. The aim of the first part of the thesis is to describe the physical and radiobiological properties of protons, the Proton Therapy Center of Trento (TCPT) active for clinical purpose since 2014, which use the most recent technique called active pencil beam scanning. The second part of the thesis describes the preliminary clinical results of 23 pediatric patients with central nervous system tumors as well as of two aggressive pediatric meningiomas treated with pencil beam scanning. All the patients were particularly well-suited candidates for proton therapy (PT) for possible benefits in terms of survival and incidence of acute and late side effects. We reported also a multicentric experience of 27 medulloblastoma patients (median age 6 years, M/F ratio 13/14) treated between 2015 and 2020 at TPTC coming from three Pediatric oncology centers: Bologna, Florence, and Ljubljana, with a focus on clinical results and toxicities related to radiotherapy (RT). Proton therapy was associated with mostly mild acute and late adverse effects and no cases of CNS necrosis or high grade of neuroradiological abnormailities. Comparable rates of survival and local control were obtained to those achievable with conventional RT. Finally, we performed a systematic review to specifically address the safety of PT for pediatric CNS patients, late side effects and clinical effectiveness after PT in this patient group.
Resumo:
La percezione dello spazio urbano, nella sua complessità, risente inevitabilmente dello stratificarsi, nel tempo, di significati storici, ideologie, archetipi e utopie attraverso i quali la società, nei suoi diversi stadi di sviluppo, ha consolidato l'idea di centro abitato. Nel mondo contemporaneo, la città narrata si sovrappone sempre di più a quella reale, organizzando e sintetizzando i processi interpretativi dei circuiti urbani: al cityscape, il panorama fisico della città, si antepone il suo mindscape, il panorama dell'anima e delle culture urbane. In sintonia con tali prospettive, la presente ricerca si propone di analizzare i processi comunicativi e i paradigmi mediatici che attraversano e ridefiniscono le dinamiche urbane, prendendo in esame gli strumenti e i linguaggi che concorrono a disegnare e raccontare l'immagine di una città. In tale contesto, il progetto prende in considerazione come case study la singolare situazione del distretto universitario intorno a via Zamboni a Bologna: un'arteria di straordinaria bellezza e vitalità, cui tuttavia non corrisponde un'immagine pubblica altrettanto positiva. La tesi ha analizzato in particolare l’immagine pubblica e la percezione di via Zamboni e di piazza Verdi dai primi del Novecento a oggi, in relazione ai principali eventi che le hanno viste come scenari privilegiati. Prendendo in considerazione un arco di tempo di oltre un secolo, sono stati selezionati alcuni momenti topici, occasioni culturali o accadimenti con una forte connotazione simbolica: dalla Liberazione alle manifestazioni del ’77, dalle storiche ‘prime’ del Teatro Comunale agli allestimenti della Pinacoteca, dalle lezioni di professori universitari di chiara fama alle più recenti contestazioni studentesche. Il risultato è un racconto stratificato che attraversa segni e immagini per ricostruire l’iconografia del quartiere attraverso testi, fotografie, filmati, opere d’arte o prodotti multimediali.
Resumo:
Aunque ni la Directiva 85/374/CEE relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados Miembros en materia de responsabilidad por los daños causados por productos defectuosos, ni el Real Decreto Legislativo 1/2007, de 16 de noviembre, por el que se aprueba el texto refundido de la Ley General para la Defensa de los Consumidores y Usuarios y otras leyes complementarias, que recoge dicha directiva en la actualidad en el sistema español, ni el d.p.r. 24 maggio 1988, nº 224, posteriormente introducido en el d. lgs 6 settembre 2005, nº 206, que hace lo mismo en el sistema italiano, establecen diferencias entre los distintos tipos de defectos que convierten a un producto en «defectuoso», la doctrina ha seguido diferenciando entre defectos de fabricación, defectos de información y defectos de diseño. La presente tesis intenta comprobar si tal clasificación es meramente académica, o si por el contrario, el que el defecto sea de un tipo o sea de otro implicará alguna especialidad en su tratamiento jurídico, y ello lo hace centrándose en los defectos de diseño, que han dado lugar a unos importantes desarrollos en la jurisprudencia norteamericana, y que. parecen estar asociados a los llamados «riesgos de desarrollo». Para ello se analiza la más reciente jurisprudencia norteamericana, italiana y española.
Resumo:
In questo lavoro di tesi è stato analizzato il sistema convettivo a mesoscala (Mesoscale Convective System (MCS)) del 05/09/2015, abbattutosi sui golfi di Gaeta e di Napoli, sulla stessa città di Napoli e sull'entroterra irpino, scaricando una notevole quantità di fulmini e chicchi di grandine di dimensioni molto al di sopra di quelle usuali nella regione mediterranea, con un diametro compreso tra i 5 ed i 10 cm. Nel primo capitolo vengono presentati gli strumenti utilizzati per l'acquisizione dei dati da satellite, dei fulmini e delle mappe di previsione. Nel secondo capitolo viene effettuata un'analisi meteorologica, in cui vengono descritte le condizioni meteorologiche precedenti e contemporanee all'evento, col supporto di dati provenienti dai modelli numerici di previsione, dalle immagini da satellite e dai radiosondaggi; viene inoltre giudicata la performance di previsione dei modelli. Nel terzo capitolo viene descritto il lavoro di elaborazione dei dati da satellite e vengono esposti i risultati e i grafici ottenuti sull'evoluzione della nube. Si descrive l'elaborazione dei dati sui fulmini e, tramite mappe e grafici, si ricercano correlazioni e risultati. Nel quarto capitolo vengono mostrati alcuni fotogrammi estratti da video presenti su Internet che dimostrano l'eccezionalità dell'evento.
Resumo:
L'obiettivo di questa tesi è quello di valutare se vi sono delle corrispondenze tra dati dendrocronologici e indici climatici su scala locale. Per procedere a questa analisi vengono introdotti i metodi utilizzati per il monitoraggio del sistema climatico e proposta una breve presentazione della dendrocronologia e degli strumenti di cui ci si avvale in questo campo. La corrispondenza dendroclimatologica su piccola scala è stata fatta tramite l'utilizzo dei dati convezionali (termometri, pluviometri) e dati dendrocronologici tramite un'analisi diretta su alberi nella provincia di Bologna. I dati da pluviometro e termometro sono stati rielaborati in riferimento a indici di teleconnessione forniti dal NOAA sulle differenze di pressioni atmosferiche su precisi punti geografici. In secondo luogo sono stati effettuati dei test non parametrici sulle tendenze e sull'esistenza di punti di cambio e un'elaborazione della probabilità di comparsa di eventi di siccità. I risultati ottenuti sono stati confrontati con ricerche analoghe trovate in letterauratura. L'analisi di dati dendrocronologici è stata fatta sia su immagini relative ad anelli di quercia che a dati di resistenza alla perforazione di un stronco di pioppo vivente. Il confronto finale fra dati convenzionali e alberi, pur soffrendo di notevoli incertezze e imprecisioni ha mostrato alcuni risultati circa l'effetto delle condizioni climatiche sulle piante. Mostrando l'applicabilità di tecniche dendroclimatologiche su piccola scala.
Resumo:
La salvaguardia della risorsa suolo, bene comune da preservare per le future generazioni, sollecita l’adozione di principi dell’agroecologia nella gestione dei vigneti. In questo contesto, il lavoro di Tesi condotto in un vigneto della cv Sangiovese (Castel Bolognese, RA) si è focalizzato sugli effetti delle strategie agroecologiche di gestione del suolo e, in particolare, sul fenomeno delle crepacciature attraverso lo sviluppo di un approccio metodologico basato sull’elaborazione ed analisi di immagini. Il suolo gestito attraverso l’utilizzo di un inerbimento “modulato a strisce”, caratterizzato dalla presenza di un miscuglio a base di leguminose autoriseminanti lungo il filare, ha migliorato lo stato idrico delle viti. La Tesi ha dimostrato che le strategie agronomiche implementate nel campo sperimentale, riducendo le lavorazioni meccaniche del suolo e limitandole alle sole operazioni di semina dei miscugli, possono contribuire significativamente alla conservazione della risorsa suolo. La metodologia per lo studio delle crepacciature, ideata e resa replicabile nel lavoro di Tesi, potrà essere adottata e sviluppata per confermare i benefici delle strategie agroecologiche.
Resumo:
In questa tesi abbiamo presentato/analizzato metodi variazionali allo stato dell’arte per la ricostruzione – ovvero, rimozione di sfocamento e rumore - di una classe specifica di segnali/immagini caratterizzati dal fatto di essere costanti a tratti e bilivello. Tali metodi ottengono la ricostruzione tramite la minimizzazione di un funzionale formato da due parti: un termine di fedeltà ai dati, la cui forma dipende dal tipo di rumore considerato, e un termine di regolarizzazione che codifica l’informazione a priori disponibile sul segnale da ricostruire (ad esempio, la sua regolarità). Per segnali costanti a tratti, è ben noto che il regolarizzatore deve avere la proprietà di promuovere la sparsità delle derivate prime del segnale. In particolare, molte proposte allo stato dell’arte sfruttano la pseudo-norma l0 o la norma l1 del gradiente, ossia la Variazione Totale (TV). La prima scelta è ottimale in linea teorica poiché promuove al meglio la sparsità, ma il funzionale è fortemente non convesso e i metodi numerici di minimizzazione possono convergere a soluzioni locali. Nel caso di TV si ha invece un problema convesso che garantisce la convergenza a minimi globali ma la qualità della soluzione è sub-ottima. Motivati da vantaggi/svantaggi di l0 ed l1, in questa tesi si è deciso di investigare (teoricamente e sperimentalmente) l’uso di modelli variazionali di tipo Convesso-NonConvesso (CNC). Questi utilizzano particolari regolarizzatori non convessi e parametrici che consentono da un lato di sparsificare meglio di l1, dall’altro di mantenere la convessità del funzionale così da presentare un unico punto di minimo. Tra i metodi CNC investigati, quello denominato GME-TV basato sul concetto di inviluppo di Moreau generalizzato ha prodotto ricostruzioni di qualità sempre migliore di TV e a volte, diremmo sorprendentemente, anche di l0. Questo rappresenta un risultato di particolare rilevanza scientifica nel campo della ricostruzione di segnali/immagini.
Resumo:
Il seguente lavoro è uno studio di iniezione (strategia, timing, spray pattern) svolto con la simulazione numerica, alle quali oggi si richiede dettaglio e accuratezza. Il lavoro si concentra sullo studio di spray multi componente, tramite la scrittura di una UDF (user define function) proprietaria, valutazione sensibilità dell'impatto a parete, film boiling a parametri modellistici influenzati dal multicomponente e scrittura di un codice per l'elaborazione delle immagini sia sperimentali che numeriche per rendere più esteso il confronto tra CFD e sperimentale, per migliorare le tarature e i modelli e comprendere meglio la fenomenologia.
Resumo:
Il 3D printing è presente da tempo in molti settori economici e da sempre ha nella sanità uno dei principali ambiti di applicazione. Durante il corso del presente lavoro sono state esaminate le principali applicazioni in campo sanitario con particolare focus sulla fase di planning in caso di chirurgia complessa. La pianificazione risulta essere la fase maggiormente impattante nel contesto più globale di gestione del paziente in quanto una maggior accuratezza nella visualizzazione del caso clinico consente di ottimizzare l’identificazione di un adeguato approccio chirurgico con ovvie conseguenti ripercussioni positive sulla totalità della degenza del paziente all’interno della struttura clinica ospitante. Nel dettaglio è stato valutato l’utilizzo di un innovativo protocollo di pre-planning e follow-up operatorio tramite la realizzazione di modelli stampati 3D a partire da immagini di diagnostica classica (TAC, MRI, 3Dscan) che hanno consentito di poter fornire allo specialista clinico di riferimento un prodotto che riproducendo perfettamente l’anatomia del soggetto (morfologia-proprietà fisiche del tessuto) ha consentito allo stesso un miglioramento delle usuali pratiche chirurgiche e terapeutiche in casi di elevata complessità in un arco temporale ristretto. I parametri utilizzati per la valutazione dei reali benefici dell’approccio esposto sono stati: tempi di pianificazione chirurgica e tempi di intervento all’interno di una più globale analisi dei costi associati. A fronte di un’indagine interna preventiva presso l’azienda ospedaliera ospitante sono stati designati i seguenti reparti come settori pilota: maxillofacciale, neurochirurgia e radiologia interventistica. Lo studio è stato svolto in collaborazione con l’ospedale M.Bufalini di Cesena in qualità di referente clinico e l’azienda Aid4Med Srl in qualità di azienda leader in pianificazione operatoria tramite ausili realizzati tramite tecniche di additive manufacturing.
Resumo:
I rifiuti plastici, oggigiorno, rappresentano una grande minaccia per l’ambiente, per gli ecosistemi e per la salute umana, tanto da essere al centro della attenzione di numerosi studi. La preoccupazione maggiore è destata dalle microplastiche (frammenti di dimensioni inferiori ai 5 mm) che per la loro dimensione, la loro ubiquità e la loro lunga persistenza in ambiente possono interferire in maniera allarmante con gli organismi viventi. L’ampia gamma di dimensioni delle microplastiche e la natura complessa delle loro forme, colori e tipi di polimero hanno impedito ai ricercatori di sviluppare una classificazione coerente data anche dall'attuale assenza di una standardizzazione nel metodo di campionamento, preparazione e analisi del campione. Infatti lo studio di questa tipologia di inquinanti può essere effettuato mediante diverse metodologie analitiche sia di tipo spettroscopico che termico. Con questo studio si è cercato di valutare le potenzialità della pirolisi analitica (PyGCMS) per la quantificazione e identificazione di sei polimeri: PE, PP, PS, PET, PVC e PA. Tramite un attento confronto con la letteratura sono stati identificati alcuni punti critici nell'analisi quantitativa di alcuni polimeri in miscela. In particolare, la miscela PET/PA è risultata essere soggetta a grandi interferenze date dalla comparsa di prodotti pirolitici secondari che ne impediscono una corretta quantificazione. Inoltre un diverso rapporto dei polimeri nella miscela binaria va a modificare la risposta quantitativa rendendola non prevedibile. L’uso di derivatizzanti come agenti metilanti sembra ridurre alcuni effetti di interazione in pirolisi, ma non sembra essere così vantaggioso come riportato in altri studi. Complessivamente la pirolisi analitica risulta una tecnica applicabile alla identificazione e quantificazione delle microplastiche, ma emerge dallo studio una scarsa conoscenza in letteratura delle interazioni in fase pirolitica tra prodotti di pirolisi di diversi polimeri.
Resumo:
La presente tesi si pone come obiettivo lo studio di meccanismi in grado di generare figure luminose nello spazio. Il metodo proposto è quello di riuscire a illuminare un piccolo punto nello spazio e di muoverlo ad una velocità tale da dare l'illusione di osservare un immagine fissa. Tale punto si assume che possa essere replicato più volte, in modo tale da costruire immagini più complesse grazie alla combinazione degli effetti. Il principio fisico a supporto dell'idea è stato trovato nei fenomeni di emissione spontanea, quindi in quei processi che vedono un atomo passare spontaneamente da uno stato elettronico eccitato a uno ad energia minore, liberando fotoni. Si sceglie di utilizzare uno schema di transizioni a quattro livelli energetici e di studiare la dinamica delle popolazioni di ciascun livello in funzione del tempo; la scelta di uno schema a quattro livelli è suggerita dalla possibilità di ottenere un emissione di fotoni "visibili", quindi con frequenza appartenente allo spettro visibile, a seguito di un eccitazione da parte di due laser "non visibili", in particolare infrarossi. Questa configurazione è particolarmente efficace se si considerano atomi con un unico elettrone di valenza. Inoltre, si vuole ricercare un elemento chimico che rispetti esattamente le condizioni richieste per eseguire le transizioni specificate; tra i vari elementi possibili è stato scelto il rubidio in stato gassoso, con i relativi livelli energetici da utilizzare.
Resumo:
L’obiettivo del seguente elaborato è quello di spiegare le modalità con cui viene monitorato il misfire, le varie strategie a supporto e la calibrazione che ne consegue in un motore V6 Twin Spark con sistema a precamera. Le varie attività sono state svolte nel gruppo OBD presso il dipartimento Powertrain dell’azienda Maserati S.p.A. nell’ambito della diagnosi misfire. Nella prima parte dell’elaborato verrà introdotto un quadro illustrativo delle normative vigenti in tema di emissioni per un motore a combustione interna che delineerà l’esigenza di avere un sistema di monitoraggio On-Board Diagnostic, e verranno descritte le principali diagnosi per i componenti meccanici ed elettronici. Nel secondo capitolo verrà introdotto il concetto di misfire, la sua classificazione e i requisiti che devono essere rispettati per il suo monitoraggio; nell’ultima parte, verrà descritto il motore oggetto di studi e le strumentazioni utilizzate per lo sviluppo dell’attività. Nel terzo capitolo verranno introdotte le varie strategie utilizzate per il rilevamento della mancata accensione della miscela e verrà illustrato come il sistema a precamera ha richiesto la loro revisione. In particolare, per quanto riguarda l’utilizzo della corrente di ionizzazione saranno analizzate le criticità dovute a questo nuovo sviluppo e per l’analisi della variazione di velocità angolare della ruota fonica verrà analizzato come tale sviluppo ha impattato nelle temperature del catalizzatore e nella robustezza della diagnosi effettuata. Infine, nell’ultimo capitolo verrà illustrato come ci si è approcciati alla calibrazione della finestra di osservazione, partendo dalle prove effettuate al banco, proseguendo con l’analisi di tali prove nelle varie condizioni di funzionamento del motore e concludendo con l’implementazione del processo di calcolo automatizzato per la calibrazione. In merito a quest'ultimo punto è stato sviluppato un Tool finalizzato a calcolare la finestra ottimale per ogni punto motore.