10 resultados para Abuso e anomalia
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
Questo lavoro nasce principalmente da un legame affettivo e di parentela che mi lega alla figura di Mario Giacomelli e alla sua grande opera di fotografo che lo ha portato a raggiungere un ruolo fondamentale nella storia della fotografia contemporanea. Ricordo che sin da quando ero bambino rimanevo affascinato dalle sue opere, da quei paesaggi fotografati in bianco e nero, da quelle sagome dei pretini che sembrano danzare nel vuoto, il tutto però senza capire la vera importanza di quello che avevo davanti ai miei occhi e ignorando completamente tutto l’interesse, le critiche e i dibattiti che quegli scatti accendevano in quegli anni, al punto di venire addirittura esposti in quello che si può definire il museo di arte moderna per antonomasia, ovvero il MoMa, in fondo per me non era altro che uno zio. Il ricordo mi porta nella sua piccola e buia Tipografia Marchigiana, in pieno centro storico a Senigallia, proprio dietro il Municipio, dove lo trovavo sempre indaffarato con timbri, foto e oggetti di ogni tipo, sommerso in un caos primordiale. È incredibile pensare come in quel minuscolo negozio siano passati tutti i più grandi personaggi della fotografia italiana, quali Giuseppe Cavalli, Ferruccio Ferroni, Gianni Berengo Gardin, Ferdinando Scianna; dietro quella facciata di piccola bottega si nascondeva un universo parallelo che entrava in contatto con le più importanti gallerie e musei di arte contemporanea del mondo. Oggi al suo posto c’è una Parrucchieria. Molte cose sono cambiate, io ho capito, aimè in ritardo, l’importanza del personaggio che ho avuto la fortuna di conoscere e di avere come parente. La città stessa si è accorta solo dopo la morte, come spesso accade, di quale formidabile artista ha cresciuto, un artista che è sempre rimasto fedele alla sua terra di origine, che ha rappresentato una fonte inesauribile di spunti per la sua opera fotografica. A quel punto si è scatenato un turbinio di conferenze, mostre e pubblicazioni sul lavoro di Giacomelli, tanto che sarebbe rimasto impossibile a chiunque non capire il peso che questa figura ha ancora oggi per la città. Proprio lo scorso Novembre è ricorso il decennale della sua scomparsa e in questa occasione si è dato il via ad una infinita serie di iniziative, mostre, conferenze e pubblicazioni dedicate alla figura del fotografo senigalliese, ribadendo la necessità per la città di dotarsi di uno spazio idoneo ad ospitare questi eventi. In una recente intervista condotta dal quotidiano Il Resto del Carlino, Simone Giacomelli, figlio del fotografo, ha sottolineato l’urgenza della creazione di uno spazio dedicato alle fotografie del padre “Io lavoro molto con l'estero e sono in contatto con appassionati che arrivano da tutto il mondo per ammirare le foto di Giacomelli. C'è un gruppo di studenti che mi ha contattato dall'Australia. Ho dovuto dire di aspettare perché in città c'è una raccolta di foto al Museo mezzadria ed una parte al Museo dell'informazione. Manca un luogo dove si possa invece vedere tutta la produzione.”. Con queste premesse il progetto per un Centro Internazionale della Fotografia non poteva che essere a Senigallia, non tanto per il fatto di essere la mia città, alla quale sono molto legato, quanto per l’essere stata la culla di un grande artista quale Mario Giacomelli, dalla quale non si è mai voluto allontanare e che ha rappresentato per lui la fonte di ispirazione di quasi tutte le sue opere. Possiamo dire che grazie a questo personaggio, Senigallia è diventata la città della Fotografia, in quanto non passa settimana senza che non venga presentata una nuova iniziativa in ambito fotografico e non vengano organizzate mostre di fotografi di calibro internazionale quali Henri Cartier Bresson, Ara Guler, etc… Ecco quindi motivato il titolo di Internazionale attribuito al museo, in quanto da questo cuore pulsante si dovranno creare una serie di diramazioni che andranno a collegare tutti i principali centri di fotografia mondiali, favorendo lo scambio culturale e il dibattito. Senigallia è una città di modeste dimensioni sulla costa adriatica, una città dalle grandi potenzialità e che fa del turismo sia balneare che culturale i suoi punti di forza. La progettazione di questa sede museale mi ha permesso di affrontare e approfondire lo studio storico della città nella sua evoluzione. Da questa analisi è emerso un caso molto particolare ed interessante, quello di Piazza Simoncelli, un vuoto urbano che si presenta come una vera e propria lacerazione del tessuto cittadino. La piazza infatti è stata sede fino al 1894 di uno dei quattro lotti del ghetto ebraico. Cambia quindi il ruolo del sito. Ma la mancata capacità aggregativa di questo vuoto, data anche dal fatto della mancanza di un edificio rappresentativo, ne muta il ruolo in parcheggio. E’ la storia di molti ghetti italiani inseriti in piani di risanamento che vedevano la presenza del costruito antecedente, come anomalia da sanare. E’ la storia del ghetto di Roma o di quello di Firenze, che sorgeva nel luogo dell’attuale Piazza della Repubblica. Tutti sventrati senza motivazioni diverse che non la fatiscenza dell’aggregato. A Senigallia il risultato è stato una vera e propria lacerazione del tessuto urbano, giungendo alla produzione di un vuoto oppositivo al resto della città, che ha portato la perdita della continuità spaziale, se non si vuole poi far riferimento a quella culturale. Il mio intervento quindi vede nel legame con la storia e con l’identità del luogo un punto fondamentale di partenza. Da queste basi ho cercato di sviluppare un progetto che ha come presupposto il forte legame con la memoria del luogo e con le architetture locali. Un progetto che possa rappresentare un polo culturale, un cuore pulsante dove poter sviluppare e approfondire le conoscenze fotografiche, dal quale poter entrare in contatto con tutti i principali centri dedicati alla fotografia e nel quale poter tenere sempre vivo il ricordo di uno dei più importanti artisti che la città ha avuto la fortuna di crescere.
Resumo:
La contaminazione da fonti diffuse e locali può determinare perdite di funzionalità del suolo e ripercuotesi a cascata nelle catene alimentari, attraverso la contaminazione di falde e corpi d'acqua, l'assorbimento da parte dei vegetali e degli animali fino all'uomo. Industrializzazione, urbanizzazione e pratiche agricole sono le tre principali sorgenti di metalli nei suoli. In questo lavoro di tesi, che ha avuto come area oggetto di studio parte del territorio del Comune di Ravenna, sono stati analizzati gli arricchimenti di Cr, Ni, Cu, Zn e Pb applicando una metodica impostata sul confronto tra le concentrazioni totali rinvenute in superficie e in profondità mediante il calcolo dell'Indice di Geoaccumulo. La sola determinazione delle aliquote dei metalli negli orizzonti superficiali del suolo, non è, di per sé, in grado di fornire indicazioni esaustive circa lo stato di contaminazione dei suoli. Infatti, tale informazione, non permette la distinzione tra origine naturale o arricchimento determinato da attività antropica. In più lo studio ha valutato la possibile relazione con le caratteristiche del substrato (origine del sedimento) e l'uso del suolo. Alte concentrazioni di Cr e Ni, in corrispondenza della Pineta San Vitale (area naturale) non sono attribuibili a contaminazioni di natura antropica, bensì dipendono dal parent material. La distribuzione delle anomalie per Cu, Zn e Pb, invece, sembra dipendere invece dall'uso dei suoli presenti nell'area oggetto di studio. Il contenuto naturale di questi metalli può variare notevolmente a seconda del materiale su cui si è sviluppato il suolo e questo riflette i tenori di fondo per le diverse unità. I tenori di fondo del Cr calcolati per il deposito di cordone litorale (DCL), dove oggi è impostata la Pineta San Vitale (area naturale), sono maggiori rispetto ai limiti di concentrazione previsti dal Decreto Legislativo n°152 del 2006 per questa tipologia di aree. Cu, Zn e Pb, invece, presentano tenori di fondo bassi in corrispondenza del deposito del cordone litorale (DCL), costituito da materiale a granulometria grossolana. Per questi metalli è il fattore granulometria ad avere un ruolo fondamentale nello stabilire i valori di background negli altri depositi. In ultima analisi, per valutare gli effetti e i rischi associati in presenza di alte concentrazioni di Cr, Ni, Cu, Zn e Pb, è stata quantificata la frazione che può essere resa biodisponibile con DTPA. Le anomalie riscontrate sono state confrontate in primo luogo con alcuni campioni di controllo, coerenti con i valori di background per i cinque metalli. La bassa biodisponibilità osservata per Cr e Ni riflette il forte legame di questi metalli con la fase mineralogica, non rappresentando un pericolo per le piante e di conseguenza per gli animali superiori. Cu, Zn e Pb presentano, in alcuni casi, concentrazioni biodisponibili sia proporzionali all'entità dell'anomalia evidenziata con il calcolo dell'Indice di Geoaccumulo, sia maggiori rispetto a quelle dei campioni selezionati come controlli.
Resumo:
La presente tesi è dedicata al riuso nel software. Eccettuata un'introduzione organica al tema, l'analisi è a livello dei meccanismi offerti dai linguaggi di programmazione e delle tecniche di sviluppo, con speciale attenzione rivolta al tema della concorrenza. Il primo capitolo fornisce un quadro generale nel quale il riuso del software è descritto, assieme alle ragioni che ne determinano l'importanza e ai punti cruciali relativi alla sua attuazione. Si individuano diversi livelli di riuso sulla base dell'astrazione e degli artefatti in gioco, e si sottolinea come i linguaggi contribuiscano alla riusabilità e alla realizzazione del riuso. In seguito, viene esplorato, con esempi di codice, il supporto al riuso da parte del paradigma ad oggetti, in termini di incapsulamento, ereditarietà, polimorfismo, composizione. La trattazione prosegue analizzando differenti feature – tipizzazione, interfacce, mixin, generics – offerte da vari linguaggi di programmazione, mostrando come esse intervengano sulla riusabilità dei componenti software. A chiudere il capitolo, qualche parola contestualizzata sull'inversione di controllo, la programmazione orientata agli aspetti, e il meccanismo della delega. Il secondo capitolo abbraccia il tema della concorrenza. Dopo aver introdotto l'argomento, vengono approfonditi alcuni significativi modelli di concorrenza: programmazione multi-threaded, task nel linguaggio Ada, SCOOP, modello ad Attori. Essi vengono descritti negli elementi fondamentali e ne vengono evidenziati gli aspetti cruciali in termini di contributo al riuso, con esempi di codice. Relativamente al modello ad Attori, viene presentata la sua implementazione in Scala/Akka come caso studio. Infine, viene esaminato il problema dell'inheritance anomaly, sulla base di esempi e delle tre classi principali di anomalia, e si analizza la suscettibilità del supporto di concorrenza di Scala/Akka a riscontrare tali problemi. Inoltre, in questo capitolo si nota come alcuni aspetti relativi al binomio riuso/concorrenza, tra cui il significato profondo dello stesso, non siano ancora stati adeguatamente affrontati dalla comunità informatica. Il terzo e ultimo capitolo esordisce con una panoramica dell'agent-oriented programming, prendendo il linguaggio simpAL come riferimento. In seguito, si prova ad estendere al caso degli agenti la nozione di riuso approfondita nei capitoli precedenti.
Resumo:
Studio di fattibilità sull'utilizzo della tecnologia radar Ultra Wideband per il controllo non distruttivo di manufatti in materiale composito in fibra di carbonio. La tecnologia radar UWB permette, a differenza dei radar convenzionali, una maggiore risoluzione e un maggior quantitativo di informazioni estraibili dal segnale ricevuto come eco. Nella prima parte del lavoro ci si è concentrati sulla individuazione dell'eventuale presenza del difetto in lastre di materiale composito di differenti dimensioni. Le lastre vengono "illuminate" da un fascio di onde radar UWB dal cui eco si estraggono le informazioni necessarie per determinare la presenza o meno del difetto. Lo scopo è progettare le basi di un algoritmo che, qualora la lastra in esame presenti una certa difettologia, informi l'utente della presenza dell'anomalia. Nella seconda parte si è passati a scansionare la lastra con un radar UWB in modo tale da costruire un'immagine della stessa grazie alle informazioni ricevute dai segnali eco. Per fare questo è stata necessaria dapprima la costruzione di un movimentatore ad hoc in grado di muovere il radar lungo due dimensioni (per permetterne la scansione del piano della lastra). Il movimentatore, autocostruito, è gestibile da Matlab attraverso cavo USB. L'algoritmo di controllo gestisce sia la movimentazione che l'acquisizione dei segnali ricevuti e quindi la creazione del database, punto di partenza per la creazione dell'immagine della lastra. Rispetto alla prima fase del lavoro dove si cercava di sapere se ci fosse o meno il difetto, ora, si è in grado di determinare dimensione e posizione dello stesso.
Resumo:
Questa tesi si propone di investigare l'origine di effetti non gaussiani nella distribuzione del segnale del rivelatore Time of Flight (TOF) dell'esperimento A Large Ion Collider Experiment (ALICE). Con la presa dati iniziata nel 2009 si è infatti osservata un'asimmetria nel segnale la cui origine è ancora oggetto di studio. L'analisi svolta mostra come essa sia dovuta a motivi strumentali piuttosto che fenomenologici e permette quindi di correggere in parte questa anomalia migliorando la risoluzione del rivelatore. ALICE è uno dei quattro esperimenti allestiti lungo l'anello del LHC e ha come obiettivo principale verificare l'esistenza di prove sperimentali che confermino l'esistenza di un nuovo stadio della materia, il cosiddetto Quark Gluon Plasma (QGP). Secondo la Cromodinamica Quantistica (QCD), la teoria che descrive l'interazione forte, caratteristica fondamentale di quark e gluoni è il loro confinamento all'interno di adroni. Studi recenti nell'ambito della QCD non-perturbativa hanno tuttavia dimostrato che in condizioni estreme di densità di materia adronica e temperatura sarebbe possibile un'inversione di tendenza nell'andamento della costante di accoppiamento forte. Le condizioni necessarie alla formazione del QGP sono ben riproducibili nelle collisioni ad energie ultrarelativistiche tra ioni pesanti, come quelle che sono state prodotte a LHC negli ultimi due anni, fra ioni di piombo con energie del centro di massa pari a 2.76 TeV per coppia di nucleoni. L'esperimento ALICE si propone di studiarne i prodotti e poiché la molteplicità di particelle che si generano nell'urto e considerevole, e necessario un sistema di rivelazione che permetta l'identificazione di particelle cariche su un grande angolo solido e in un ampio intervallo di impulsi. Il TOF, utilizzando un particolare rivelatore a gas detto Multigap Resistive Plate Chamber (MRPC), svolge brillantemente questo compito permettendo di raggiungere una risoluzione temporale inferiore ai 100 ps.
Resumo:
La diga di Ridracoli costituisce la principale riserva di acqua potabile di tutta la Romagna. E’ ubicata nell’alto Appennino romagnolo, nella vallata del fiume Bidente, dal quale riceve le acque sia direttamente sia indirettamente, per mezzo di una galleria di gronda. Lo studio si è concentrato sullo studio dei sedimenti, sia di diga sia dei bacini limitrofi, per effettuare una caratterizzazione geochimica dell’area e un confronto tra i terreni fluviali e di lago. I sedimenti rappresentano un fattore importante perché permettono di determinare le dinamiche che coinvolgono un corso d’acqua, la composizione e i possibili contaminanti presenti. Il lavoro svolto si divide in tre fasi: campionamento, analisi dei campioni e interpretazione dei risultati. Sono stati campionati punti in corrispondenza degli affluenti di diga, punti interni al lago e punti lungo il bacino del Bidente. Le analisi svolte consistono in analisi di spettrometria di fluorescenza a raggi X, analisi all’IPC-MS con pretrattamento in acqua regia, analisi elementari al CHN, analisi granulometriche con sedigrafo e determinazione della LOI. Attraverso analisi statistiche e di correlazione si è osservato il comportamento dei metalli nei confronti dei principali componenti dei sedimenti, della granulometria e del contenuto di materia organica. Sono stati calcolati valori di fondo per i metalli potenzialmente tossici attraverso differenti metodi e confrontati con alcune soglie normative valutando come non vi siano superamenti, a parte per Cr e Ni e Cd, imputabili però semplicemente a caratteristiche geologiche. Si sono costruite infine mappe di concentrazione per evidenziare la distribuzione dei singoli elementi. Si è osservato come i campioni di lago abbiano un andamento corrispondente ai campioni delle zone limitrofe senza presentare alcuna anomalia sia pere con concentrazioni localmente più elevate per la prevalenza di materiale fine. I dati non evidenziano particolari criticità.
Resumo:
Da poco più di 30 anni la comunità scientifica è a conoscenza dell’occasionale presenza di strutture cicloniche con alcune caratteristiche tropicali sul Mar Mediterraneo, i cosiddetti medicane. A differenza dei cicloni baroclini delle medie latitudini, essi posseggono una spiccata simmetria termica centrale che si estende per gran parte della troposfera, un occhio, talvolta privo di nubi, e una struttura nuvolosa a bande spiraleggianti. Ad oggi non esiste ancora una teoria completa che spieghi la loro formazione ed evoluzione. La trattazione di questa tesi, incentrata sull’analisi dei campi di vorticità potenziale e di umidità relativa, è sviluppata nell’ottica di una miglior comprensione delle dinamiche alla mesoscala più rilevanti per la nascita dei medicane. Lo sviluppo di tecniche avanzate di visualizzazione dei campi generati dal modello WRF, quali l’animazione tridimensionale delle masse d’aria aventi determinate caratteristiche, ha permesso l’individuazione di due zone di forti anomalie di due campi derivati dalla vorticità potenziale in avvicinamento reciproco, intensificazione e mutua interazione nelle ore precedenti la formazione dei medicane. Tramite la prima anomalia che è stata chiamata vorticità potenziale secca (DPV), viene proposta una nuova definizione di tropopausa dinamica, che non presenta i problemi riscontrati nella definizione classica. La seconda anomalia, chiamata vorticità potenziale umida (WPV), individua le aree di forte convezione e permette di avere una visione dinamica dello sviluppo dei medicane alle quote medio-basse. La creazione di pseudo immagini di vapore acqueo tramite la teoria del trasferimento radiativo e la comparazione di queste mappe con quelle effettivamente misurate nei canali nella banda del vapore acqueo dai sensori MVIRI e SEVIRI dei satelliti Meteosat hanno da un lato confermato l’analisi modellistica, dall’altro consentito di stimare gli errori spazio-temporali delle simulazioni. L’utilizzo dei dati di radianza nelle microonde, acquisiti dai sensori AMSU-B e MHS dei satelliti NOAA, ha aggiunto ulteriori informazioni sia sulle intrusioni di vorticità potenziale che sulla struttura degli elementi convettivi presenti sul dominio, in modo particolare sulla presenza di ghiaccio in nube. L’analisi dettagliata di tre casi di medicane avvenuti nel passato sul Mar Mediterraneo ha infine consentito di combinare gli elementi innovativi sviluppati in questo lavoro, apportando nuove basi teoriche e proponendo nuovi metodi di indagine non solo per lo studio di questi fenomeni ma anche per un’accurata ricerca scientifica su ciclogenesi di altro tipo.
Resumo:
Lo studio ha lo scopo di valutare e confrontare l'efficienza del packaging in “LID” con atmosfera modificata a confronto con il confezionamento più tradizionale in “stretch” con atmosfera ordinaria, sulla shelf-life di diversi prodotti avicoli quali petti e sovracosce di pollo e fese di tacchino. A tal fine sui prodotti diversamente confezionati sono state valutate le variazioni di alcuni parametri qualitativi analizzando e confrontando alcuni aspetti tecnologici (pH, colore, texture, capacità di ritenzione idrica) durante un periodo di stoccaggio di 15 giorni in diverse condizioni di refrigerazione: durante i primi 3 giorni a 0-2°C, dal terzo al quindicesimo giorno a 6-8°C, al fine di simulare condizioni di abuso termico ed accelerare i fenomeni di deterioramento.
Resumo:
Lo scopo di questa tesi è quello di evidenziare, attraverso varie analisi statistiche ed applicazione di modelli stocastici, il comportamento strutturale e funzionale dei dinucleotidi che compongono le sequenze di DNA di diversi organismi. Gli organismi che abbiamo scelto di prendere in considerazione sono l'uomo, il topo e l'Escherichia coli. Questa scelta non è stata casuale, ma oculata, al fine di mettere in risalto alcune differenze tra organismi eucarioti, quali l'uomo e il topo, ed organismi procarioti come il batterio E.coli. Nella prima parte del nostro studio, abbiamo computato le distanze che intercorrono tra occorrenze successive dello stesso dinucleotide lungo la sequenza, usando un metodo di non sovrapposizione, ed abbiamo iterato il calcolo per tutti i 16 dinucleotidi. Dopodiché ci siamo preoccupati di graficare le distribuzioni di distanza dei 16 dinucleotidi per l'E.Coli, il topo e l'uomo; gli istogrammi evidenziano un comportamento anomalo della distribuzione di CG che accomuna gli organismi eucarioti e di cui, invece, è esente l'organismo procariote esaminato. Questo dato statistico trova una spiegazione nei processi biologici di metilazione che possono innescarsi sul dinucleotide CG nelle sequenze eucariotiche. In seguito, per determinare quanto ciascuna delle 16 distribuzioni si discosti dalle altre abbiamo usato la divergenza di Jensen-Shannon. Per quantificare le differenze sostanziali tra le distribuzioni di CG dei 3 organismi considerati abbiamo deciso di verificare quale fosse il miglior fit per tali curve tra un esponenziale ed una power-law. L'esponenziale rappresenta un buon fit per le code delle distribuzioni di CG del topo e dell'uomo; ciò rivela la presenza di una lunghezza caratteristica per entrambi gli organismi. Nella seconda parte dello studio, i risultati vengono confrontati con modelli markoviani: sequenze random generate con catene di Markov di ordine zero (basate sulle frequenze relative dei nucleotidi) e uno (basate sulle probabilità di transizione tra diversi nucleotidi). Quest'ultima riproduce abbastanza fedelmente la sequenza biologica di partenza, per cui abbiamo scelto di utilizzare la catena Markov del 1° ordine per altre analisi statistiche riguardanti le distribuzioni dei nucleotidi, dinucleotidi, ed anche dei trinucleotidi con particolare interesse per quelli in cui è contenuto CG, in modo da verificare se l'anomalia si ripercuote anche in essi. Riteniamo pertanto che metodi basati su questo approccio potrebbero essere sfruttati per confermare le peculiarità biologiche e per migliorare l'individuazione delle aree di interesse, come le isole CpG, ed eventualmente promotori e Lamina Associated Domains (LAD), nel genoma di diversi organismi.
Resumo:
Per molto tempo le risorse di acque sotterranee e quelle di acque superficiali sono state considerate e gestite come due entità a sé stanti; in realtà questi due corpi d’acqua rappresentano le componenti di un’unica risorsa: qualsiasi genere di impatto su una delle due andrà ad influire inevitabilmente sulla quantità o sulla qualità dell’altra. Lo scopo di questa tesi è quello di comprendere che grado di interazione esiste tra i Fiumi Uniti e l’acquifero costiero ravennate mediante due approcci distinti: (1) con l’analisi di profili termici teorici e ottenuti dal monitoraggio di misure termometriche in quattro piezometri, si intende ottenere informazioni riguardanti i flussi idrici sotterranei, (2) con la modellazione numerica dell’area nei pressi dei Fiumi Uniti (mediante Processing Modflow) è possibile ottenere una stima dei flussi sotterranei dal fiume verso l’acquifero nella zona di riferimento. Inoltre durante il monitoraggio del mese di settembre 2015 è stato installato un diver, ad una profondità di -7,4 m, in uno dei piezometri per ottenere un monitoraggio continuo per tutto il mese di ottobre. I dati termici rilevati in campo hanno permesso di confermare l’esistenza di un’importante interazione tra i corsi d’acqua presi in esame e l’acquifero costiero ravennate, testimoniato dall’ampia variazione di temperatura negli strati più superficiali. Inoltre tra il 10 e l’11 ottobre è stata registrata un’anomalia termica causata da un flusso orizzontale di acqua più calda in prossimità del piezometro proveniente dai Fiumi Uniti mediante trasporto per avvezione: tale anomalia viene registrata circa 2 giorni dopo una piena dei Fiumi Uniti. Grazie alla modellazione numerica è stato possibile confermare le tempistiche con cui l’acqua percorre la distanza tra il fiume e il piezometro preso in considerazione.