935 resultados para Superfici minime, porzione regolare di superfici, area minima, problema variazionale.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel periodo storico compreso tra la seconda metà dell’Ottocento ed il primo ventennio del Novecento, un’ondata di innovazioni tecnologiche e scientifiche, unitamente all’espansione dell’industria siderurgica e la conseguente diffusione del ferro come materiale da costruzione, portarono alla realizzazione di strutture metalliche grandiose. Ciò fu reso possibile grazie ad una fervida attività di ricerca che permise la risoluzione di problematiche tecniche di assoluto rilievo, come la progettazione di grandi coperture o di ponti destinati al traffico ferroviario in grado di coprire luci sempre maggiori. In questo contesto si sviluppò il sistema della chiodatura come metodo di unione per il collegamento rigido e permanente dei vari elementi che compongono la struttura portante metallica. Ad oggi il sistema della chiodatura è stato quasi completamente sostituito dalla bullonatura di acciaio ad alta resistenza e dalla saldatura, che garantendo gli stessi standard di affidabilità e sicurezza, offrono vantaggi in termini economici e di rapidità esecutiva. Tuttavia lo studio delle unioni chiodate continua a rivestire notevole importanza in tutti quei casi in cui il progettista debba occuparsi di restauro, manutenzione o adeguamento di strutture esistenti che in molti casi continuano ad assolvere le funzioni per le quali erano state progettate. La valutazione delle strutture esistenti, in particolare i ponti, ha assunto un’importanza sempre crescente. L’incremento della mobilità e del traffico sulle infrastrutture di trasporto ha portato ad un incremento contemporaneo di carichi e velocità sui ponti. In particolare nelle ferrovie, i ponti rappresentano una parte strategica della rete ferroviaria e in molti casi, essi hanno già raggiunto i loro limiti di capacità di traffico, tanto è vero che l’età media del sessanta percento dei ponti metallici ferroviari è di un centinaio di anni. Pertanto i carichi di servizio, i cicli di sforzo accumulati a causa dei carichi da traffico e il conseguente invecchiamento delle strutture esistenti, inducono la necessità della valutazione della loro rimanente vita a fatica. In questo contesto, la valutazione delle condizioni del ponte e le conseguenti operazioni di manutenzione o sostituzione diventano indispensabili. Negli ultimi decenni sono state effettuate numerose iniziative di ricerca riguardo il comportamento a fatica dei ponti ferroviari chiodati, poiché le passate esperienze hanno mostrato che tali connessioni sono suscettibili di rotture per fatica. Da uno studio dell’ASCE Committee on Fatigue and Fracture Reliability è emerso che l’ottanta, novanta percento delle crisi nelle strutture metalliche è da relazionarsi ai fenomeni di fatica e frattura. Il danno per fatica riportato dai ponti chiodati è stato osservato principalmente sulle unioni tra elementi principali ed è causato dagli sforzi secondari, che si possono sviluppare in diverse parti delle connessioni. In realtà riguardo la valutazione della fatica sui ponti metallici chiodati, si è scoperto che giocano un ruolo importante molti fattori, anzitutto i ponti ferroviari sono soggetti a grandi variazioni delle tensioni indotte da carichi permanenti e accidentali, così come imperfezioni geometriche e inclinazioni o deviazioni di elementi strutturali comportano sforzi secondari che solitamente non vengono considerati nella valutazione del fenomeno della fatica. Vibrazioni, forze orizzontali trasversali, vincoli interni, difetti localizzati o diffusi come danni per la corrosione, rappresentano cause che concorrono al danneggiamento per fatica della struttura. Per questo motivo si studiano dei modelli agli elementi finiti (FE) che riguardino i particolari delle connessioni e che devono poi essere inseriti all’interno di un modello globale del ponte. L’identificazione degli elementi critici a fatica viene infatti solitamente svolta empiricamente, quindi è necessario che i modelli numerici di cui si dispone per analizzare la struttura nei particolari delle connessioni, così come nella sua totalità, siano il più corrispondenti possibile alla situazione reale. Ciò che ci si propone di sviluppare in questa tesi è un procedimento che consenta di affinare i modelli numerici in modo da ottenere un comportamento dinamico analogo a quello del sistema fisico reale. Si è presa in esame la seguente struttura, un ponte metallico ferroviario a binario unico sulla linea Bologna – Padova, che attraversa il fiume Po tra le località di Pontelagoscuro ed Occhiobello in provincia di Ferrara. Questo ponte fu realizzato intorno agli anni che vanno dal 1945 al 1949 e tra il 2002 e il 2006 ha subito interventi di innalzamento, ampliamento ed adeguamento nel contesto delle operazioni di potenziamento della linea ferroviaria, che hanno portato tra l’altro all’affiancamento di un nuovo ponte, anch’esso a singolo binario, per i convogli diretti nella direzione opposta. Le travate metalliche del ponte ferroviario sono costituite da travi principali a traliccio a gabbia chiusa, con uno schema statico di travi semplicemente appoggiate; tutte le aste delle travi reticolari sono formate da profilati metallici in composizione chiodata. In particolare si è rivolta l’attenzione verso una delle travate centrali, della quale si intende affrontare un’analisi numerica con caratterizzazione dinamica del modello agli Elementi Finiti (FEM), in modo da conoscerne lo specifico comportamento strutturale. Ad oggi infatti l’analisi strutturale si basa prevalentemente sulla previsione del comportamento delle strutture tramite modelli matematici basati su procedimenti risolutivi generali, primo fra tutti il Metodo agli Elementi Finiti. Tuttavia i risultati derivanti dal modello numerico possono discostarsi dal reale comportamento della struttura, proprio a causa delle ipotesi poste alla base della modellazione. Difficilmente infatti si ha la possibilità di riscontrare se le ipotesi assunte nel calcolo della struttura corrispondano effettivamente alla situazione reale, tanto più se come nella struttura in esame si tratta di una costruzione datata e della quale si hanno poche informazioni circa i dettagli relativi alla costruzione, considerando inoltre che, come già anticipato, sforzi secondari e altri fattori vengono trascurati nella valutazione del fenomeno della fatica. Nel seguito si prenderanno in esame le ipotesi su masse strutturali, rigidezze dei vincoli e momento d’inerzia delle aste di parete, grandezze che caratterizzano in particolare il comportamento dinamico della struttura; per questo sarebbe ancora più difficilmente verificabile se tali ipotesi corrispondano effettivamente alla costruzione reale. Da queste problematiche nasce l’esigenza di affinare il modello numerico agli Elementi Finiti, identificando a posteriori quei parametri meccanici ritenuti significativi per il comportamento dinamico della struttura in esame. In specifico si andrà a porre il problema di identificazione come un problema di ottimizzazione, dove i valori dei parametri meccanici vengono valutati in modo che le caratteristiche dinamiche del modello, siano il più simili possibile ai risultati ottenuti da elaborazioni sperimentali sulla struttura reale. La funzione costo è definita come la distanza tra frequenze proprie e deformate modali ottenute dalla struttura reale e dal modello matematico; questa funzione può presentare più minimi locali, ma la soluzione esatta del problema è rappresentata solo dal minimo globale. Quindi il successo del processo di ottimizzazione dipende proprio dalla definizione della funzione costo e dalla capacità dell’algoritmo di trovare il minimo globale. Per questo motivo è stato preso in considerazione per la risoluzione del problema, l’algoritmo di tipo evolutivo DE (Differential Evolution Algorithm), perché gli algoritmi genetici ed evolutivi vengono segnalati per robustezza ed efficienza, tra i metodi di ricerca globale caratterizzati dall’obiettivo di evitare la convergenza in minimi locali della funzione costo. Obiettivo della tesi infatti è l’utilizzo dell’algoritmo DE modificato con approssimazione quadratica (DE-Q), per affinare il modello numerico e quindi ottenere l’identificazione dei parametri meccanici che influenzano il comportamento dinamico di una struttura reale, il ponte ferroviario metallico a Pontelagoscuro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce all’interno del progetto ENI SEALINE-“Monitoraggio Linea di Costa e Sedimenti Ravenna”che segue il progetto appena concluso “Valutazione Impatto Ambientale Sealine Ravenna”(Protocollo d’Intesa fra Eni e ARPA Agenzia Regionale Prevenzione ed Ambiente). Il progetto in questione prende il nome di “PROGETTO SEALINE 3” e riparte dai precedenti risultati e relative conclusioni ottenute nell’arco dei PROGETTI SEALINE 1 e 2. Le Sealines sono oleodtti che si snodano da Punta Marina fino ai terminali SAROM, oggi in gestione all’azienda Eni, impattando un area di circa 290 km2. L’impatto attuale degli oleodotti appartenenti al complesso SEALINE A e SEALINE B se pur dismessi negli anni 70 e bonificati nel 2003 rimane argomento preponderante per lo stato della qualità ambientale e nello specifico delle acque adriatiche. Indispensabile a tale scopo è lo studio della comunità macrobentonica che caratterizza la zona; un analisi temporale relativa quest’ultima, relativa a tre anni di campionamento (2005-2006-2010) ha visto considerate 23 stazioni suddivise tra zone di controllo e Sealines. La comunità si è dimostrata fluttuante nel tempo e nello spazio con particolare discostamento tra zone impattate e non. Analisi collaterali sulla struttura di comunità hanno inoltre evidenziato il ruolo della batimetria nel guidare tale differenze; il fattore geografico in questione è stato sottolineato dall’analisi delle specie caratterizzanti le diverse batimetrie; specie quali Corbula gibba o Ampelisca diadema sono risultate vincolanti nel caratterizzare tali differenze. L’analisi sul gruppo trofico delle specie appartenenti alla comunità di Sealines, in relazione non solo al fattore batimetrico, ma anche a fattori quali concentrazioni lungo la colonna d’acqua di “clorofilla a”, e granulometria hanno posto l’accento delle differenze su un gradiente geospaziale e non di tipo area-sito.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La distorsione della percezione della distanza tra due stimoli puntuali applicati sulla superfice della pelle di diverse regioni corporee è conosciuta come Illusione di Weber. Questa illusione è stata osservata, e verificata, in molti esperimenti in cui ai soggetti era chiesto di giudicare la distanza tra due stimoli applicati sulla superficie della pelle di differenti parti corporee. Da tali esperimenti si è dedotto che una stessa distanza tra gli stimoli è giudicata differentemente per diverse regioni corporee. Il concetto secondo cui la distanza sulla pelle è spesso percepita in maniera alterata è ampiamente condiviso, ma i meccanismi neurali che manovrano questa illusione sono, allo stesso tempo, ancora ampiamente sconosciuti. In particolare, non è ancora chiaro come sia interpretata la distanza tra due stimoli puntuali simultanei, e quali aree celebrali siano coinvolte in questa elaborazione. L’illusione di Weber può essere spiegata, in parte, considerando la differenza in termini di densità meccano-recettoriale delle differenti regioni corporee, e l’immagine distorta del nostro corpo che risiede nella Corteccia Primaria Somato-Sensoriale (homunculus). Tuttavia, questi meccanismi sembrano non sufficienti a spiegare il fenomeno osservato: infatti, secondo i risultati derivanti da 100 anni di sperimentazioni, le distorsioni effettive nel giudizio delle distanze sono molto più piccole rispetto alle distorsioni che la Corteccia Primaria suggerisce. In altre parole, l’illusione osservata negli esperimenti tattili è molto più piccola rispetto all’effetto prodotto dalla differente densità recettoriale che affligge le diverse parti del corpo, o dall’estensione corticale. Ciò, ha portato a ipotizzare che la percezione della distanza tattile richieda la presenza di un’ulteriore area celebrale, e di ulteriori meccanismi che operino allo scopo di ridimensionare – almeno parzialmente – le informazioni derivanti dalla corteccia primaria, in modo da mantenere una certa costanza nella percezione della distanza tattile lungo la superfice corporea. E’ stata così proposta la presenza di una sorta di “processo di ridimensionamento”, chiamato “Rescaling Process” che opera per ridurre questa illusione verso una percezione più verosimile. Il verificarsi di questo processo è sostenuto da molti ricercatori in ambito neuro scientifico; in particolare, dal Dr. Matthew Longo, neuro scienziato del Department of Psychological Sciences (Birkbeck University of London), le cui ricerche sulla percezione della distanza tattile e sulla rappresentazione corporea sembrano confermare questa ipotesi. Tuttavia, i meccanismi neurali, e i circuiti che stanno alla base di questo potenziale “Rescaling Process” sono ancora ampiamente sconosciuti. Lo scopo di questa tesi è stato quello di chiarire la possibile organizzazione della rete, e i meccanismi neurali che scatenano l’illusione di Weber e il “Rescaling Process”, usando un modello di rete neurale. La maggior parte del lavoro è stata svolta nel Dipartimento di Scienze Psicologiche della Birkbeck University of London, sotto la supervisione del Dott. M. Longo, il quale ha contribuito principalmente all’interpretazione dei risultati del modello, dando suggerimenti sull’elaborazione dei risultati in modo da ottenere un’informazione più chiara; inoltre egli ha fornito utili direttive per la validazione dei risultati durante l’implementazione di test statistici. Per replicare l’illusione di Weber ed il “Rescaling Proess”, la rete neurale è stata organizzata con due strati principali di neuroni corrispondenti a due differenti aree funzionali corticali: • Primo strato di neuroni (il quale dà il via ad una prima elaborazione degli stimoli esterni): questo strato può essere pensato come parte della Corteccia Primaria Somato-Sensoriale affetta da Magnificazione Corticale (homunculus). • Secondo strato di neuroni (successiva elaborazione delle informazioni provenienti dal primo strato): questo strato può rappresentare un’Area Corticale più elevata coinvolta nell’implementazione del “Rescaling Process”. Le reti neurali sono state costruite includendo connessioni sinaptiche all’interno di ogni strato (Sinapsi Laterali), e connessioni sinaptiche tra i due strati neurali (Sinapsi Feed-Forward), assumendo inoltre che l’attività di ogni neurone dipenda dal suo input attraverso una relazione sigmoidale statica, cosi come da una dinamica del primo ordine. In particolare, usando la struttura appena descritta, sono state implementate due differenti reti neurali, per due differenti regioni corporee (per esempio, Mano e Braccio), caratterizzate da differente risoluzione tattile e differente Magnificazione Corticale, in modo da replicare l’Illusione di Weber ed il “Rescaling Process”. Questi modelli possono aiutare a comprendere il meccanismo dell’illusione di Weber e dare così una possibile spiegazione al “Rescaling Process”. Inoltre, le reti neurali implementate forniscono un valido contributo per la comprensione della strategia adottata dal cervello nell’interpretazione della distanza sulla superficie della pelle. Oltre allo scopo di comprensione, tali modelli potrebbero essere impiegati altresì per formulare predizioni che potranno poi essere verificate in seguito, in vivo, su soggetti reali attraverso esperimenti di percezione tattile. E’ importante sottolineare che i modelli implementati sono da considerarsi prettamente come modelli funzionali e non intendono replicare dettagli fisiologici ed anatomici. I principali risultati ottenuti tramite questi modelli sono la riproduzione del fenomeno della “Weber’s Illusion” per due differenti regioni corporee, Mano e Braccio, come riportato nei tanti articoli riguardanti le illusioni tattili (per esempio “The perception of distance and location for dual tactile pressures” di Barry G. Green). L’illusione di Weber è stata registrata attraverso l’output delle reti neurali, e poi rappresentata graficamente, cercando di spiegare le ragioni di tali risultati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di tesi svolto riguarda la progettazione e lo sviluppo di un algoritmo per la pianificazione ottimizzata della distribuzione con viaggi sincronizzati; il metodo sviluppato è un algoritmo mateuristico. I metodi mateuristici nascono dall’integrazione di algoritmi esatti, utilizzati all’interno di un framework metaeuristico, scelto come paradigma di soluzione del problema. La combinazione di componenti esatte e algoritmi metaeuristici ha lo scopo di sfruttare i vantaggi di entrambi gli approcci: grazie all'uso di componenti esatte, è possibile operare in modo efficace e di concentrarsi su alcuni dei vincoli del problema, mentre, con l'utilizzo di un framework metaeuristico, si può efficacemente esplorare grandi aree dello spazio di ricerca in tempi accettabili. Il problema analizzato nel lavoro di tesi è un problema di trasporto, ovvero il Vehicle Routing Problem con finestre temporali e vincoli di sincronizzazione a coppie (VRPTWPS). Il problema richiede di individuare un piano di organizzazione ottimizzato per i viaggi di consegna merci presso un insieme di clienti; ogni cliente richiede che la consegna avvenga all’interno di orari predefiniti; un sottoinsieme di essi richiede, inoltre, che la consegna venga effettuata con la presenza di esattamente due addetti. La presenza di quest’ultimo vincolo richiede, dunque, che due incaricati, indipendentemente dai viaggi di visita che questi effettuano, si incontrino presso uno stesso cliente nello stesso istante. Il vincolo di sincronizzazione rende il problema difficile da risolvere in maniera ottimizzata con i tradizionali metodi di ricerca locale; da ciò nasce l’uso dei metodi mateuristici per la risoluzione ottimizzata del problema. Grazie all’utilizzo di algoritmi esatti, i metodi mateuristici riescono a trattare in maniera più efficace alcuni vincoli dei problemi da risolvere.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’acido adipico (AA) è un importante intermedio chimico prodotto in quantità pari a circa tre milioni di tonnellate annue, i cui usi riguardano principalmente la produzione di Nylon-6,6. Tutti i processi industriali odierni per la produzione dell’AA hanno in comune lo stadio finale di ossidazione con acido nitrico dell’ultimo intermedio di sintesi, che in genere è una miscela di cicloesanolo e cicloesanone (KA Oil). Esistono diversi problemi riguardanti questo processo, come la pericolosità che deriva dall’uso di acido nitrico concentrato. Dal punto di vista ambientale, il problema principale riguarda la produzione di protossido di azoto e di altri ossidi di azoto durante l’ultima fase di ossidazione con HNO3, per questo motivo, tutte le aziende che producono AA devono essere munite per legge di sistemi di abbattimento quantitativi o di recupero degli ossidi di azoto, che però risultano essere molto incisivi sul costo del processo. A livello industriale, quindi, il problema riguarda principalmente la sostenibilità economica, ma poiché queste procedure hanno un prezzo in termini di materiali ed energia, si ha anche un forte legame con la sostenibilità ambientale. Gli studi riguardanti nuovi processi per la produzione di AA sono numerosi; alcuni hanno portato a vie più “green”, ma solo pochi esempi sono veramente sostenibili dal punto di vista sia ambientale che economico. Il presente lavoro di tesi è diviso in due parti, entrambe riguardanti vie di sintesi alternative per la produzione di AA. La prima parte riguarda lo studio del secondo passaggio di una via di sintesi in due step che parte da cicloesene e che ha come intermedio l’1,2-cicloesandiolo.Sono stati provati catalizzatori eterogenei a base di nanoparticelle di Au supportate su MgO per il cleavage ossidativo in fase liquida del diolo con O2 in ambiente basico. La seconda parte invece riguarda il processo di sintesi dell’AA a partire da cicloesanone mediante l’ossidazione con perossido di idrogeno a e- caprolattone e la successiva ossidazione ad AA. Nello specifico, è stato studiato il meccanismo di reazione del primo passaggio in quanto evidenze sperimentali ottenute nel corso di lavori precedenti avevano dimostrato la presenza di un cammino di reazione differente da quello tipico per un’ossidazione di Baeyer-Villiger. In questa parte, si è studiato l’effetto di alcuni catalizzatori eterogenei a base di acidi di Lewis sui prodotti ottenuti nel primo stadio ossidativo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo della tesi è stato quello di indagare il complesso problema della vulnerabilità sismica dei ponte in muratura ad arco utilizzando modelli semplificati. Dopo una descrizione dei materiali da costruzione impiegati nella realizzazione e dei principali elementi dei un ponti in muratura, si è indirizzato lo studio di un ponte ad arco situato nel comune di San Marcello Pistoiese. Viene mostrato un modello numerico che permette di descrivere il comportamento strutturale del ponte sotto azione sismica e di valutare la capacità di carico del ponte sottoposto ad una azione trasversale. In un secondo momento viene descritta la realizzazione di un modello in scala del ponte, che è stato sottoposto a prove distruttive effettuate per valutare la capacità di carico del ponte rispetto ad un ipotetica azione orizzontale. Si è cercato poi di inquadrare il problema in un modello teorico che faccia riferimento all'analisi limite. Esso descrive un cinematismo di collasso a telaio che prende spunto dal quadro fessurativo del modello in muratura. Infine sono stati presentati modelli FEM numerici in ordine di complessità crescente, cercando di inquadrare il comportamento meccanico del prototipo del ponte. Tre tipi di modelli sono rappresentati: un telaio incernierato alle estremità costituito da elementi beam con resistenza alla flessione . Il secondo tipo è costituito da una reticolare equivalente che mima lo schema del ponte ed è formato solo da bielle. Infine, il terzo tipo cerca di descrivere l'intero modello con elementi tridimensionali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La finalità della ricerca è l'individuazione di uno strumento urbanistico per governare il territorio metropolitano che garantisca la successione efficace ed efficiente delle azioni nelle quali si articola il processo di pianificazione strategica. All'interno della ricerca, da un lato si indaga lo sviluppo storico-culturale che ha caratterizzato in Italia il concetto di area metropolitana, individuandone i contenuti e le operazioni che portano alla perimetrazione del suo territorio. Dall'altro lato si approfondisce il tema della pianificazione strategica come strumento fondamentale per il governo delle città metropolitane intermedie. Si è proceduto all'approfondimento del dibattito culturale e scientifico sul tema delle aree metropolitane, nell'esperienza di pianificazione strategica sviluppata in ambito internazionale e successivamente il dibattito politico che si è sviluppato nella realtà italiana sul concetto di area metropolitana, evidenziandone gli aspetti condivisi e le diverse tipologie di approccio per ottenere una perimetrazione utile al piano di governo del territorio. Ovviamente, nel processo di analisi, un ruolo dominante è stato assunto dal quadro istituzionale e normativo che si è sviluppato ed è tuttora in corso sul tema delle aree metropolitane. Alla tematica relativa alla definizione delle aree, si è sviluppato un consistente approfondimento sui requisiti che devono essere posseduti da un piano strategico costruito sulle esigenze di un'area metropolitana. E' stata individuata l'area metropolitana di Bologna quale area oggetto di studio approfondito, ripercorrendo le vicende che hanno animato il dibattito sulla nascita della Città metropolitana delimitata dalla Provincia. A tal proposito, si è sviluppata una riflessione sui contenuti innovativi e promozionali del piano strategico, valutando gli effetti che il Piano Strategico Metropolitano in corso di elaborazione sarà in grado di produrre sulle dinamiche territoriali e socio-economiche dell'area bolognese.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'impresa di rivitalizzare il settore nord della Città Universitaria di Bogota, consacrato all'educazione fisica, può trovare un aiuto insperato nelle fonti storiche, come i progetti originali dell'architetto Leopoldo Rother e il piano formativo del pedagogo Fritz Karsen. Analizzando il lavoro da essi compiuto negli anni Trenta, vengono alla luce tutti gli elementi che concorrono a fare di un'area da decenni non più centrale alla vita del campus un polo di attrazione per un pubblico proveniente da tutta la capitale colombiana. Un nuovo edificio, il centro sportivo polifunzionale, diventa così il fulcro per dare importanza ad un'area pensata per essere importante fin dalla sua concezione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Studio del problema evolutivo degenere in uno spazio di Banach, con condizioni di tipo parabolico, attraverso la generalizzazione della teoria dei semigruppi al caso di operatori multivoci. Il problema viene dunque ridotto a un'equazione multivoca. Si riporta inoltre come esempio l'equazione del calore di Poisson.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il problema relativo alla predizione, la ricerca di pattern predittivi all‘interno dei dati, è stato studiato ampiamente. Molte metodologie robuste ed efficienti sono state sviluppate, procedimenti che si basano sull‘analisi di informazioni numeriche strutturate. Quella testuale, d‘altro canto, è una tipologia di informazione fortemente destrutturata. Quindi, una immediata conclusione, porterebbe a pensare che per l‘analisi predittiva su dati testuali sia necessario sviluppare metodi completamente diversi da quelli ben noti dalle tecniche di data mining. Un problema di predizione può essere risolto utilizzando invece gli stessi metodi : dati testuali e documenti possono essere trasformati in valori numerici, considerando per esempio l‘assenza o la presenza di termini, rendendo di fatto possibile una utilizzazione efficiente delle tecniche già sviluppate. Il text mining abilita la congiunzione di concetti da campi di applicazione estremamente eterogenei. Con l‘immensa quantità di dati testuali presenti, basti pensare, sul World Wide Web, ed in continua crescita a causa dell‘utilizzo pervasivo di smartphones e computers, i campi di applicazione delle analisi di tipo testuale divengono innumerevoli. L‘avvento e la diffusione dei social networks e della pratica di micro blogging abilita le persone alla condivisione di opinioni e stati d‘animo, creando un corpus testuale di dimensioni incalcolabili aggiornato giornalmente. Le nuove tecniche di Sentiment Analysis, o Opinion Mining, si occupano di analizzare lo stato emotivo o la tipologia di opinione espressa all‘interno di un documento testuale. Esse sono discipline attraverso le quali, per esempio, estrarre indicatori dello stato d‘animo di un individuo, oppure di un insieme di individui, creando una rappresentazione dello stato emotivo sociale. L‘andamento dello stato emotivo sociale può condizionare macroscopicamente l‘evolvere di eventi globali? Studi in campo di Economia e Finanza Comportamentale assicurano un legame fra stato emotivo, capacità nel prendere decisioni ed indicatori economici. Grazie alle tecniche disponibili ed alla mole di dati testuali continuamente aggiornati riguardanti lo stato d‘animo di milioni di individui diviene possibile analizzare tali correlazioni. In questo studio viene costruito un sistema per la previsione delle variazioni di indici di borsa, basandosi su dati testuali estratti dalla piattaforma di microblogging Twitter, sotto forma di tweets pubblici; tale sistema include tecniche di miglioramento della previsione basate sullo studio di similarità dei testi, categorizzandone il contributo effettivo alla previsione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La caratterizzazione di sedimenti contaminati è un problema complesso, in questo lavoro ci si è occupati di individuare una metodologia di caratterizzazione che tenesse conto sia delle caratteristiche della contaminazione, con analisi volte a determinare il contenuto totale di contaminanti, sia della mobilità degli inquinanti stessi. Una adeguata strategia di caratterizzazione può essere applicata per la valutazione di trattamenti di bonifica, a questo scopo si è valutato il trattamento di soil washing, andando ad indagare le caratteristiche dei sedimenti dragati e del materiale in uscita dal processo, sabbie e frazione fine, andando inoltre a confrontare le caratteristiche della sabbia in uscita con quelle delle sabbie comunemente usate per diverse applicazioni. Si è ritenuto necessario indagare la compatibilità dal punto di vista chimico, granulometrico e morfologico. Per indagare la mobilità si è scelto di applicare i test di cessione definiti sia a livello internazionale che italiano (UNI) e quindi si sono sviluppate le tecnologie necessarie alla effettuazione di test di cessione in modo efficace, automatizzando la gestione del test a pHstat UNI CEN 14997. Questo si è reso necessario a causa della difficoltà di gestire il test manualmente, per via delle tempistiche difficilmente attuabili da parte di un operatore. Le condizioni redox influenzano la mobilità degli inquinanti, in particolare l’invecchiamento all’aria di sedimenti anossici provoca variazioni sensibili nello stato d’ossidazione di alcune componenti, incrementandone la mobilità, si tratta quindi di un aspetto da considerare quando si individuano le adeguate condizioni di stoccaggio-smaltimento, si è eseguita a questo scopo una campagna sperimentale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi affronta il problema della calibrazione dei modelli idrologici afflussi-deflussi tramite un nuovo approccio basato sull'utilizzo di funzioni di utilità. L'approccio classico nella calibrazione dei modelli idrologici prevede la definizione di una misura di discrepanza tra dato osservato e simulato (definizione della funzione obiettivo) per poi procedere ad una sua minimizzazione o massimizzazione. Tradizionalmente, questo processo viene eseguito considerando l'idrogramma nella sua globalità, senza concentrarsi su quegli intervalli dell'idrogramma più utili all'utilizzatore del modello idrologico. Ad esempio, se il modello idrologico viene impiegato in un'ottica di gestione delle risorse idriche, l'utilizzatore sarà interessato ad una “migliore” riproduzione dei deflussi medio/bassi piuttosto che una corretta riproduzione dei colmi di piena. D'altra parte, se l'obiettivo è la riproduzione dei colmi di piena, un modello con alte prestazioni nella riproduzione dei deflussi medi risulta essere di scarsa utilità all'utilizzatore. Calibrando il modello tramite la funzione di utilità più adatta al caso pratico in esame, si può pertanto consentire all'utilizzatore del modello di guidare il processo di calibrazione in modo da essere coerente con il proprio schema decisionale e con le proprie esigenze, e di migliorare le performances del modello (cioè la riproduzione delle portate osservate) negli intervalli di portata per lui di maggiore interesse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Mar Adriatico presenta una grande ricchezza di diversità di specie ittiche, molte delle quali sono rilevanti dal punto di vista commerciale, altre rappresentano un contributo alla complessità biologica dell’ambiente. In questo lavoro di tesi tecniche di analisi multivariata sono state utilizzate per analizzare la composizione in specie ittiche demersali dell’Alto e Medio Adriatico e la diversità, per arrivare a delineare un quadro generale di tali comunità. I dati utilizzati sono stati raccolti nelle campagne GRUND effettuate in Adriatico dal 1982 al 2007 nell’area delle acque nazionali italiane ed internazionali, al limite delle acque croate e slovene. La Cluster Analysis effettuata sui dati di abbondanza (kg/h) delle specie ha permesso di definire quattro assemblaggi principali di specie (40% di similarità) associati all’area di costa, all’area costiera fuori Venezia, a un area detritica e a un area più profonda. All’interno di questi assemblaggi, stabili per tutti gli anni, sono stati ritrovate delle associazioni più ristrette (similarità del 50%). Profondità e tipologia di fondale sembrano essere i fattori determinanti la divisione di questi assemblaggi. Tali risultati sono stati confermati anche dall’analisi di ordinamento non metrico MDS. Con l’analisi ANOSIM si è cercato di vedere se ci sono differenze significative tra gli assemblaggi annuali delle aree identificate, e se gli assemblaggi di specie variano significativamente nel corso degli anni all’interno di ciascuna area. Con l’analisi SIMPER si sono identificate quelle specie caratterizzanti gli assemblaggi e le specie che sono responsabili della diversità tra aree. Sono stati calcolati gli indici di diversità per indagare la diversità e la variabilità temporale delle comunità demersali che caratterizzano le quattro aree principali. E’ stata fatta un’analisi temporale delle abbondanze medie delle specie commerciali maggiormente rappresentative dei quattro assemblaggi principali ritrovati, e un’analisi su come variano le taglie nel corso degli anni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La sempre maggiore importanza data al luogo, soprattutto dalla normativa attraverso il codice dei Beni Culturali e del Paesaggio, obbliga i progettisti a prestare maggiore attenzione al contesto in cui operano. I luoghi non possono più essere concepiti come spazi neutri capaci di accogliere qualsiasi forma di progetto, ma devono essere studiati e compresi nella loro essenza più profonda. In aiuto viene il concetto di Genius loci che fin dall'epoca romana soprassedeva i luoghi obbligando l'uomo a scendere a patti con esso prima di qualsiasi pratica progettuale. Nel tempo questo concetto si è trasformato ed ha mutato di senso, andando a coincidere con l'identità propria di un determinato luogo. Per luogo si intende una somma complessa di più elementi non scindibili e in rapporto tra loro nel costruirne l'identità specifica. Capire e rispettare l'identità di un luogo significa capire e rispettare il Genius loci. Filo conduttore di questa disamina è il saggio di Christian Norberg-Schulz “Genius loci. Paesaggio ambiente architettura”, in cui i temi del luogo e dell‟identità vengono trattati principalmente in chiave architettonica. Partendo da questo ho cercato di mettere in evidenza questi concetti in tre progetti sviluppati a scale diverse, evidenziandone l‟applicazione e le problematiche in tre ambiti differenti. I progetti presi in esame sono: in ambito rurale, l‟ecovillaggio sviluppato a San Biagio; in ambito urbano, la riqualificazione di un‟area industriale a Forlimpopoli; in ambito metropolitano, il progetto di abitazioni collettive a Bogotá.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tomografia computerizzata (CT) è una metodica di diagnostica per immagini che consiste in una particolare applicazione dei raggi X. Essa, grazie ad una valutazione statistico-matematica (computerizzata) dell'assorbimento di tali raggi da parte delle strutture corporee esaminate, consente di ottenere immagini di sezioni assiali del corpo umano. Nonostante le dosi di radiazioni somministrate durante un esame siano contenute, questa tecnica rimane sconsigliata per pazienti sensibili, perciò nasce il tentativo della tomosintesi: ottenere lo stesso risultato della CT diminuendo le dosi somministrate. Infatti un esame di tomosintesi richiede poche proiezioni distribuite su un range angolare di appena 40°. Se da una parte la possibilità di una ingente diminuzione di dosi e tempi di somministrazione costituisce un grosso vantaggio dal punto di vista medico-diagnostico, dal punto di vista matematico esso comporta un nuovo problema di ricostruzione di immagini: infatti non è banale ottenere risultati validi come per la CT con un numero basso di proiezioni,cosa che va a infierire sulla mal posizione del problema di ricostruzione. Un possibile approccio al problema della ricostruzione di immagini è considerarlo un problema inverso mal posto e studiare tecniche di regolarizzazione opportune. In questa tesi viene discussa la regolarizzazione tramite variazione totale: verranno presentati tre algoritmi che implementano questa tecnica in modi differenti. Tali algoritmi verranno mostrati dal punto di vista matematico, dimostrandone ben posizione e convergenza, e valutati dal punto di vista qualitativo, attraverso alcune immagini ricostruite. Lo scopo è quindi stabilire se ci sia un metodo più vantaggioso e se si possano ottenere buoni risultati in tempi brevi, condizione necessaria per una applicazione diffusa della tomosintesi a livello diagnostico. Per la ricostruzione si è fatto riferimento a problemi-test cui è stato aggiunto del rumore, così da conoscere l'immagine originale e poter vedere quanto la ricostruzione sia ad essa fedele. Il lavoro principale dunque è stata la sperimentazione degli algoritmi su problemi test e la valutazione dei risultati, in particolare per gli algoritmi SGP e di Vogel, che in letteratura sono proposti per problemi di image deblurring.