628 resultados para relazione funzione dominio codominio spazi Lp spazi di Sobolev analisi funzionale


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Valutazione dei rischi per una linea di assemblaggio di CHRA (Center Housing Rotating Assembly). Studio, analisi e descrizione sul funzionamento della linea di assemblaggio e del prodotto che andrà ad assemblare. Trattazione preliminare del contesto normativo europeo, introduzione alle direttive applicabili alla linea e studio delle norme armonizzate per il soddisfacimento dei requisiti essenziali. Studio delle norme di riferimento e trattazione delle metodologie per eseguire la valutazione dei rischi di una linea di assemblaggio. Analisi dei rischi effettuata sulla linea secondo le norme di riferimento. Trattazione sulle soluzioni da prendere per la riduzione del rischio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le ultime ricerche in campo oncologico sulle cure antitumorali sono indirizzate verso una categoria definita target therapy. In particolare tra le più promettenti, le terapie antiangiogenetiche, il cui scopo primario è quello di limitare l’apporto di sangue al tumore. In questo contesto la Tomografia Computerizzata (TC) perfusionale rappresenta un’importante tecnica di imaging radiologico in grado, teoricamente, di fornire misure quantitative, che permettano una valutazione, anche precoce, della risposta alle terapie antiangiogenetiche. I principali problemi aperti in questo campo riguardano la standardizzazione dei protocolli di acquisizione e di elaborazione delle sequenze perfusionali, che determinano la scarsa riproducibilità dei risultati intra- ed inter-paziente, non consentendone l’uso nella pratica clinica. In letteratura sono presenti diversi studi riguardanti la perfusione dei tumori polmonari, ma vi sono pochi studi sull’affidabilità dei parametri perfusionali calcolati. Questa Tesi si propone di analizzare, quantificare e confrontare gli errori e l’affidabilità dei parametri perfusionali calcolati attraverso la TC perfusionale. In particolare, vengono generate delle mappe di errore ed effettuati dei confronti di diverse regioni del polmone sano. I risultati ottenuti dall’analisi dei casi reali sono discussi al fine di poter definire dei livelli di affidabilità dei parametri perfusionali e di quantificare gli errori che si commettono nella valutazione dei parametri stessi. Questo studio preliminare consentirà, quindi, un’analisi di riproducibilità, permettendo, inoltre, una normalizzazione dei valori perfusionali calcolati nella lesione, al fine di effettuare analisi intra- ed inter-paziente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le informazioni di tipo geografico caratterizzano più dell'80% dei dati utilizzati nei processi decisionali di ogni grande azienda e la loro pervasività è in costante aumento. La Location Intelligence è un insieme di strumenti, metodologie e processi nati con l'obiettivo di analizzare e comprendere a pieno il patrimonio informativo presente in questi dati geolocalizzati. In questo progetto di tesi si è sviluppato un sistema completo di Location Intelligence in grado di eseguire analisi aggregate dei dati georeferenziati prodotti durante l'operatività quotidiana di una grande azienda multiservizi italiana. L’immediatezza dei report grafici e le comparazioni su serie storiche di diverse sorgenti informative integrate generano un valore aggiunto derivante dalle correlazioni individuabili solo grazie a questa nuova dimensione di analisi. In questo documento si illustrano tutte le fasi caratterizzanti del progetto, dalla raccolta dei requisiti utente fino all’implementazione e al rilascio dell’applicativo, concludendo con una sintesi delle potenzialità di analisi generate da questa specifica applicazione e ai suoi successivi sviluppi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Building Information Modelling nasce da un processo di integrazione sostenibile, basato sull'interoperabilità dei processi. La caratteristica vincente è la circolarietà delle informazioni: ogni informazione è gestita come parametro di un ricco e complesso modello parametrico dell'edificio; la geometria, i materiali, i costi ed i tempi sono gestiti come parametri internamente collegati e quindi variabili di uno stesso sistema. Nel caso di beni storici, la maggior parte degli edifici possiede vincoli intrinseci che influenzano tali parametri. I materiali non possono essere scelti liberamente, in quanto parte di un organismo esistente, la geometria dell'edificio è definita e difficilmente sarà variata negli interventi di recupero. Nella presente tesi si applica il metodo CLOUD2FEM al mondo dell'Historic Building Information Modelling (HBIM) concentrandosi sullo studio della Rocca Estense di San Felice sul Panaro, colpita dal sisma dell'Emilia e attualmente inagibile. La procedura CLOUD2FEM permette di trasformare le informazioni ricavate dal laser scanner in mesh chiuse e regolari, generando in modo semi-automatico un modello FEM 3D. Nel caso di costruzioni complesse, la cui geometria non può essere ricondotta a modelli semplificati, è necessario valutare l'attendibilità del modello strutturale. Nel caso in esame, la validazione è stata condotta mediante il confronto del danno rilevato con il danno simulato. La flessibilità del modello permette di aggiungere dettagli inizialmente non rilevati: ogni informazione è inserita nel modello attraverso un parametro differente, al fine di eseguire analisi sullo stato di fatto e su futuri stati di progetto con semplice aggiornamento dei parametri.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato, mediante una panoramica sull’intero processo di recupero della cartografia storica con le moderne tecniche geomatiche (con particolare attenzione rivolta alla fase di elaborazione in ambiente digitale), e l’applicazione ad un caso di studio (l’ Ichnoscenografia di Bologna del 1702) vuole mostrare l’importanza dell’utilizzo di tali tecniche, unitamente alla loro versatilità per la salvaguardia, lo studio e la diffusione del patrimonio cartografico storico. L’attività principale consiste nella creazione di un modello 3D georeferenziato della Bologna del 1702, a partire dalla carta del de’ Gnudi, e della sua successiva rappresentazione mediante modalità di Realtà Virtuale. L’immediatezza della comunicazione con varie forme di rappresentazione consente non solo di apprezzare e scoprire in modo nuovo una carta antica, ma anche di effettuare analisi più specifiche, ad esempio in merito all’evoluzione del tessuto storico della città, oppure studi sui metodi di rappresentazione che venivano utilizzati all’epoca della redazione della carta, completamente differenti dagli attuali, soprattutto in termini di precisione. La parte finale della trattazione esamina la possibilità per il fruitore della ricerca di interrogare un database multimediale sulla città e di immergersi in modo virtuale in ambientazioni non più esistenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella tesi si cerca di dare una nuova chiave di lettura del monumento unico nel suo genere, quanto noto Parliamo del Mausoleo di Teodorico che si erige nelle immediate vicinanze del centro di Ravenna.Il Mausoleo costruito nel v secolo, quando Ravenna è capitale dell’impero d’Occidente e vi si stabilisce Teodorico il Grande. La struttura è stata molto esaminata nel corso del tempo da molti studiosi ma non si ha notizia di una analisi d'insieme. Si è cercato quindi di mettere a fuoco uno degli aspetti più emblematici ed ancor ben lungi da scientifiche certezze: La sua copertura.Si tratta di un monolite con un peso stimato tra le 240 e le 270 Tonnellate proveniente dalle cave di Aurisina in Istria. Numerosi studiosi si sono cimentati nello stipulare le proprie ipotesi sul trasporto e soprattutto sulla sua messa in opera senza giungere ad un univoca conclusione. Si è proceduto poi alla loro schematizzazione in filoni principali senza tralasciare una propria opinione valutandone i pro e i contro anche in base alle conoscenze attuali. Si sono confrontati metodi di trasporto dei monoliti, senza tralasciare l’analisi delle macchine da cantiere dell’epoca a supporto delle ipotesi proposte. Da ultimo mi sono soffermato sul significato semantico delle dentellature di sommità della copertura, o modiglioni: anche per questi elementi vi sono stati e mi auguro ci saranno numerosi dibattiti sul loro aspetto simbolico o quantomeno funzionale. Durante la stesura della è scaturito anche un interessante confronto di idee che testimonia quanto la questione sia ancora articolata ed interessante. Si apre quindi a suggerimenti per spunti futuri specialmente per quanto riguarda indagini diagnostiche strumentali sulla cupola e sulla sua crepa. Mi auguro che raccogliendo e analizzando le principali ipotesi si possa proseguire questo filone investigativo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dall’inizio del XXI secolo, un’importante rivoluzione tecnologica è in corso nel campo delle neuroscienze: l’idea di base è quella di attivare/inibire con la luce un neurone che normalmente non è in grado di rispondere a tale stimolo. Si tratta di un approccio che integra metodi ottici e genetici per controllare l’attività di cellule eccitabili e di circuiti neuronali. La combinazione di metodi ottici con strumenti fotosensibili geneticamente codificati (optogenetica) offre l’opportunità di modulare e monitorare rapidamente un gran numero di eventi neuronali e la capacità di ricreare i modelli fisiologici, spaziali e temporali dell’attività cerebrale. Le tecniche di stimolazione ottica possono rispondere ad alcune delle problematiche legate alla stimolazione elettrica, fornendo una stimolazione più selettiva, una maggiore risoluzione spaziale e una minore invasività del dispositivo, evitando gli artefatti elettrici che complicano le registrazioni dell’attività neuronale elettricamente indotta. Quest’innovazione ha motivato lo sviluppo di nuovi metodi ottici per la fotostimolazione neuronale, tra cui la fotostimolazione neuronale nell’infrarosso, le tecniche di scansione del fascio e di fotostimolazione parallela, ciascuna con i suoi vantaggi e limiti. Questa tesi illustra i principi di funzionamento delle tecniche di fotostimolazione ed il loro utilizzo in optogenetica, presentandone i vantaggi e gli inconvenienti. Infine, nell’elaborato è presa in considerazione la possibilità di combinare i metodi di fotostimolazione con approcci di imaging ottico funzionale innovativi per un’indagine più ampia, mirata e completa del circuito neuronale. Sebbene siano necessari ulteriori studi, le tecniche di fotostimolazione in optogenetica sono quindi molto promettenti per la comprensione dei disturbi neuronali, svelando la codifica neurale e facilitando nuovi interventi per la diagnosi e terapia di malattie neurologiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Modellazione e analisi numerica di cisterne per trasporto di liquidi pericolosi, con riferimento alle normative vigenti, ed alla situazione esistente in termini di progettazione e realizzazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I big data sono caratterizzati dalle ben note 4v: volume, velocità, veracità e varietà. Quest'ultima risulta di importanza critica nei sistemi schema-less, dove il concetto di schema non è rigido. In questo contesto rientrano i database NoSQL, i quali offrono modelli dati diversi dal classico modello dati relazionale, ovvero: documentale, wide-column, grafo e key-value. Si parla di multistore quando ci si riferisce all'uso di database con modelli dati diversi che vengono esposti con un'unica interfaccia di interrogazione, sia per sfruttare caratteristiche di un modello dati che per le maggiori performance dei database NoSQL in contesti distribuiti. Fare analisi sui dati all'interno di un multistore risulta molto più complesso: i dati devono essere integrati e va ripristinata la consistenza. A questo scopo nasce la necessità di approcci più soft, chiamati pay-as-you-go: l'integrazione è leggera e incrementale, aggira la complessità degli approcci di integrazione tradizionali e restituisce risposte best-effort o approssimative. Seguendo tale filosofia, nasce il concetto di dataspace come rappresentazione logica e di alto livello dei dataset disponibili. Obiettivo di questo lavoro tesi è studiare, progettare e realizzare una modalità di interrogazione delle sorgenti dati eterogenee in contesto multistore con l'intento di fare analisi situazionali, considerando le problematiche di varietà e appoggiandosi all'integrazione fornita dal dataspace. Lo scopo finale è di sviluppare un prototipo che esponga un'interfaccia per interrogare il dataspace con la semantica GPSJ, ovvero la classe di query più comune nelle applicazioni OLAP. Un'interrogazione nel dataspace dovrà essere tradotta in una serie di interrogazioni nelle sorgenti e, attraverso un livello middleware, i risultati parziali dovranno essere integrati tra loro in modo che il risultato dell'interrogazione sia corretto e allo stesso tempo completo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi ripercorre i procedimenti utilizzati per il calcolo dell'asintotica dello splitting dell'operatore puramente magnetico di Schrödinger nel limite semiclassico (con campo magnetico costante) in un dominio aperto limitato e semplicemente connesso il cui bordo ha simmetria assiale ed esattamente due punti di curvatura massima non degeneri. Il punto di partenza è trovare stime a priori sulle sue autofunzioni, che permettono di dire che sono localizzate esponenzialmente vicino al bordo del dominio in oggetto, grazie a queste stime di riesce a modificare l'operatore in maniera tale che l'asintotica dello splitting rimanga equivalente. Si passa in seguito a coordinate tubulari, quindi si rettifica il borso del dominio, andando però a complicare il potenziale magnetico. Si ottengono nuove stime a priori per le autofunzioni. A questo punto si considera lo stesso operatore differenziale ma su un dominio modificato, in cui viene eliminato uno dei punti di curvatura massima. Per tale operatore si ha uno sviluppo asintotico delle autofunzioni (anche dette soluzioni WKB). Si utilizzano poi strumenti di calcolo pseudo-differenziale per studiare l'operatore nel nuovo dominio, ne si localizza la fase per renderlo limitato ed ottenere così una parametrice (anch'essa limitata) avente un simbolo esplicito. Se ne deducono stime di tipo ellittico che possono essere portate all'operatore senza la fase localizzata aggiungendo dei termini di errore. Grazie queste stime si riesce ad approssimare lo splitting (controllando sempre l'errore) che volevamo calcolare (quello dell'operatore sul dominio con due punti di curvatura massima) tramite le autofunzioni dell'operatore sul dominio con un solo punto di curvatura massima, e per queste autofunzioni abbiamo lo sviluppo asintotico (WKB). Considerando l'ordine principale di questi sviluppi si riesce a calcolare esplicitamente il termine dominante dello splitting, ottenendone così l'asintotica nel limite semiclassico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel seguente lavoro di tesi, l’analisi dell’efficienza idraulica è stata condotta sulla base dei tradizionali parametri di simulazione di una rete idrica, come carichi idraulici ai nodi e portate erogate, ma sfruttando l’ausilio di un indice di performance di rete sintetico e globale, ovvero l’Indice di resilienza, introdotto da Todini (2000; 2016). Infatti, tale indice, rientrando tra i parametri con cui valutare lo stato complessivo di “benessere idraulico” di una rete, ha il vantaggio di poter fungere da criterio di selezione di eventuali interventi migliorativi da operare sulla rete stessa. L’analisi si è concentrata sull’utilizzo dell’Indice di resilienza come strumento per la misura delle prestazioni di una rete di distribuzione idrica semplificata, utilizzata come caso studio: per far ciò, si sono messi a confronto i risultati relativi a diversi scenari, ottenuti simulando la rottura in successione delle tubazioni della rete, oppure ipotizzando incrementi di richiesta idrica ai nodi. In generale, i risultati delle simulazioni idrauliche, effettuate con l’ausilio combinato dei software di calcolo EPANET 2.2 e Matlab, hanno mostrato che la resilienza può essere utilizzata per quantificare la robustezza di una rete idrica, presentando forti correlazioni con le pressioni ai nodi. Durante il corso di queste analisi, si è anche voluto mostrare lo sviluppo analitico subito nel tempo dalla formula dell’Indice di resilienza, della quale in principio era stata proposta una formulazione pensata per l’approccio Demand Driven, poi estesa all’approccio di modellazione Pressure Driven. L’intento finale dell’elaborato è stato quello di capire tramite quali mezzi poter migliorare la resilienza del sistema in esame: è emerso che la soluzione ottimale è quella di sfruttare gli effetti benefici derivanti dall’azione combinata della sostituzione dei diametri e del risparmio idrico derivante dalla riduzione delle perdite idriche e degli sprechi nei consumi idropotabili.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente progetto di Tesi ha come obiettivo il design di nuovi copolimeri statistici bio-based, caratterizzati da idonee proprietà meccaniche e barriera per impieghi come film sottili nell’imballaggio alimentare. I materiali sintetizzati appartengono alla classe dei poliesteri alifatici, caratterizzati dalla facilità di sintesi in assenza di solventi, relativamente economici, caratterizzati da proprietà modulabili in funzione della struttura chimica. Come omopolimero di partenza è stato scelto il poli(butilene trans-1,4-cicloesanoato) (PBCE), un poliestere potenzialmente bio-based con elevata resistenza ad alte temperature, umidità, radiazioni UV e buone proprietà meccaniche e barriera, e, benchè non ancora disponibile in commercio, molto interessante. Esso risulta troppo rigido per la realizzazione di film flessibili. Il PBCE è stato quindi copolimerizzato introducendo l’(1R,3S)-(+)-Acido Canforico, un monomero bio-based ottenibile dalla canfora. L’obiettivo del lavoro è modulare la cristallinità, le proprietà termiche, meccaniche e barriera dell’omopolimero di partenza. Dopo la sintesi, effettuata mediante policondensazione in massa a due stadi, tali copolimeri sono stati sottoposti a caratterizzazioni molecolari, termiche e meccaniche per valutare l’effetto dell’introduzione di comonomero nella catena macromolecolare del PBCE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro, sono state valutate le prestazioni di quattro tipi di LDH (Co/Al e Co/Fe entrambe con e senza GO nella soluzione di elettrodeposizione) per l'applicazione in stoccaggio di energia, andando a confrontare le capacità specifiche calcolate da voltammetrie cicliche e curve galvanostatiche di carica/scarica. I risultati di tali analisi hanno mostrato come l’LDH a base di Al sia più adatto all’applicazione di accumulo di energia, rispetto a quello con il Fe. Ulteriori caratterizzazioni, come l’XRD ed il SEM accoppiato con l'EDX, hanno confermato la maggior applicabilità dei LDH di Co/Al rispetto a quelli di Co/Fe, in quanto i primi presentano: una struttura più cristallina, una morfologia più uniforme ed un’intercalazione dell’ERGO migliore. Dopo la fase di scelta dell’LDH più performante ci si è dedicati alla caratterizzazione di un capacitore ibrido operante in fase liquida. Concluse le analisi, si è notato come l’ERGO porti all'aumento delle prestazioni del sistema (risultato in linea con quello riscontrato tramite lo studio degli LDH come componenti catodici singoli). Grazie allo studio delle performance a lungo termine è stato possibile verificare come l’ERGO aumenti la stabilità del sistema quando si sottopone quest’ultimo a stress protratto nel tempo. Successivamente, si è proseguito con lo studio di un capacitore ibrido operante in fase solida. Come nel caso del sistema in fase liquida, si è riscontrato un aumento di performance dovuto alla presenza di ERGO nella struttura finale degli LDH.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La seguente tesi ha come oggetto l’area archeologica di Santa Croce a Ravenna (Emilia-Romagna), che si colloca all’interno della buffer zone dell’area monumentale della Basilica di San Vitale e del Mausoleo di Galla Placidia, sito UNESCO (dal 1996). L’area in oggetto risulta un palinsesto stratificato di manufatti, emersi dapprima in una campagna di scavo del XVIII secolo iniziati da Filippo Lanciani e successivamente approfondite in una campagna di scavo degli anni ’90 da Sauro Gelichi e Paola Novara. L’attuale configurazione è il risultato delle numerose trasformazioni che il luogo ha subito nel tempo non solo stratigrafiche ma anche a causa del fenomeno della subsidenza. Di recente l’area è stata oggetto di successivi allagamenti dovuti al malfunzionamento del sistema drenante, risolti di volta in volta grazie ai volontari della Mistral Protezione Civile e alla gestione e direzione della SABAP_RA. L’obbiettivo di questa tesi è fornire delle indicazioni per la conservazione e manutenzione preventiva e programmata dell’area. Il testo si compone di una fase analitica e di una fase di ricerca d’archivio e bibliografica, le quali si intrecciano con la lettura geometrica, della consistenza materica dell’oggetto e del suo stato di conservazione, analisi finalizzate alla redazione di un piano di manutenzione e conservazione dell’intero complesso. Al fine di sistematizzare le informazioni e renderle più fruibili per i gestori dell’area, si è fatto uso del sistema HBIM, ovvero una modellazione digitale tridimensionale arricchita con dati e informazioni non strettamente geometriche ma anche analitiche e di conoscenza del manufatto, quali notizie storiche, documenti d’archivio, analisi della consistenza e dell’attuale stato di conservazione. La tesi si conclude con alcune indicazioni e proposte progettuali per la valorizzazione dell’intera area.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Supply Chain Management è una rete di strutture che producono materie prime e le trasformano in prodotti finiti da consegnare ai clienti. Per gestire in maniera efficace l’impresa, l’intera struttura della catena di approvvigionamento deve seguire il flusso aziendale correttamente, in modo da non creare rallentamenti nella fornitura e causare problemi al soddisfacimento dei bisogni del cliente. Questo elaborato analizza tutte le componenti che influiscono sul successo di una supply chain, in particolare la funzione strategica degli acquisti, evidenziandone le principali problematiche che si possono riscontrare e le soluzioni che invece si possono applicare. Gli acquisti, che nascono dalla richiesta di un bisogno da soddisfare, sono da considerarsi un vantaggio competitivo e di redditività per un’azienda, in quanto incidono direttamente sul fatturato totale, motivo per cui sono stati oggetto dello studio. L’acquisto deve rispecchiare le specifiche tecniche e funzionali richieste, al fine di soddisfare i bisogni del cliente. Analizzando tale reparto presso l’azienda Termotecnica Industriale S.r.l., una Piccola Media Impresa (PMI) che si occupa di progettazione, fabbricazione ed installazione di caldaie industriali e generatori di vapore a recupero di calore, si è ricercato un nuovo modello di approvvigionamento da seguire. L’obiettivo di questa analisi è di sviluppare una strategia aziendale che gestisca in maniera corretta la catena di fornitura, ottenendo migliori condizioni contrattuali ed evitare problemi come gli acquisti a collo di bottiglia. E’ stato necessario, individuare una nuova metodologia che aiutasse i buyer a instaurare il giusto rapporto col fornitore selezionato, in funzione all’acquisto che si sta per compiere. Infatti per ogni tipologia di approvvigionamento ci sono approcci differenti da utilizzare con i fornitori per ottenere delle agevolazioni rispetto a quanto offerto in precedenza dello stesso.