998 resultados para relazione funzione dominio codominio spazi Lp spazi di Sobolev analisi funzionale
Resumo:
Modellazione e analisi numerica di cisterne per trasporto di liquidi pericolosi, con riferimento alle normative vigenti, ed alla situazione esistente in termini di progettazione e realizzazione.
Resumo:
I big data sono caratterizzati dalle ben note 4v: volume, velocità, veracità e varietà. Quest'ultima risulta di importanza critica nei sistemi schema-less, dove il concetto di schema non è rigido. In questo contesto rientrano i database NoSQL, i quali offrono modelli dati diversi dal classico modello dati relazionale, ovvero: documentale, wide-column, grafo e key-value. Si parla di multistore quando ci si riferisce all'uso di database con modelli dati diversi che vengono esposti con un'unica interfaccia di interrogazione, sia per sfruttare caratteristiche di un modello dati che per le maggiori performance dei database NoSQL in contesti distribuiti. Fare analisi sui dati all'interno di un multistore risulta molto più complesso: i dati devono essere integrati e va ripristinata la consistenza. A questo scopo nasce la necessità di approcci più soft, chiamati pay-as-you-go: l'integrazione è leggera e incrementale, aggira la complessità degli approcci di integrazione tradizionali e restituisce risposte best-effort o approssimative. Seguendo tale filosofia, nasce il concetto di dataspace come rappresentazione logica e di alto livello dei dataset disponibili. Obiettivo di questo lavoro tesi è studiare, progettare e realizzare una modalità di interrogazione delle sorgenti dati eterogenee in contesto multistore con l'intento di fare analisi situazionali, considerando le problematiche di varietà e appoggiandosi all'integrazione fornita dal dataspace. Lo scopo finale è di sviluppare un prototipo che esponga un'interfaccia per interrogare il dataspace con la semantica GPSJ, ovvero la classe di query più comune nelle applicazioni OLAP. Un'interrogazione nel dataspace dovrà essere tradotta in una serie di interrogazioni nelle sorgenti e, attraverso un livello middleware, i risultati parziali dovranno essere integrati tra loro in modo che il risultato dell'interrogazione sia corretto e allo stesso tempo completo.
Resumo:
La tesi ripercorre i procedimenti utilizzati per il calcolo dell'asintotica dello splitting dell'operatore puramente magnetico di Schrödinger nel limite semiclassico (con campo magnetico costante) in un dominio aperto limitato e semplicemente connesso il cui bordo ha simmetria assiale ed esattamente due punti di curvatura massima non degeneri. Il punto di partenza è trovare stime a priori sulle sue autofunzioni, che permettono di dire che sono localizzate esponenzialmente vicino al bordo del dominio in oggetto, grazie a queste stime di riesce a modificare l'operatore in maniera tale che l'asintotica dello splitting rimanga equivalente. Si passa in seguito a coordinate tubulari, quindi si rettifica il borso del dominio, andando però a complicare il potenziale magnetico. Si ottengono nuove stime a priori per le autofunzioni. A questo punto si considera lo stesso operatore differenziale ma su un dominio modificato, in cui viene eliminato uno dei punti di curvatura massima. Per tale operatore si ha uno sviluppo asintotico delle autofunzioni (anche dette soluzioni WKB). Si utilizzano poi strumenti di calcolo pseudo-differenziale per studiare l'operatore nel nuovo dominio, ne si localizza la fase per renderlo limitato ed ottenere così una parametrice (anch'essa limitata) avente un simbolo esplicito. Se ne deducono stime di tipo ellittico che possono essere portate all'operatore senza la fase localizzata aggiungendo dei termini di errore. Grazie queste stime si riesce ad approssimare lo splitting (controllando sempre l'errore) che volevamo calcolare (quello dell'operatore sul dominio con due punti di curvatura massima) tramite le autofunzioni dell'operatore sul dominio con un solo punto di curvatura massima, e per queste autofunzioni abbiamo lo sviluppo asintotico (WKB). Considerando l'ordine principale di questi sviluppi si riesce a calcolare esplicitamente il termine dominante dello splitting, ottenendone così l'asintotica nel limite semiclassico.
Resumo:
Nel seguente lavoro di tesi, l’analisi dell’efficienza idraulica è stata condotta sulla base dei tradizionali parametri di simulazione di una rete idrica, come carichi idraulici ai nodi e portate erogate, ma sfruttando l’ausilio di un indice di performance di rete sintetico e globale, ovvero l’Indice di resilienza, introdotto da Todini (2000; 2016). Infatti, tale indice, rientrando tra i parametri con cui valutare lo stato complessivo di “benessere idraulico” di una rete, ha il vantaggio di poter fungere da criterio di selezione di eventuali interventi migliorativi da operare sulla rete stessa. L’analisi si è concentrata sull’utilizzo dell’Indice di resilienza come strumento per la misura delle prestazioni di una rete di distribuzione idrica semplificata, utilizzata come caso studio: per far ciò, si sono messi a confronto i risultati relativi a diversi scenari, ottenuti simulando la rottura in successione delle tubazioni della rete, oppure ipotizzando incrementi di richiesta idrica ai nodi. In generale, i risultati delle simulazioni idrauliche, effettuate con l’ausilio combinato dei software di calcolo EPANET 2.2 e Matlab, hanno mostrato che la resilienza può essere utilizzata per quantificare la robustezza di una rete idrica, presentando forti correlazioni con le pressioni ai nodi. Durante il corso di queste analisi, si è anche voluto mostrare lo sviluppo analitico subito nel tempo dalla formula dell’Indice di resilienza, della quale in principio era stata proposta una formulazione pensata per l’approccio Demand Driven, poi estesa all’approccio di modellazione Pressure Driven. L’intento finale dell’elaborato è stato quello di capire tramite quali mezzi poter migliorare la resilienza del sistema in esame: è emerso che la soluzione ottimale è quella di sfruttare gli effetti benefici derivanti dall’azione combinata della sostituzione dei diametri e del risparmio idrico derivante dalla riduzione delle perdite idriche e degli sprechi nei consumi idropotabili.
Resumo:
Il presente progetto di Tesi ha come obiettivo il design di nuovi copolimeri statistici bio-based, caratterizzati da idonee proprietà meccaniche e barriera per impieghi come film sottili nell’imballaggio alimentare. I materiali sintetizzati appartengono alla classe dei poliesteri alifatici, caratterizzati dalla facilità di sintesi in assenza di solventi, relativamente economici, caratterizzati da proprietà modulabili in funzione della struttura chimica. Come omopolimero di partenza è stato scelto il poli(butilene trans-1,4-cicloesanoato) (PBCE), un poliestere potenzialmente bio-based con elevata resistenza ad alte temperature, umidità, radiazioni UV e buone proprietà meccaniche e barriera, e, benchè non ancora disponibile in commercio, molto interessante. Esso risulta troppo rigido per la realizzazione di film flessibili. Il PBCE è stato quindi copolimerizzato introducendo l’(1R,3S)-(+)-Acido Canforico, un monomero bio-based ottenibile dalla canfora. L’obiettivo del lavoro è modulare la cristallinità, le proprietà termiche, meccaniche e barriera dell’omopolimero di partenza. Dopo la sintesi, effettuata mediante policondensazione in massa a due stadi, tali copolimeri sono stati sottoposti a caratterizzazioni molecolari, termiche e meccaniche per valutare l’effetto dell’introduzione di comonomero nella catena macromolecolare del PBCE.
Resumo:
In questo lavoro, sono state valutate le prestazioni di quattro tipi di LDH (Co/Al e Co/Fe entrambe con e senza GO nella soluzione di elettrodeposizione) per l'applicazione in stoccaggio di energia, andando a confrontare le capacità specifiche calcolate da voltammetrie cicliche e curve galvanostatiche di carica/scarica. I risultati di tali analisi hanno mostrato come l’LDH a base di Al sia più adatto all’applicazione di accumulo di energia, rispetto a quello con il Fe. Ulteriori caratterizzazioni, come l’XRD ed il SEM accoppiato con l'EDX, hanno confermato la maggior applicabilità dei LDH di Co/Al rispetto a quelli di Co/Fe, in quanto i primi presentano: una struttura più cristallina, una morfologia più uniforme ed un’intercalazione dell’ERGO migliore. Dopo la fase di scelta dell’LDH più performante ci si è dedicati alla caratterizzazione di un capacitore ibrido operante in fase liquida. Concluse le analisi, si è notato come l’ERGO porti all'aumento delle prestazioni del sistema (risultato in linea con quello riscontrato tramite lo studio degli LDH come componenti catodici singoli). Grazie allo studio delle performance a lungo termine è stato possibile verificare come l’ERGO aumenti la stabilità del sistema quando si sottopone quest’ultimo a stress protratto nel tempo. Successivamente, si è proseguito con lo studio di un capacitore ibrido operante in fase solida. Come nel caso del sistema in fase liquida, si è riscontrato un aumento di performance dovuto alla presenza di ERGO nella struttura finale degli LDH.
Resumo:
La seguente tesi ha come oggetto l’area archeologica di Santa Croce a Ravenna (Emilia-Romagna), che si colloca all’interno della buffer zone dell’area monumentale della Basilica di San Vitale e del Mausoleo di Galla Placidia, sito UNESCO (dal 1996). L’area in oggetto risulta un palinsesto stratificato di manufatti, emersi dapprima in una campagna di scavo del XVIII secolo iniziati da Filippo Lanciani e successivamente approfondite in una campagna di scavo degli anni ’90 da Sauro Gelichi e Paola Novara. L’attuale configurazione è il risultato delle numerose trasformazioni che il luogo ha subito nel tempo non solo stratigrafiche ma anche a causa del fenomeno della subsidenza. Di recente l’area è stata oggetto di successivi allagamenti dovuti al malfunzionamento del sistema drenante, risolti di volta in volta grazie ai volontari della Mistral Protezione Civile e alla gestione e direzione della SABAP_RA. L’obbiettivo di questa tesi è fornire delle indicazioni per la conservazione e manutenzione preventiva e programmata dell’area. Il testo si compone di una fase analitica e di una fase di ricerca d’archivio e bibliografica, le quali si intrecciano con la lettura geometrica, della consistenza materica dell’oggetto e del suo stato di conservazione, analisi finalizzate alla redazione di un piano di manutenzione e conservazione dell’intero complesso. Al fine di sistematizzare le informazioni e renderle più fruibili per i gestori dell’area, si è fatto uso del sistema HBIM, ovvero una modellazione digitale tridimensionale arricchita con dati e informazioni non strettamente geometriche ma anche analitiche e di conoscenza del manufatto, quali notizie storiche, documenti d’archivio, analisi della consistenza e dell’attuale stato di conservazione. La tesi si conclude con alcune indicazioni e proposte progettuali per la valorizzazione dell’intera area.
Resumo:
La tesi è incentrata sul rapporto tra una comunità religiosa maschile, la Congregazione dell'Oratorio di Roma dei secoli XVI e XVII, e il concetto di cura, mettendo in dialogo storia sociale, storia religiosa e storia della medicina. La prima parte indaga il coinvolgimento degli Oratoriani nella rete caritativa urbana, sottolineando il loro contributo nello sviluppo e nell'amministrazione di una serie di ospedali, ma anche il loro impegno pratico nella cura spirituale e corporale dei malati. La seconda parte prende in esame i professionisti sanitari che frequentavano l'Oratorio, inquadrando il loro rapporto con i padri nel quadro di una più ampia rete di connessioni sociali e politiche nella Roma pontificia. Inoltre, mettendo in rilievo le specificità di speziali, barbieri-chirurghi e medici, l'indagine considera il loro coinvolgimento nella vita religiosa della comunità e la messa a frutto del loro sapere, in ambito umanistico e anatomico. La terza parte studia il complesso rapporto dei sacerdoti con il proprio corpo e con la salute. Viene rilevato il peso delle condizioni sanitarie nell’accettazione di nuovi membri, i legami tra estetica, identità sociale e medicina, ma si prendono in considerazione anche l’ambigua funzione del cibo – inteso come strumento di ascesi che di cura – e il funzionamento concreto dell'organizzazione medica della comunità. Inoltre, un capitolo analizza la circolazione del sapere medico, evidenziando il ruolo della biblioteca, la raccolta e lo scambio di ricette mediche e l'importanza della spezieria comunitaria, mentre un altro capitolo si focalizza sui viaggi terapeutici e sulla pratica del termalismo. L'ultima parte è incentrata sulla peste romana del 1656-57, analizzando il modo in cui la Congregazione affrontò lo scoppio e lo sviluppo dell'epidemia, sia in casa che in città, per sottolineare il fragile e ambiguo equilibrio che definirono tra carità e tutela della salute.
Resumo:
La ricerca di tesi qui presentata nasce con lo scopo di sondare la natura degli oggetti affettivi attraverso l’analisi dei lavori di campo da me svolti tra il 2016 e il 2019: il lavoro di campo all’interno dei Musei degli oggetti ordinari di Marseille e Parma (ricerca in ambiente museale) ed il lavoro di campo condotto all’interno di 28 abitazioni dell’Emilia Romagna (ricerca in ambiente domestico) comprendente un confronto generazionale tra sessantenni e trentenni. In particolare, con il lavoro qui presentato ho voluto cercare di comprendere, per mezzo di un’attenta analisi del legame uomo / cosa, la natura del rapporto che gl’individui tessono con le diverse dimensioni temporali della loro vita: passato, presente, futuro. La mia ricerca di tesi nasce difatti dal presupposto che gli oggetti affettivi (qui definiti “oggetti della nostalgia”) si inscrivono nella storia dei loro proprietari, essi evocano memorie, ricordi, ma anche valori e modi di vivere / di essere. Gli oggetti affettivi essendo in grado di preservare nel tempo una loro “funzionalità”, finiscono per preservare nella loro valenza simbolica ed affettiva frammenti di memorie in grado di orientare i loro proprietari nell’elaborazione del passato, ma anche di aiutarli nella creazione di un tempo presente e futuro sempre più felice e consapevole. Essi, in virtù del legame che li unisce intimamente ai loro proprietari, mantengono in vita ciò che apparentemente non esiste più, preservano l’assente nella loro presenza coniugando l’invisibile al visibile, l’immaterialità alla materia.
Resumo:
La ricerca ha ad oggetto lo studio dell’evoluzione del ruolo del Presidente del Consiglio dei ministri all’interno delle dinamiche di funzionamento della forma di governo italiana. Difatti, la ricostruzione sistematica di tale figura sembra essere rimasta sempre in secondo piano rispetto alle complesse analisi riguardanti la forma di governo parlamentare. Dal totale silenzio dello Statuto albertino sul punto, agli svariati tentativi non sempre riusciti nel periodo statutario di disciplinare le competenze presidenziali con atti normativi, alle “fumose” parole dell’articolo 95 della Costituzione, che hanno lasciato coesistere interpretazioni divergenti sulla collocazione del Presidente del Consiglio all’interno della compagine governativa, sino alla tardiva attuazione del disposto costituzionale con la legge n. 400/88, con grande difficoltà tale figura è riuscita ad avere un riconoscimento espresso e stabile delle proprie attribuzioni costituzionali. Il lavoro di ricerca, pertanto, si propone di ricostruire il “ruolo” costituzionale di tale figura soprattutto alla luce delle recenti evoluzioni che hanno caratterizzato la forma di governo nazionale. Ponendo al centro l’analisi di tali fenomeni, il lavoro si sviluppa seguendo tre direttrici evidenziate dalla tre parti in cui esso si divide: un’analisi storico-evolutiva; un’analisi orizzontale e “di sistema” dell’impianto organizzativo dell’esecutivo e del suo vertice e un’analisi concreta di due “casi di studio”. La finalità della ricerca è quella di proporre una lettura del ruolo costituzionale del Presidente del Consiglio in una chiave più estesa: non limitato esclusivamente al coordinamento e alla direzione dell’attività endogovernativa, declinata principalmente nel campo normativo, ma che ricomprende anche il coordinamento delle politiche pubbliche di governo e funzionale allo svolgimento di un coordinamento “inter-istituzionale” e “di sistema”, che coinvolge le diverse strutture governative, il Parlamento e i diversi livelli di governo, anche sovranazionale.
Resumo:
L’obiettivo di questa analisi è di coniugare la ricostruzione dei processi di assoggettamento che producono i copioni entro cui prende forma la soggettività dei profughi siriani, con la ricostruzione delle problematizzazioni alla base dei sistemi di controllo e gestione della circolazione regolare. Secondo l’UNHCR, tra il 2012 e il 2016 quasi un milione e mezzo di profughi siriani si è stabilita in Libano nel tentativo di sottrarsi all’intensificarsi del conflitto tra il regime di Assad e il fronte variegato di milizie ribelli. Questa popolazione in esilio si è confrontata con le politiche di amministrazione e controllo della loro presenza dispiegate dall’assemblaggio tra istituzioni locali e internazionali: in particolare, i governi libanesi che si sono avvicendati dal 2013 hanno progressivamente implementato interventi di inclusione differenziale della popolazione di profughi, relegandone la maggioranza in uno stato di marginalità e precarietà esistenziale. Di conseguenza, per molti di loro provare ad accedere a forme di mobilità regolare si impone come uno dei pochi percorsi possibili per ottenere il riconoscimento di un livello minimo di esistenza legittima. L’analisi sviluppata in questo elaborato si basa su una ricerca etnografica condotta in Libano nella regione dell’Akkar tra il 2019 e il 2020, a cui è stata associato uno studio dell’infrastruttura tecnico-politica dei Corridoi Umanitari, un programma per la mobilità dei profughi avviato nel biennio 2016-2017, grazie alla collaborazione tra autorità italiane e una serie di associazioni religiose attive in Italia.
Resumo:
Il Supply Chain Management è una rete di strutture che producono materie prime e le trasformano in prodotti finiti da consegnare ai clienti. Per gestire in maniera efficace l’impresa, l’intera struttura della catena di approvvigionamento deve seguire il flusso aziendale correttamente, in modo da non creare rallentamenti nella fornitura e causare problemi al soddisfacimento dei bisogni del cliente. Questo elaborato analizza tutte le componenti che influiscono sul successo di una supply chain, in particolare la funzione strategica degli acquisti, evidenziandone le principali problematiche che si possono riscontrare e le soluzioni che invece si possono applicare. Gli acquisti, che nascono dalla richiesta di un bisogno da soddisfare, sono da considerarsi un vantaggio competitivo e di redditività per un’azienda, in quanto incidono direttamente sul fatturato totale, motivo per cui sono stati oggetto dello studio. L’acquisto deve rispecchiare le specifiche tecniche e funzionali richieste, al fine di soddisfare i bisogni del cliente. Analizzando tale reparto presso l’azienda Termotecnica Industriale S.r.l., una Piccola Media Impresa (PMI) che si occupa di progettazione, fabbricazione ed installazione di caldaie industriali e generatori di vapore a recupero di calore, si è ricercato un nuovo modello di approvvigionamento da seguire. L’obiettivo di questa analisi è di sviluppare una strategia aziendale che gestisca in maniera corretta la catena di fornitura, ottenendo migliori condizioni contrattuali ed evitare problemi come gli acquisti a collo di bottiglia. E’ stato necessario, individuare una nuova metodologia che aiutasse i buyer a instaurare il giusto rapporto col fornitore selezionato, in funzione all’acquisto che si sta per compiere. Infatti per ogni tipologia di approvvigionamento ci sono approcci differenti da utilizzare con i fornitori per ottenere delle agevolazioni rispetto a quanto offerto in precedenza dello stesso.
Resumo:
Analisi termofluidodinamica di un accumulatore di calore che utilizza materiali a cambiamento di fase (PCM). I campi di velocità, di temperatura e di titolo, in regime termico non stazionario, relativi al singolo canale, vengono calcolati con un programma basato sul metodo dei volumi finiti, scritto in ambiente di lavoro Matlab. Vengono proposte diverse ottimizzazioni delle performance di accumulo termico, basate su un algoritmo genetico. Le ottimizzazioni sono fatte sia con differenti tipi di parametri di valutazione, sia con differenti gradi del polinomio che descrive la parete del canale; per ogni ottimizzazione l’algoritmo genetico è stato, quindi, utilizzato per determinare i parametri geometrici del canale ottimali. A partire dai risultati ottenuti dalle ottimizzazioni, vengono poi analizzate le prestazioni di canali della stessa geometria, ai quali viene aggiunta un’intelaiatura metallica. Vengono, infine, mostrati i risultati delle simulazioni numeriche fatte.
Resumo:
TARO (Tons of Articles Ready to Outline) è un progetto che ha come scopo quello di realizzare un sistema per la raccolta, l'analisi e il confronto di articoli di giornali online. Sono state scelte come fonti testate giornalistiche internazionali e i loro canali di pubblicazione, come ad esempio i Feed RSS e le Homepage. Gli articoli vengono quindi analizzati attraverso NER e Sentiment Analysis per poi individuare quali argomenti siano trattati da più testate e quali invece risultino esclusivi di una sola, sfruttando algoritmi di similarità. Il progetto è sviluppato in Python e sono utilizzate diverse librerie, tra cui Scrapy, per la raccolta di articoli, Argos, per la traduzione delle notizie al fine di allinearle linguisticamente, SpaCy, per le analisi semantiche, e Pandas per la visualizzazione dei risultati ottenuti. Uno degli obiettivi è sfruttare questa pipeline al fine di effettuare analisi socio-culturali interessanti utilizzando le informazioni date dagli articoli giornalistici stessi, oltre che osservare le potenzialità delle analisi semantiche fatte su notiziari.
Resumo:
Il presente elaborato prende in analisi due diverse traduzioni italiane, la traduzione di Gabriele Baldini pubblicata per la prima volta nel 1950 e quella di Tommaso Pincio uscita nel 2021, del romanzo distopico "1984" di George Orwell, con particolare attenzione alla traduzione del Newspeak. Lo scopo finale è quello di individuare le differenti scelte traduttive adottate dai due traduttori presi in esame. A supporto di questa analisi, nel primo capitolo verrà effettuata una panoramica generale delle lingue inventate, mentre nel secondo capitolo verrà presentato l’autore, l’opera stessa e la sua storia editoriale. Nel terzo capitolo l’attenzione verrà poi rivolta alla teoria linguistica di Orwell e alle caratteristiche principali del Newspeak. Infine, nel quarto capitolo, verrà effettuata la vera e propria analisi delle scelte traduttive relative al Newspeak adottate dai due traduttori italiani.