594 resultados para THz,attenuazione,assorbimento molecolare,propagazione ad alte frequenze,modello di propagazione
Resumo:
L'elaborato fornisce una introduzione al modello di Ising, utilizzato nello studio delle transizioni di fase tra la fase ferromagnetica e quella paramagnetica dei materiali. Nella prima parte viene trattato il modello unidimensionale, di cui viene esposta la soluzione esatta attraverso l'utilizzo delle matrici di trasferimento, dimostrando quindi l'inesistenza di una transizione di fase a temperature finite non nulle. Vengono calcolate le funzioni termodinamiche e se ne dimostra l'indipendenza dalle condizioni al contorno nel limite termodinamico.Viene proposta infine una spiegazione qualitativa del comportamento microscopico, attraverso la lunghezza di correlazione. Nella seconda parte viene trattato il caso a due dimensioni. Inizialmente viene determinata la temperatura critica per reticoli quadrati, attraverso il riconoscimento della presenza di una relazione di dualita tra l'espansione per alte e per basse temperature della funzione di partizione. Successivamente si fornisce la soluzione esatta attraverso una versione modificata del procedimento, originariamente ideato da L.Onsager, di cui e proposta una traccia della dimostrazione. Viene infine brevemente discussa l'importanza che questo risultato ebbe storicamente nella fisica delle transizioni di fase.
Resumo:
Cookgle e il prototipo di un motore di ricerca per ricette culinarie. Scopo della dissertazione e mostrare i punti chiave e i problemi riscontrati durante la progettazione dell'applicativo per l'architettura ad alto livello. Questo concept rappresenta il primo mattone delle successive costruzioni, volte ad ottenere un motore di ricerca per ricette culinarie in grado di indicizzare tutte le ricette presenti nel web.
Resumo:
Effettuando un’analisi della condizione attuale del parco edilizio che costituisce le nostre città e periferie, ciò che si può rilevare è che questo, allo stato attuale, risulta in condizioni di grave degrado tecnologico, energetico, sociale ed architettonico. Diviene pertanto necessario intervenire su questa ampia porzione di città. A tal fine possono essere attuati due metodi di intervento: la trasformazione dell’esistente attraverso la completa sostituzione dei manufatti edilizi, oppure la riqualificazione dell’esistente con opere mirate. Questo secondo modello di intervento ha il pregio di riconoscere il valore culturale del tessuto edilizio esistente, puntando a criteri di sviluppo sostenibile, e guardando ai manufatti esistenti riconoscendone il potenziale economico ed architettonico. Allo stato attuale pertanto la disciplina punta a questo secondo metodo di intervento ricercando soluzioni in grado di modificare le prestazioni dell’edificio fino a renderle soddisfacenti in rapporto alle nuove esigenze ambientali, economiche, del vivere contemporaneo dell’individuo e della collettività nel suo complesso. Tra le opere che possono essere attuate al fine di riqualificare queste preziose aree, oltre a quelle di riqualificazione che mirano al miglioramento del comportamento energetico e della qualità architettonica dell’edificio esistente, si considera anche l’intervento per addizione, che permette la densificazione dei tessuti esistenti attraverso l’aumento del numero di alloggi sociali e l’implementazione dei servizi. In questo modo si va ad implementare e completare la gamma di prestazioni di un manufatto edilizio che non è più in grado di soddisfare tutte quelle esigenze del vivere contemporaneo. Il risultato finale è quindi un sistema edilizio che, grazie all’intervento, può vantare una valorizzazione complessiva del patrimonio immobiliare, grazie agli elevati livelli di prestazione energetica, alle condizioni di vivibilità eccellenti raggiunte e alla migliorata qualità architettonica.
Resumo:
Negli ultimi decenni, le tecnologie e i prodotti informatici sono diventati pervasivi e sono ora una parte essenziale delle nostre vite. Ogni giorno ci influenzano in maniera più o meno esplicita, cambiando il nostro modo di vivere e i nostri comportamenti più o meno intenzionalmente. Tuttavia, i computer non nacquero inizialmente per persuadere: essi furono costruiti per gestire, calcolare, immagazzinare e recuperare dati. Non appena i computer si sono spostati dai laboratori di ricerca alla vita di tutti i giorni, sono però diventati sempre più persuasivi. Questa area di ricerca è chiamata pesuasive technology o captology, anche definita come lo studio dei sistemi informatici interattivi progettati per cambiare le attitudini e le abitudini delle persone. Nonostante il successo crescente delle tecnologie persuasive, sembra esserci una mancanza di framework sia teorici che pratici, che possano aiutare gli sviluppatori di applicazioni mobili a costruire applicazioni in grado di persuadere effettivamente gli utenti finali. Tuttavia, il lavoro condotto dal Professor Helal e dal Professor Lee al Persuasive Laboratory all’interno dell’University of Florida tenta di colmare questa lacuna. Infatti, hanno proposto un modello di persuasione semplice ma efficace, il quale può essere usato in maniera intuitiva da ingegneri o specialisti informatici. Inoltre, il Professor Helal e il Professor Lee hanno anche sviluppato Cicero, un middleware per dispositivi Android basato sul loro precedente modello, il quale può essere usato in modo molto semplice e veloce dagli sviluppatori per creare applicazioni persuasive. Il mio lavoro al centro di questa tesi progettuale si concentra sull’analisi del middleware appena descritto e, successivamente, sui miglioramenti e ampliamenti portati ad esso. I più importanti sono una nuova architettura di sensing, una nuova struttura basata sul cloud e un nuovo protocollo che permette di creare applicazioni specifiche per smartwatch.
Resumo:
L'elaborato tratterà, in linea teorica e successivamente con un esempio pratico, il tema della strategia di costo basata sulla leadership di costo. La prima parte vedrà partirà da una linea ampia, al fine di chiarire al meglio cosa sia una strategia aziendale e come essa vada implementata,si restringerà poi andandosi a focalizzare con particolare attenzione su come applicare tale strategia nei mercati di beni durevoli, beni il cui consumo viene ripetuto nel tempo. L'analisi vedrà in particolare, li strumenti, i metodi aziendali e la filosofia per far si che tale strategia diventi più che competitiva nei mercati individuati. Si analizzerà inoltre brevemente il caso di Ikea, leader mondiale della produzione e distribuzione di mobili, la quale ha posto il suo modello di business proprio sulla Leadership di costo. La seconda parte vedrà un caso pratico: come tale strategia è stata implementata e utilizzata nel contesto del business game, una simulazione di un mercato proprio di beni durevoli, lavatrici e asciugabiancherie. L'analisi verterà sulla squadra Freedinelli che ha conseguito buoni risultati attraverso tale strategia. Infine verranno tratte delle conclusioni sulla convenienza ad utilizzare tale strategia, in quali casi sia più conveniente farlo e come farlo al meglio.
Resumo:
L’internazionalizzazione dei contesti industriali e l’aumento della competizione sopravvenuti nel mondo contemporaneo hanno reso necessari diversi mutamenti nelle attività produttive e legate ai servizi, dalla diversificazione dei prodotti, alla riduzione dei lead time, alla razionalizzazione dei costi a tutti i livelli della supply chain, non solo relativamente alle materie prime e alla diminuzione dei prezzi di vendita, ma anche di tutti i costi indiretti, che assumono un peso importante. La rapidità nella sostituzione dei prodotti e la necessità di contenere al massimo i tempi di risposta spingono sempre più le aziende a rivedere la propria struttura in modo da eliminare gli sprechi. Le imprese operano in un ambiente molto complesso, di conseguenza si rende necessario il coinvolgimento non solo delle funzioni interne ad un’azienda, ma anche di quelle esterne, nell’ottimizzazione delle attività che producono valore e di quelle necessarie che non intervengono direttamente. Tra tutte queste attività si cerca, in questo elaborato, di porre un focus su quelle legate alla gestione delle scorte all’interno della supply chain e all’integrazione dei fornitori nella rete logistica aziendale. Verranno ripresi i concetti fondamentali della teoria di gestione delle scorte, e sarà esposto il percorso intrapreso dall’azienda Carpigiani Group, leader mondiale nella produzione e commercializzazione di macchine per la produzione di gelato artigianale ed “espresso”, di integrazione dei fornitori all’interno della catena di approvvigionamento, attraverso un sistema kanban di fornitura e politiche di approvvigionamento riconducibili al consignment stock, con il fine ultimo di ottimizzare i livelli di scorte a magazzino e di servire le linee produttive con efficacia ed efficienza.
Resumo:
Nell’Ottobre 2015, a seguito di alcuni fenomeni di instabilità avvenuti in corrispondenza delle scarpate lato fiume in sponda sinistra del Po, nel tratto compreso tra Casalmaggiore (CR) e Dosolo (MN), l'Agenzia Interregionale per il fiume Po (AIPO) ha commissionato un' estesa campagna di indagini geognostiche. L'ampio database reso disponibile è stato utilizzato in questa tesi di laurea con l'obiettivo di sviluppare, in collaborazione con i tecnici AIPO, una valida procedura per analizzare i dissesti delle scarpate lato fiume in questo tratto del Po e per identificare gli eventuali interventi di messa in sicurezza più idonei. Lo studio proposto si prefigge i seguenti obiettivi: • La caratterizzazione geotecnica dei terreni costituenti le strutture arginali in esame ed il relativo substrato; • La definizione del modello geotecnico del sistema arginale; • La valutazione della stabilità dell'argine; • La individuazione degli interventi di messa in sicurezza delle scarpate. Attraverso l’elaborazione delle prove CPTU è stato possibile determinare la stratigrafia e i parametri geotecnici delle diverse unità stratigrafiche presenti nelle sezioni considerate significative. Sono state quindi effettuate una serie di analisi con il metodo all'equilibrio limite, verificando la stabilità delle scarpate in condizioni di magra ordinaria e in condizioni di rapido svaso. Tenendo conto che la maggior parte dei tratti analizzati aveva già manifestato segni di instabilità o comunque indicava condizioni prossime al limite dell’equilibrio, si è proceduto in "back analysis" alla individuazione dei parametri di resistenza al taglio operativi, tenendo conto della variabilità degli stessi nell'ambito di una stessa unità stratigrafica. Infine tenendo presente i criteri di progetto degli interventi normalmente adottati sulle sponde, è stato possibile procedere alla modellazione di interventi mirati ad aumentare il fattore di sicurezza, analizzandone i relativi vantaggi e svantaggi.
Resumo:
Obbiettivo della tesi è sviluppare un metodo che valuti la probabilità di rottura arginale nella stesura delle mappe di pericolosità e di rischio alluvione. Ad oggi le mappe di pericolosità, redatte dagli enti regionali, considerano solo la probabilità di superamento dell’argine da parte del livello idrico (overtopping) e non il cedimento dello stesso a causa dell’instabilizzazione dovuta all’innalzamento del livello del fiume. Per la presente tesi si è scelto come caso di studio la rottura dell’argine destro del fiume Secchia del 19 gennaio 2014, presso la frazione di San Matteo, comune di Modena. Questo caso di rottura arginale è particolarmente interessante, poiché dopo l’accaduto la regione Emilia-Romagna ha predisposto una commissione tecnica per valutare le cause dell'evento. La commissione ha quindi predisposto una serie di indagini i cui dati saranno di fondamentale importanza nella presente tesi. Utilizzando, infatti, questo caso di cedimento arginale come esempio si è potuto innanzitutto ricostruire il fenomeno che ha provocato il fallimento dell’argine e ricalcolare il rischio inondazione sulle zone allagate considerando la probabilità di fallimento del sistema arginale. Per fare ciò, si sono inizialmente eseguite varie modellazioni idrauliche, sul corpo arginale, per stabilire gli spostamenti della tavola d’acqua e i valori di pressione interstiziale dei pori al variare dei tiranti idrici utilizzando il software SEEP/W. Successivamente si è utilizzato SLOPE/W allo scopo di verificate le probabilità di cedimento dell'argine in relazione alle modellazioni idrauliche effettuate con SEEP/W. Una volta ricavate le probabilità di rottura alle varie quote idriche con SLOPE/W, le si è riportate su un foglio di calcolo Excel e ricavata la curva di fragilità dell'argine e calcolato le probabilità di accadimento degli eventi alluvionali. Dopo di ciò attraverso l’utilizzo del software CA2D si sono modellate le mappe di alluvione per i vari eventi e con l’ausilio di Qgis si sono ricavate le mappe di pericolosità e calcolato il rischio sugli edifici interessati.
Resumo:
L'RCMT (Regional Centroid Moment Tensor), realizzato e gestito dai ricercatori dell'INGV (Istituto Nazionale di Geofisica e Vulcanologia), è dal 1997 il catalogo di riferimento per gli eventi sismici avvenuti nell'area Europea-Mediterranea, ossia nella regione avente longitudine compresa tra 10° W e 40° E e latitudine compresa tra 25° N e 60° N. Tale regione è caratterizzata da un'attività tettonica complessa, legata non soltanto alla convergenza delle placche Euroasiatica ed Africana, ma anche al movimento di altre placche minori (ad esempio, la placca Arabica), che tutte insieme danno origine ad una vasta gamma di regimi tettonici. Col termine RCMT si indica un particolare tipo di tensore momento sismico, la cui determinazione avviene su scala regionale, per eventi sismici aventi M_w >= 4.5 (M_w >= 4.0 per gli eventi che avvengono nella penisola italica). Il tensore momento sismico è uno strumento fondamentale per caratterizzare natura ed entità di un terremoto. Da esso, infatti, oltre alla magnitudo momento M_w, si ricava anche il meccanismo focale. Comunemente rappresentato sotto forma di beach ball, consente di individuare il tipo di movimento (distensivo, compressivo o trascorrente, o anche una combinazione del primo o del secondo con il terzo) avvenuto sulla faglia che ha provocato il terremoto. I tensori momento sismico permettono, quindi, di identificare le faglie che si attivano durante una sequenza sismica, di comprendere la loro cinematica e di ipotizzare la successiva evoluzione a breve termine. Scopo di questa relazione di laurea è stato derivare le relazioni che intercorrono fra le M_w dell'RCMT e le M_w del CMT (Centroid Moment Tensor della Columbia University), del GFZ (Deutsches GeoForschungsZentrum di Postdam) e del TDMT (Time Domain Moment Tensor). Le relazioni sono state ottenute applicando il metodo dei minimi quadrati agli eventi comuni, che sono stati selezionati utilizzando alcuni semplici programmi scritti in Fortran.
Resumo:
Il lavoro di questa tesi è frutto dell’esperienza maturata in quattro mesi di tirocinio presso l’U.S. Geological Survey di Menlo Park, da ottobre 2015 a gennaio 2016. Durante questo periodo sono state eseguite quattro campagne di raccolta dati sismici e geotecnici presso la città di Napa, ove, il 24 agosto 2014, si è verificato un terremoto di magnitudo momento pari a 6.0. Quest’area è stata interessata in precedenza da terremoti minori, il più significativo dei quali risulta essere il terremoto di Yountville del 2000 di magnitudo momento pari a 5.1. I rilievi macrosismici, effettuati immediatamente dopo il terremoto di Napa del 2014, hanno fornito una classificazione dettagliata delle strutture danneggiate nel distretto colpito. Obiettivo di questa tesi è comprendere se la distribuzione dei danni osservata sia legata anche alle caratteristiche geologiche locali (effetti di sito), oltre che alla vicinanza all’epicentro. A questo scopo sono state acquisite 63 misure sismiche passive a stazione singola e 4 prove di sismica attiva multicanale, la cui inversione congiunta ha permesso di creare mappe dei riflettori sismici principali sotto le zone interessate dal terremoto. Allo stesso tempo tali mappe, interpretate alla luce della cartografia geologica, hanno permesso di costruire sezioni geologiche e di identificare le corrispondenze tra riflettori geologici e riflettori sismici. Si è così potuto osservare che le zone più pesantemente danneggiate dal terremoto sono quelle che ricadono ove si sono misurate amplificazioni per risonanza in medio-alta frequenza (> 3 Hz) mentre scarsi danni si sono registrati nelle aree caratterizzate da roccia affiorante (e curve di amplificazione per risonanza piatte) e danni minori nelle zone contraddistinte solo da bedrock sismico profondo. La distribuzione del danno, evidenziatosi prevalentemente dove le frequenze proprie di vibrazione del suolo sono mediamente sopra 3 Hz, risulta compatibile con gli intervalli di frequenza attesi per le strutture residenziali tipiche di Napa Valley, che sono costituite da 2-3 piani fuori terra, in legno e di altezza non superiore ai 10 metri.
Resumo:
Questa tesi descrive la ricerca condotta tra l'autunno e l'inverno di quest'anno da un gruppo di ricercatori in didattica della matematica relativamente all'influenza che le variazioni redazionali di un quesito matematico hanno sulle performance degli studenti. Lo scopo della ricerca è quella di strutturare e validare una metodologia e uno strumento che permettano di individuare e quantificare l'influenza delle variazioni del testo sulle prestazioni dello studente. Si è sentita l'esigenza di condurre uno studio di questo tipo poichè è sempre più evidente il profondo legame tra il linguaggio e l'apprendimento della matematica. La messa a punto di questo strumento aprirebbe le porte a una serie di ricerche più approfondite sulle varie tipologie di variazioni numeriche e/o linguistiche finora individuate. Nel primo capitolo è presentato il quadro teorico di riferimento relativo agli studi condotti fino ad ora nell'ambito della didattica della matematica, dai quali emerge la grossa influenza che la componente linguistica ha sulla comprensione e la trasmissione della matematica. Si farà quindi riferimento alle ricerche passate volte all'individuazione e alla schematizzazione delle variazioni redazionali dei Word Problems. Nel secondo capitolo, invece si passerà alla descrizione teorica relativa allo strumento statistico utilizzato. Si tratta del modello di Rasch appartenente alla famiglia dei modelli statistici dell'Item Response Theory, particolarmente utilizzato nella ricerca in didattica. Il terzo capitolo sarà dedicato alla descrizione dettagliata della sperimentazione svolta. Il quarto capitolo sarà il cuore di questa tesi; in esso infatti verrà descritta e validata la nuova metodologia utilizzata. Nel quinto sarà eseguita un analisi puntuale di come lo strumento ha messo in evidenza le differenze per ogni item variato. Infine verranno tratte le conclusioni complessive dello studio condotto.
Resumo:
Internet ha rivoluzionato il modo di comunicare degli individui. Siamo testimoni della nascita e dello sviluppo di un'era caratterizzata dalla disponibilità di informazione libera e accessibile a tutti. Negli ultimi anni grazie alla diffusione di smartphone, tablet e altre tipologie di dispositivi connessi, è cambiato il fulcro dell'innovazione spostandosi dalle persone agli oggetti. E' così che nasce il concetto di Internet of Things, termine usato per descrivere la rete di comunicazione creata tra i diversi dispositivi connessi ad Internet e capaci di interagire in autonomia. Gli ambiti applicativi dell'Internet of Things spaziano dalla domotica alla sanità, dall'environmental monitoring al concetto di smart cities e così via. L'obiettivo principale di tale disciplina è quello di migliorare la vita delle persone grazie a sistemi che siano in grado di interagire senza aver bisogno dell'intervento dell'essere umano. Proprio per la natura eterogenea della disciplina e in relazione ai diversi ambiti applicativi, nell'Internet of Things si può incorrere in problemi derivanti dalla presenza di tecnologie differenti o di modalità eterogenee di memorizzazione dei dati. A questo proposito viene introdotto il concetto di Internet of Things collaborativo, termine che indica l'obiettivo di realizzare applicazioni che possano garantire interoperabilità tra i diversi ecosistemi e tra le diverse fonti da cui l'Internet of Things attinge, sfruttando la presenza di piattaforme di pubblicazione di Open Data. L'obiettivo di questa tesi è stato quello di creare un sistema per l'aggregazione di dati da due piattaforme, ThingSpeak e Sparkfun, con lo scopo di unificarli in un unico database ed estrarre informazioni significative dai dati tramite due tecniche di Data Mining: il Dictionary Learning e l'Affinity Propagation. Vengono illustrate le due metodologie che rientrano rispettivamente tra le tecniche di classificazione e di clustering.
Resumo:
Il grafene, allotropo del carbonio costituito da un reticolo bidimensionale, è uno dei nanomateriali più promettenti allo stato attuale della ricerca nei campi della Fisica e della Chimica, ma anche dell'Ingegneria e della Biologia. Isolato e caratterizzato per la prima volta nel 2004 dai ricercatori russi Andre Geim e Konstantin Novoselov presso l'Università di Manchester, ha aperto la via sia a studi teorici per comprendere con gli strumenti della Meccanica Quantistica gli effetti di confinamento in due dimensioni (2D), sia ad un vastissimo panorama di ricerca applicativa che ha l'obiettivo di sfruttare al meglio le straordinarie proprietà meccaniche, elettriche, termiche ed ottiche mostrate da questo materiale. Nella preparazione di questa tesi ho personalmente seguito presso l'Istituto per la Microelettronica e i Microsistemi (IMM) del CNR di Bologna la sintesi mediante Deposizione Chimica da Fase Vapore (CVD) di grafene "tridimensionale" (3D) o "poroso" (denominato anche "schiuma di grafene", in inglese "graphene foam"), ossia depositato su una schiuma metallica dalla struttura non planare. In particolare l'obiettivo del lavoro è stato quello di misurare le proprietà di conduttività elettrica dei campioni sintetizzati e di confrontarle con i risultati dei modelli che le descrivono teoricamente per il grafene planare. Dopo un primo capitolo in cui descriverò la struttura cristallina, i livelli energetici e la conduzione dei portatori di carica nel reticolo ideale di grafene 2D (utilizzando la teoria delle bande e l'approssimazione "tight-binding"), illustrerò le differenti tecniche di sintesi, in particolare la CVD per la produzione di grafene poroso che ho seguito in laboratorio (cap.2). Infine, nel capitolo 3, presenterò la teoria di van der Pauw su cui è basato il procedimento per eseguire misure elettriche su film sottili, riporterò i risultati di conduttività delle schiume e farò alcuni confronti con le previsioni della teoria.
Resumo:
Questo elaborato presenta una descrizione del fenomeno dell’accrescimento di materia su oggetti compatti, esponendo i principali modelli fisici a riguardo. Dopo un’introduzione, in cui viene mostrato come l’accrescimento rappresenti la più importante fonte di energia in astrofisica, si discute nel capitolo 1 il più semplice modello di accresci- mento, dovuto ad Hermann Bondi (1952). Tale modello, proprio per la sua semplicità, risulta molto importante, nonostante trascuri importanti aspetti fisici. Nel capitolo 2 si studia la fisica dei dischi di accrescimento, analizzando sia il caso generale che alcuni casi particolari, come quello stazionario o a viscosità costante. L’elaborato si conclude con una breve analisi dell’emissione termica da parte del disco di accrescimento.
Resumo:
Il presente elaborato di tesi tratta la valutazione di differenti sistemi di controventatura, sia dal punto di vista di risposta ad un evento sismico che in termini di perdite economiche legate al danneggiamento delle varie componenti. Tra di esse è presentata anche una nuova tipologia strutturale, ideata per ridurre il comportamento “soft-story” e “weak-story”, tipico delle strutture controventate convenzionali. In questo caso, è integrata alla struttura una trave reticolare metallica, che funge da supporto verticale ed è progettata per rimanere in campo elastico. Tale sostegno garantisce una distribuzione più uniforme degli sforzi lungo l’intera altezza della struttura, anziché concentrarli in un unico piano. La ricerca tratta lo studio della fattibilità economica di questa nuova tecnologia, rispetto alle precedenti soluzioni di controventatura adottate, confrontando le perdite economiche delle diverse soluzioni, applicate ad un unico prototipo di edificio collocato a Berkeley, CA. L’analisi sismica tiene in considerazione di tre diversi livelli di intensità, riferiti a un periodo di ritorno di 50 anni, corrispondente alla vita dell’edificio: questi sono caratterizzati dalla probabilità di ricorrenza, rispettivamente del 2%, 10% e 50% ogni 50 anni. L’ambito di ricerca presentato è estremamente innovativo e di primario interesse per lo sviluppo di uno studio sulla resilienza, che può essere adattato anche in un modello di urbanizzazione futura.