929 resultados para Emissioni odorigene, Modelli di simulazione, Dispersione in atmosfera, LAPMOD


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le basi neurali della memoria semantica e lessicale sono oggetto di indagine da anni nelle neuroscienze cognitive. In tale ambito, un ruolo crescente è svolto dall’uso di modelli matematici basati su reti di neuroni. Scopo del presente lavoro è di utilizzare e migliorare un modello sviluppato in anni recenti, per spiegare come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Il principio alla base del modello è che la semantica di un concetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione del concetto stesso nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è stato quello di indagare i meccanismi che portano alla formazione di categorie. Una importante modifica effettuata è consistita nell’utilizzare un meccanismo di apprendimento Hebbiano a soglia variabile, in grado di adattarsi automaticamente alla statistica delle proprietà date in input. Ciò ha portato ad un miglioramento significativo dei risultati. In particolare, è stato possibile evitare che un proprietà comune a molti (ma non a tutti) i membri di una categoria (come la proprietà “vola” per la categoria “uccelli”) sia erroneamente attribuita all’intera categoria. Nel lavoro viene presentato lo stesso modello con quattro differenti tassonomie, relative ad animali e a oggetti artificiali. La rete, una volta addestrata con una delle 4 tassonomie, è in grado di risolvere compiti di riconoscimento e denominazione di concetti, mantenendo una distinzione tra le categorie e i suoi membri, e attribuendo un diverso ruolo alle proprietà salienti rispetto alle proprietà marginali. Le tassonomie presentano un numero di concetti e features crescente, per avvicinarsi al reale funzionamento della memoria semantica, in cui ai diversi concetti è associato un numero diverso di caratteristiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel lavoro di tesi si sono studiati i modelli di transizione di fase studiati in precedenza da Gibbs e da Cahn-Hilliard. Si è poi verificato che i due modelli sono equivalenti sotto le ipotesi della gamma convergenza

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La sperimentazione aveva il fine di valutare l’attività antimicrobica di oli essenziali di timo e cannella in hamburger di bovino. In primo luogo è stata fatta una caratterizzazione di questi oli mediante analisi GC-MS-SPME, da cui è emerso che le molecole a maggiore attività antimicrobica (rispettivamente timolo/carvacrolo ed aldeide cinnamica) erano presenti a concentrazioni piuttosto basse. Successivamente sono state valutate MIC e MBC nei confronti di microrganismi patogeni di interesse alimentare. Infine, tali oli sono stati incapsulati in chitosano per valutare un eventuale effetto sinergico e favorire un rilascio graduale degli oli. Il processo di incapsulazione ha mostrato una efficienza piuttosto bassa (solo il 25% dell’olio aggiunto veniva effettivamente incapsulato), per cui non è stato possibile utilizzare nanoparticelle “caricate” con quantità di olio tali da inibire significativamente lo sviluppo microbico in hamburger di carne bovina. Infatti, l’effetto sinergico chitosano/olio essenziale è stato in grado di ridurre solo lievemente il carico di enterobatteri durante la conservazione refrigerata, soprattutto nei campioni confezionati in atmosfera modificata. Una prova effettuata utilizzando i due oli in forma libera ad elevata concentrazione (1000 mg/kg), la cannella si è dimostrata molto più efficace del timo, riducendo il carico cellulare di enterobatteri a fine shelf-life, con effetto più evidente nei campioni di hamburger confezionati in atmosfera modificata (riduzione di un ciclo logaritmico). Inoltre, essa è risultata in grado di ridurre lievemente lo sviluppo di lieviti e funghi. Concludendo, gli oli essenziali usati in questa sperimentazione, poiché caratterizzati da una bassa concentrazione di molecole ad elevata attività antimicrobica (timolo/carvacrolo per il timo, aldeide cinnamica per la cannella), non sono stati in grado di prolungare in modo significativo la shelf-life di hamburger di bovino, nemmeno se incapsulati in chitosano.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi riguarda l’analisi della vulnerabilità sismica di serbatoi atmosferici in acciaio. I serbatoi sono strutture di varie forme e dimensioni, utilizzate per lo stoccaggio di liquidi come l’acqua, il petrolio e il gas naturale. La loro importanza non deriva solamente dal loro valore economico e da quello della sostanza contenuta, ma anche dalle conseguenze disastrose causate da un loro collasso strutturale. Risulta quindi fondamentale progettare sistemi che siano efficienti ed affidabili, soprattutto nei confronti di azioni sismiche. In questo campo, in particolare negli ultimi decenni, sono state condotte numerose campagne sperimentali, grazie alle quali si è compreso meglio il comportamento dei serbatoi. Le normative, inoltre, hanno introdotto al loro interno indicazioni riguardo all’analisi dinamica, fornendo un valido strumento per i progettisti. In questo lavoro di tesi si è analizzata la vulnerabilità sismica di varie tipologie di serbatoi e si sono confrontati i risultati ottenuti. Sono stati studiati in particolare due modelli: il primo considera il serbatoio come rigido, il secondo, invece, come deformabile. L’analisi è stata automatizzata creando degli script che permettono, variando solamente alcuni parametri (caratteristiche del serbatoio, del liquido contenuto e del terreno presente), di giungere in tempi rapidi ad una soluzione accettabile per verificare le possibili rotture. Per modellare il problema si è scelto di seguire l’approccio fornito dalle raccomandazioni neozelandesi NZSEE, mentre per le verifiche di instabilità sono state prese in considerazione anche le normative europee. L’obiettivo è dunque quello di analizzare, attraverso un modello semplificato ed automatizzato, la vulnerabilità di serbatoi cilindrici in acciaio contenenti liquido sottoposti ad un’azione sismica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The problematic gestation of the Directive on temporary agency work shows the presence of several criticalities that there are also in the national transposition in relation to the principle of equal treatment and to the mechanisms for preventing abuse during successive assignments. From a first analysis it can be said that in some EU Member States only the derogations have been implemented and not the general principle of equal treatment. At the same time, the obligation of the Member States, contained in the Directive on temporary agency work, to establish mechanisms for preventing abuse during successive assignments is crucial, especially in the light of the recent case law of the EU Court of Justice in which the Court does not apply to the temporary agency workers the protective rules of the Directive on fixed-term contracts (see C-290/12 , Della Rocca).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi è stato analizzato e tradotto nel linguaggio di alto livello AMPL un modello di ILP relativo alla pianificazione tattica del blocco operatorio. L'obiettivo è quello di permettere l'interfacciamento con numerosi solver -commerciali e non- al fine di analizzarne le prestazioni. In seguito a un'introduzione in merito al problema dell'Operating Room Management e a una descrizione del contesto sanitario regionale dell'Emilia-Romagna, si è proceduto alla descrizione formale del modello. Infine sono state eseguite numerose risoluzioni con i solver cplex e gurobi al variare di alcuni parametri in ingresso, tra cui il numero di sale operatorie, di infermieri e operatori sanitari, e di pazienti in lista d'attesa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Viviamo in un epoca di cambiamenti. Continuamente, giorno dopo giorno, il vecchio scompare per fare spazio al nuovo. La tecnologia permea sempre più in ogni aspetto della vita, conquistando le nostre abitudini, cambiando il nostro modo di vedere il mondo, e, in maniera inevitabile, il nostro modo di agire. L’essere umano ha da sempre cercato di concepire cose che ancora non ci sono, per cambiare la realtà e modellarla a suo piacimento. Si parte, quindi, da qualcosa che fin dalla nascita è dentro ognuno di noi, un desiderio che arde nell'animo umano, che si alimenta grazie al soffio dell’immaginazione e che non c’è modo di spegnere. L’innovazione porta novità. Resistere al cambiamento non è sempre facile, e se si cerca di ostacolarlo esso ti travolgerà. “Affrontare il cambiamento è come scalare una colata di fango giù per una collina” - esordisce in “The Innovator Dilemma”, Clayton M. Christensen - “Bisogna affrontare qualsiasi cosa per rimanere su di essa, e non appena ci si ferma per prendere fiato si viene seppelliti”. Si intuisce come il cambiamento tecnologico non solo sia di fondamentale evidenza nella vita di ognuno, ma come esso abbia cambiato e stia cambiando il modo di fare business. In questo umile lavoro si è voluto analizzare come certi tipi di innovazione abbiano il potere di cambiare tutto un sistema di riferimento sul quale prima l’impresa faceva affidamento. Sono le Disruptive Innovation – le innovazioni dirompenti – quelle innovazioni che ribaltano un modello di business, il modo di vedere un prodotto, la logica dietro a certe operations aziendali, che seppur sembrassero solide, si sgretolano scontrandosi con innovazioni così forti. Vi è poi una domanda critica a cui si è cercato di rispondere. Si può fare Disruptive Marketing? Alcuni esempi virtuosi ci mostrano come si possa attuare una strategia di questo genere, e come si possa “comprendere, creare, comunicare e distribuire valore” in modo innovativo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo della presente tesi è evidenziare l’importanza dell’approccio critico alla valutazione della vulnerabilità sismica di edifici in muratura e misti Il contributo della tesi sottolinea i diversi risultati ottenuti nella modellazione di tre edifici esistenti ed uno ipotetico usando due diversi programmi basati sul modello del telaio equivalente. La modellazione delle diverse ipotesi di vincolamento ed estensione delle zone rigide ha richiesto la formulazione di quattro modelli di calcolo in Aedes PCM ed un modello in 3muri. I dati ottenuti sono stati confrontati, inoltre, con l’analisi semplificata speditiva per la valutazione della vulnerabilità a scala territoriale prevista nelle “Linee Guida per la valutazione e riduzione del rischio sismico del Patrimonio Culturale”. Si può notare che i valori ottenuti sono piuttosto diversi e che la variabilità aumenta nel caso di edifici non regolari, inoltre le evidenze legate ai danni realmente rilevati sugli edifici mostrano un profondo iato tra la previsione di danno ottenuta tramite calcolatore e le lesioni rilevate; questo costituisce un campanello d’allarme nei confronti di un approccio acritico nei confronti del mero dato numerico ed un richiamo all’importanza del processo conoscitivo. I casi di studio analizzati sono stati scelti in funzione delle caratteristiche seguenti: il primo è una struttura semplice e simmetrica nelle due direzioni che ha avuto la funzione di permettere di testare in modo controllato le ipotesi di base. Gli altri sono edifici reali: il Padiglione Morselli è un edificio in muratura a pianta a forma di C, regolare in pianta ed in elevazione solamente per quanto concerne la direzione y: questo ha permesso di raffrontare il diverso comportamento dei modelli di calcolo nelle sue direzioni; il liceo Marconi è un edificio misto in cui elementi in conglomerato cementizio armato affiancano le pareti portanti in muratura, che presenta un piano di copertura piuttosto irregolare; il Corpo 4 dell’Ospedale di Castelfranco Emilia è un edificio in muratura, a pianta regolare che presenta le medesime irregolarità nel piano sommitale del precedente. I dati ottenuti hanno dimostrato un buon accordo per la quantificazione dell’indice di sicurezza per i modelli regolari e semplici con uno scarto di circa il 30% mentre il delta si incrementa per le strutture irregolari, in particolare quando le pareti portanti in muratura vengono sostituite da elementi puntuali nei piani di copertura arrivando a valori massimi del 60%. I confronti sono stati estesi per le tre strutture anche alla modellazione proposta dalle Linee Guida per la valutazione dell’indice di sicurezza sismica a scala territoriale LV1 mostrando differenze nell’ordine del 30% per il Padiglione Morselli e del 50% per il Liceo Marconi; il metodo semplificato risulta correttamente cautelativo. È, quindi, possibile affermare che tanto più gli edifici si mostrano regolari in riferimento a masse e rigidezze, tanto più la modellazione a telaio equivalente restituisce valori in accordo tra i programmi e di più immediata comprensione. Questa evidenza può essere estesa ad altri casi reali divenendo un vero e proprio criterio operativo che consiglia la suddivisione degli edifici esistenti in muratura, solitamente molto complessi poiché frutto di successive stratificazioni, in parti più semplici, ricorrendo alle informazioni acquisite attraverso il percorso della conoscenza che diviene in questo modo uno strumento utile e vitale. La complessità dell’edificato storico deve necessariamente essere approcciata in una maniera più semplice identificando sub unità regolari per percorso dei carichi, epoca e tecnologia costruttiva e comportamento strutturale dimostrato nel corso del tempo che siano più semplici da studiare. Una chiara comprensione del comportamento delle strutture permette di agire mediante interventi puntuali e meno invasivi, rispettosi dell’esistente riconducendo, ancora una volta, l’intervento di consolidamento ai principi propri del restauro che includono i principi di minimo intervento, di riconoscibilità dello stesso, di rispetto dei materiali esistenti e l’uso di nuovi compatibili con i precedenti. Il percorso della conoscenza diviene in questo modo la chiave per liberare la complessità degli edifici storici esistenti trasformando un mero tecnicismo in una concreta operazione culturale . Il presente percorso di dottorato è stato svolto in collaborazione tra l’Università di Parma, DICATeA e lo Studio di Ingegneria Melegari mediante un percorso di Apprendistato in Alta Formazione e Ricerca.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il grafene, allotropo del carbonio costituito da un reticolo bidimensionale, è uno dei nanomateriali più promettenti allo stato attuale della ricerca nei campi della Fisica e della Chimica, ma anche dell'Ingegneria e della Biologia. Isolato e caratterizzato per la prima volta nel 2004 dai ricercatori russi Andre Geim e Konstantin Novoselov presso l'Università di Manchester, ha aperto la via sia a studi teorici per comprendere con gli strumenti della Meccanica Quantistica gli effetti di confinamento in due dimensioni (2D), sia ad un vastissimo panorama di ricerca applicativa che ha l'obiettivo di sfruttare al meglio le straordinarie proprietà meccaniche, elettriche, termiche ed ottiche mostrate da questo materiale. Nella preparazione di questa tesi ho personalmente seguito presso l'Istituto per la Microelettronica e i Microsistemi (IMM) del CNR di Bologna la sintesi mediante Deposizione Chimica da Fase Vapore (CVD) di grafene "tridimensionale" (3D) o "poroso" (denominato anche "schiuma di grafene", in inglese "graphene foam"), ossia depositato su una schiuma metallica dalla struttura non planare. In particolare l'obiettivo del lavoro è stato quello di misurare le proprietà di conduttività elettrica dei campioni sintetizzati e di confrontarle con i risultati dei modelli che le descrivono teoricamente per il grafene planare. Dopo un primo capitolo in cui descriverò la struttura cristallina, i livelli energetici e la conduzione dei portatori di carica nel reticolo ideale di grafene 2D (utilizzando la teoria delle bande e l'approssimazione "tight-binding"), illustrerò le differenti tecniche di sintesi, in particolare la CVD per la produzione di grafene poroso che ho seguito in laboratorio (cap.2). Infine, nel capitolo 3, presenterò la teoria di van der Pauw su cui è basato il procedimento per eseguire misure elettriche su film sottili, riporterò i risultati di conduttività delle schiume e farò alcuni confronti con le previsioni della teoria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'Italia è spesso sede di eventi d'intensa precipitazione, frequentemente associati ad alluvioni con conseguente perdita di vite umane e gravi danni economici. È quindi di fondamentale importanza poter prevedere questi eventi con un adeguato anticipo. Allo stato attuale, i modelli meteorologici non permettono sempre di raggiungere tale obbiettivo e, di conseguenza, è in atto un'intensa attività di ricerca al fine di di renderne più accurata la previsione, sia attraverso il miglioramento dei modelli stessi, sia sviluppando l'assimilazione dati, la quale riduce l'incertezza della condizione iniziale da cui parte la previsione. All'interno di questo contesto, la tesi si prefigge l'obiettivo di studiare gli effetti dell'assimilazione di dati di precipitazione, effettuata mediante uno schema di nudging, nel modello non idrostatico MOLOCH. Al fine di ottimizzare lo schema e di valutarne l'impatto, sono stati simulati tutti gli eventi di maltempo di ottobre e novembre del 2014 che hanno interessato la Liguria, area frequentemente soggetta ad alluvioni. Dalla sistematica verifica dei risultati, effettuata sia qualitativamente che mediante numerosi metodi statistici (tra cui la tecnica SAL basata sull'individuazione dei nuclei di precipitazione), si riscontra un generale miglioramento della previsione della precipitazione anche se limitato alle prime ore dopo la fine del periodo di assimilazione. L'impatto dello schema di nudging varia a seconda dell'evento e, in particolare, si osserva una certa correlazione tra il miglioramento ottenuto e la tipologia di evento, come descritto dalla teoria dell'equilibrio convettivo e come riportato in alcuni studi analoghi recentemente comparsi in letteratura. La ricaduta del miglioramento della previsione meteorologica è stata valutata anche in termini di impatti al suolo accoppiando il modello meteorologico con il modello idrologico utilizzato dal Centro Funzionale della Regione Liguria, con risultati abbastanza positivi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo elaborato ha il fine di approfondire ed esplicitare criticità e leve del sempre crescente fenomeno collaborativo detto Sharing Economy. In appendice il Business Plan della startup Dimitto: progetto svolto durante il corso di Creazione D'Impresa - Riccardo Fini

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La risalita capillare di umidità nelle murature storiche è la principale responsabile del degrado dei materiali. La metodologia ad oggi più utilizzata in tale campo è quella basata sull’iniezione di prodotti chimici in grado di formare barriere artificiali che blocchino il flusso ascendente dell’acqua, ma è ancora in fase di perfezionamento. Per potere svolgere tale perfezionamento, è utile disporre di una metodologia attendibile per la valutazione dell’esito dei trattamenti, ossia un metodo standardizzato che possa garantire una corretta misurazione del contenuto di umidità nelle murature pre e post iniezioni. Nella presente tesi, che ha lo scopo di valutare l’efficacia di alcuni prodotti per barriere chimiche nelle murature, si è utilizzato un metodo di laboratorio standardizzato proposto dai ricercatori del LASTM (DICAM), che permette di riprodurre in laboratorio il processo di risalita dell’umidità e, allo stesso tempo, permette di potere svolgere le misurazioni del contenuto d’acqua interno ai materiali con il metodo diretto. I trattamenti, svolti in collaborazione con la Azienda inglese “Safeguard”, produttrice di resine impermeabilizzanti, sono stati effettuati su vari modelli, costituiti di laterizi e malta, preventivamente sottoposti a differenti condizioni ambientali. Successivamente si è svolto un monitoraggio periodico per potere determinare sia l’efficacia dell’intervento che l’attendibilità del modello. Dopo avere studiato un sistema di controllo delle condizioni di laboratorio, si è ritenuto opportuno svolgere anche alcune prove di caratterizzazione dei materiali utilizzati nella costruzione dei vari modelli, per conoscerne appieno le caratteristiche e potere valutare con maggiore attendibilità i risultati dei trattamenti. Infine, per approfondire le dinamiche di diffusione dei formulati chimici all’interno dei materiali, si sono svolte prove su travetti di malta.