997 resultados para Guglielmo <arcivescovo di Tiro>. Historia rerum in partibus transmarinis gestarum - Volgarizzamento


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduzione. La movimentazione manuale di carichi è stata recentemente proposta come un possibile determinante del distacco di retina. Al fine di confortare quest’ipotesi, sono stati analizzati i tassi di incidenza di distacco di retina regmatogeno (DRR) idiopatico, trattato chirurgicamente, tra i residenti in Toscana addetti ad attività lavorative manuali, non manuali e casalinghe. Metodi. Le schede di dimissione ospedaliera (SDO) della Toscana contengono anche informazioni codificate sulla categoria generica di impiego. Sono stati utilizzati i dati di tutti i pazienti residenti in Toscana con una SDO emessa da un qualsiasi ospedale italiano nel periodo 1997-2009, con diagnosi principale di DRR (ICD-9: 361,0-361,07 e 361,9) e con DRG 36 (“interventi sulla retina”). Dopo l’eliminazione dei soggetti che non soddisfacevano i criteri di eligibilità, è stato deciso di restringere la popolazione in studio ai soggetti di età 25-59 anni, successivamente classificati in addetti ad attività lavorative manuali, non manuali o casalinghe. Risultati. Sono stati identificati 1.946 casi. Tra gli uomini, gli addetti ad attività lavorative manuali hanno riportato un tasso di incidenza standardizzato per età 1,8 volte più alto rispetto agli addetti ad attività lavorative non manuali (17,4 [IC95%, 16,1–18,7] vs. 9,8 [IC95%, 8,8–10,8]). Tra le donne, i tassi di incidenza standardizzati per età erano 1,9 volte più alti negli addetti ad attività lavorative manuali (11,1 [IC95%, 9,8–12,3]) e 1,7 volte più alti nelle casalinghe (9,5 [IC95%, 8,3–10,8]) rispetto agli addetti ad attività lavorative non manuali (5,7 [IC95%, 4,8–6,6]). Conclusioni. Lo studio mette in evidenza come gli addetti ad attività lavorative manuali siano maggiormente affetti da DRR idiopatico rispetto agli addetti ad attività lavorative non manuali. Questi risultati supportano l’ipotesi che la movimentazione manuale di carichi, che difficilmente può ritrovarsi come compito di attività lavorative non manuali, possa avere un ruolo causale nella genesi della patologia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro sono state studiate diverse miscele di conglomerato bituminoso riciclato a freddo, nelle quali si è inserito polverino di gomma proveniente da riciclaggio di pneumatici dismessi. Lo scopo è stato quello di valutare l’effetto del polverino di gomma all’interno di miscele, contenenti il 100% di fresato, confezionate a freddo con emulsione di bitume e cemento, analizzandone gli effetti sulla lavorabilità, sulla resistenza a trazione indiretta, sui moduli di rigidezza e sulle resistenze a fatica. Nel capitolo primo è introdotto il concetto di sviluppo sostenibile con particolare attenzione al campo delle pavimentazioni stradali. Sono analizzati i più recenti dati riguardanti la produzione di rifiuti di demolizione e ricostruzione in Europa e in Italia. Segue una descrizione del materiale di risulta da scarifica delle pavimentazioni stradali, dei pneumatici e delle modalità di recupero degli stessi. Nel capitolo secondo sono riportati i principali riferimenti legislativi a livello comunitario, nazionale e locale riguardanti le attività coinvolte nel processo di riciclaggio dei rifiuti per la loro utilizzazione nella costruzione di opere stradali, accompagnati dai principali documenti ausiliari, quali sentenze e disposizioni applicative a completamento del suddetto quadro normativo. Nel capitolo terzo vengono descritte le principali tecniche di riciclaggio del fresato. Particolare attenzione viene posta nella descrizione delle procedure operative e dei macchinari adottati nelle operazioni di riciclaggio in sito. Infine vengono valutati i pregi e i difetti delle tecniche di riciclaggio a freddo analizzando i vantaggi economici ed ambientali rispetto a quelle tradizionali a caldo. Nel capitolo quarto sono analizzate le singole costituenti della miscela: Emulsione Bituminosa, Cemento, Aggregati, Polverino di Gomma e Acqua, definendone per ciascuna il ruolo e le caratteristiche meccaniche e fisiche che le contraddistinguono. Nel capitolo quinto, viene sviluppato il programma sperimentale, sono definiti gli obbiettivi e descritte in modo approfondito le cinque fasi nelle quali si articola. Nella fase uno, vengono introdotte le miscele che dovranno essere studiate. Segue una caratterizzazione dei principali costituenti alla base di tali miscele: fresato , polverino di gomma, cemento, filler,emulsione bituminosa. Nella fase due avviene il confezionamento dei provini mediante compattazione con pressa giratoria. Al termine della realizzazione dei campioni, vengono descritte e analizzate le proprietà volumetriche del materiale quali il grado di addensamento, la densità, la lavorabilità. Nelle fasi tre, quattro e cinque, vengono eseguiti in successione test per la valutazione delle resistenze a trazione indiretta ITS, test per la determinazione dei moduli di rigidezza ITSM ed infine test per la valutazione delle durate dei materiali a fatica ITFT. Per ognuno dei test, sono descritte le procedure operative sulla base delle normative di riferimento vigenti. Segue l’analisi dei risultati di ciascuna prova e la valutazione dell’effetto che i singoli costituenti hanno sulle caratteristiche meccaniche della miscela.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obbiettivo di questa tesi consiste in un analisi dello sviluppo di applicazioni mobile, rivolgendo particolare attenzione riguardo a quelle soluzioni che consentono di astrarre dall’ambiente su cui effettivamente queste verranno eseguite, per poi prendere in esame la piattaforma e il linguaggio Mobl. Sarà quindi necessario effettuare una panoramica sullo stato attuale del mercato, introducendo i diversi sistemi presenti e le metodologie proposte per la costruzione del software. Da questo studio sarà possibile ricavare i pregi e i difetti di una programmazione nativa. Volendo, in seguito, ricercare un processo di produzione software che favorisca un’indipendenza dai sistemi precedentemente descritti, verranno illustrati alcuni tra i più importanti Mobile Frameworks e tra questi si prenderà in esame Mobl, che si contraddistingue grazie a caratteristiche peculiari.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni le Web application stanno assumendo un ruolo sempre più importante nella vita di ognuno di noi. Se fino a qualche anno fa eravamo abituati ad utilizzare quasi solamente delle applicazioni “native”, che venivano eseguite completamente all’interno del nostro Personal Computer, oggi invece molti utenti utilizzano i loro vari dispositivi quasi esclusivamente per accedere a delle Web application. Grazie alle applicazioni Web si sono potuti creare i cosiddetti social network come Facebook, che sta avendo un enorme successo in tutto il mondo ed ha rivoluzionato il modo di comunicare di molte persone. Inoltre molte applicazioni più tradizionali come le suite per ufficio, sono state trasformate in applicazioni Web come Google Docs, che aggiungono per esempio la possibilità di far lavorare più persone contemporanemente sullo stesso documento. Le Web applications stanno assumendo quindi un ruolo sempre più importante, e di conseguenza sta diventando fondamentale poter creare delle applicazioni Web in grado di poter competere con le applicazioni native, che siano quindi in grado di svolgere tutti i compiti che sono stati sempre tradizionalmente svolti dai computer. In questa Tesi ci proporremo quindi di analizzare le varie possibilità con le quali poter migliorare le applicazioni Web, sia dal punto di vista delle funzioni che esse possono svolgere, sia dal punto di vista della scalabilità. Dato che le applicazioni Web moderne hanno sempre di più la necessità di poter svolgere calcoli in modo concorrente e distribuito, analizzeremo un modello computazionale che si presta particolarmente per progettare questo tipo di software: il modello ad Attori. Vedremo poi, come caso di studio di framework per la realizzazione di applicazioni Web avanzate, il Play framework: esso si basa sulla piattaforma Akka di programmazione ad Attori, e permette di realizzare in modo semplice applicazioni Web estremamente potenti e scalabili. Dato che le Web application moderne devono avere già dalla nascita certi requisiti di scalabilità e fault tolerance, affronteremo il problema di come realizzare applicazioni Web predisposte per essere eseguite su piattaforme di Cloud Computing. In particolare vedremo come pubblicare una applicazione Web basata sul Play framework sulla piattaforma Heroku, un servizio di Cloud Computing PaaS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La legge n. 146 del 1990 ha istituito la Commissione di garanzia per l’attuazione della legge sullo sciopero nei servizi pubblici essenziali, un’authority deputata al controllo dell’effettivo bilanciamento del diritto di sciopero con gli altri diritti della persona di rango costituzionale nel caso dei servizi pubblici essenziali. Ad essa spettano alcuni poteri tra di loro eterogenei. Accanto a poteri propulsivi e sanzionatori, essa possiede poteri di tipo normativo. La legge prevede, infatti, che le prestazioni indispensabili e le altre misure necessarie al contemperamento siano determinate da accordi tra il datore di lavoro e le associazioni sindacali, mentre per il lavoro autonomo da codici di autoregolamentazione forniti da ognuna delle categorie interessate. Gli accordi e i codici di autoregolamentazione devono essere, comunque, sottoposti al vaglio della Commissione di garanzia la quale in ultimo stabilisce se essi siano idonei a realizzare il bilanciamento dei diritti in questione. Quando i soggetti indicati dalla legge non provvedano alla redazione dei suddetti atti, la Commissione interviene con l’emanazione di una provvisoria regolamentazione, la quale possiede natura di regolamento, giacchè partecipa dei caratteri della generalità ed astrattezza propri delle norme di legge. In effetti, anche altre authorities possiedono un potere normativo, che si sostanzia alle volte in un regolamento indipendente, altre in un regolamento simile ai regolamenti delegati ed altre al regolamento esecutivo. Poiché la legge n. 146 del 1990 prevede quali siano gli istituti idonei a realizzare il bilanciamento (preavviso, proclamazione scritta, procedure di raffreddamento e conciliazione, intervallo minimo, misure indicative delle prestazioni indispensabili), la provvisoria regolamentazione possiede i caratteri del regolamento esecutivo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In un quadro internazionale di forte interesse verso uno sviluppo sostenibile e sfide energetiche per il futuro, il DIEM, in collaborazione con altri istituti di ricerca ed imprese private, sta progettando l’integrazione di componentistica avanzata su di una caldaia alimentata a biomasse. Lo scopo finale è quello di realizzare una caldaia a biomasse che produca energia in maniera più efficiente e con un impatto ambientale ridotto. L’applicazione è indirizzata inizialmente verso caldaie di piccola-media taglia (fino a 350 kW termici) vista la larga diffusione di questa tipologia di impianto. La componentistica in oggetto è: - filtro sperimentale ad alta efficienza per la rimozione del particolato; - celle a effetto Seebeck per la produzione di energia elettrica direttamente da energia termica senza parti meccaniche in movimento; - pompa Ogden per la produzione di energia meccanica direttamente da energia termica; La finalità dell’attività di ricerca è la progettazione dell’integrazione dei suddetti dispositivi con una caldaia a biomassa da 290 kW termici per la realizzazione di un prototipo di caldaia stand-alone ad impatto ambientale ridotto: in particolare, la caldaia è in grado, una volta raggiunte le condizioni di regime, di autoalimentare le proprie utenze elettriche, garantendo il funzionamento in sicurezza in caso di black-out o consentendo l’installazione della caldaia medesima in zone remote e prive di allaccio alla rete elettrica. Inoltre, la caldaia può fornire, tramite l'utilizzo di una pompa a vapore o pompa Ogden, energia meccanica per il pompaggio di fluidi: tale opportunità si ritiene particolarmente interessante per l'integrazione della caldaia nel caso di installazione in ambito agricolo. Infine, l'abbinamento di un filtro ad alta efficienza e basso costo consente l'abbattimento delle emissioni inquinanti, favorendo una maggiore diffusione della tecnologia senza ulteriori impatti sull'ambiente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’attività di ricerca contenuta in questa tesi si è concentrata nello sviluppo e nell’implementazione di tecniche per la co-simulazione e il co-progetto non lineare/elettromagnetico di sistemi wireless non convenzionali. Questo lavoro presenta un metodo rigoroso per considerare le interazioni tra due sistemi posti sia in condizioni di campo vicino che in condizioni di campo lontano. In sostanza, gli effetti del sistema trasmittente sono rappresentati da un generatore equivalente di Norton posto in parallelo all’antenna del sistema ricevente, calcolato per mezzo del teorema di reciprocità e del teorema di equivalenza. La correttezza del metodo è stata verificata per mezzo di simulazioni e misure, concordi tra loro. La stessa teoria, ampliata con l’introduzione degli effetti di scattering, è stata usata per valutare una condizione analoga, dove l’elemento trasmittente coincide con quello ricevente (DIE) contenuto all’interno di una struttura metallica (package). I risultati sono stati confrontati con i medesimi ottenibili tramite tecniche FEM e FDTD/FIT, che richiedono tempi di simulazione maggiori di un ordine di grandezza. Grazie ai metodi di co-simulazione non lineari/EM sopra esposti, è stato progettato e verificato un sistema di localizzazione e identificazione di oggetti taggati posti in ambiente indoor. Questo è stato ottenuto dotando il sistema di lettura, denominato RID (Remotely Identify and Detect), di funzioni di scansione angolare e della tecnica di RADAR mono-pulse. Il sistema sperimentale, creato con dispositivi low cost, opera a 2.5 GHz ed ha le dimensioni paragonabili ad un normale PDA. E’ stato sperimentata la capacità del RID di localizzare, in scenari indoor, oggetti statici e in movimento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

"I computer del nuovo millennio saranno sempre più invisibili, o meglio embedded, incorporati agli oggetti, ai mobili, anche al nostro corpo. L'intelligenza elettronica sviluppata su silicio diventerà sempre più diffusa e ubiqua. Sarà come un'orchestra di oggetti interattivi, non invasivi e dalla presenza discreta, ovunque". [Mark Weiser, 1991] La visione dell'ubiquitous computing, prevista da Weiser, è ormai molto vicina alla realtà e anticipa una rivoluzione tecnologica nella quale l'elaborazione di dati ha assunto un ruolo sempre più dominante nella nostra vita quotidiana. La rivoluzione porta non solo a vedere l'elaborazione di dati come un'operazione che si può compiere attraverso un computer desktop, legato quindi ad una postazione fissa, ma soprattutto a considerare l'uso della tecnologia come qualcosa di necessario in ogni occasione, in ogni luogo e la diffusione della miniaturizzazione dei dispositivi elettronici e delle tecnologie di comunicazione wireless ha contribuito notevolmente alla realizzazione di questo scenario. La possibilità di avere a disposizione nei luoghi più impensabili sistemi elettronici di piccole dimensioni e autoalimentati ha contribuito allo sviluppo di nuove applicazioni, tra le quali troviamo le WSN (Wireless Sensor Network), ovvero reti formate da dispositivi in grado di monitorare qualsiasi grandezza naturale misurabile e inviare i dati verso sistemi in grado di elaborare e immagazzinare le informazioni raccolte. La novità introdotta dalle reti WSN è rappresentata dalla possibilità di effettuare monitoraggi con continuità delle più diverse grandezze fisiche, il che ha consentito a questa nuova tecnologia l'accesso ad un mercato che prevede una vastità di scenari indefinita. Osservazioni estese sia nello spazio che nel tempo possono essere inoltre utili per poter ricavare informazioni sull'andamento di fenomeni naturali che, se monitorati saltuariamente, non fornirebbero alcuna informazione interessante. Tra i casi d'interesse più rilevanti si possono evidenziare: - segnalazione di emergenze (terremoti, inondazioni) - monitoraggio di parametri difficilmente accessibili all'uomo (frane, ghiacciai) - smart cities (analisi e controllo di illuminazione pubblica, traffico, inquinamento, contatori gas e luce) - monitoraggio di parametri utili al miglioramento di attività produttive (agricoltura intelligente, monitoraggio consumi) - sorveglianza (controllo accessi ad aree riservate, rilevamento della presenza dell'uomo) Il vantaggio rappresentato da un basso consumo energetico, e di conseguenza un tempo di vita della rete elevato, ha come controparte il non elevato range di copertura wireless, valutato nell'ordine delle decine di metri secondo lo standard IEEE 802.15.4. Il monitoraggio di un'area di grandi dimensioni richiede quindi la disposizione di nodi intermedi aventi le funzioni di un router, il cui compito sarà quello di inoltrare i dati ricevuti verso il coordinatore della rete. Il tempo di vita dei nodi intermedi è di notevole importanza perché, in caso di spegnimento, parte delle informazioni raccolte non raggiungerebbero il coordinatore e quindi non verrebbero immagazzinate e analizzate dall'uomo o dai sistemi di controllo. Lo scopo di questa trattazione è la creazione di un protocollo di comunicazione che preveda meccanismi di routing orientati alla ricerca del massimo tempo di vita della rete. Nel capitolo 1 vengono introdotte le WSN descrivendo caratteristiche generali, applicazioni, struttura della rete e architettura hardware richiesta. Nel capitolo 2 viene illustrato l'ambiente di sviluppo del progetto, analizzando le piattaforme hardware, firmware e software sulle quali ci appoggeremo per realizzare il progetto. Verranno descritti anche alcuni strumenti utili per effettuare la programmazione e il debug della rete. Nel capitolo 3 si descrivono i requisiti di progetto e si realizza una mappatura dell'architettura finale. Nel capitolo 4 si sviluppa il protocollo di routing, analizzando i consumi e motivando le scelte progettuali. Nel capitolo 5 vengono presentate le interfacce grafiche utilizzate utili per l'analisi dei dati. Nel capitolo 6 vengono esposti i risultati sperimentali dell'implementazione fissando come obiettivo il massimo lifetime della rete.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’attenzione dei pochi automobilisti che oggi passano velocemente per via Cavalli, nella frazione di Santa Maria Nuova, sotto il comune di Bertinoro (FC), non viene attirata dal palazzo settecentesco seminascosto dalla vegetazione che cresce incolta. L’edificio potrebbe passare per un casolare di campagna abbandonato, senza alcuna pretesa di bellezza, mutilato dei suoi terreni. Solo salendo lo scalone dissestato si può scoprire la ricchezza delle decorazione interne, stucchi baroccheggianti con maschere di volti provenienti da terre lontane e abbondanti cornucopie che circondano lo stemma della famiglia Cavalli. La piccola cappella della villa, in perfetto stato di conservazione, mostra, con un trionfo di stucchi, l’assunzione della Vergine al cielo, osservata dai santi Pietro e Paolo. Le quattro stanze centrali del piano nobile sono finemente dipinte con paesaggi marini e lacustri, stanze sepolcrali egizie e atrii di templi antichi. La ravennate famiglia dei marchesi Cavalli, una delle più ricche della zona nel XVIII e XIX secolo, utilizzava la villa come luogo di villeggiatura e come casino per la caccia. Testimonianze della loro presenza sono conservate nelle mappe storiche all’Archivio del Comune di Bertinoro e nell’Archivio parrocchiale di Santa Maria Nuova, dove si trovano descrizioni della ricchezza sia dell’edificio che delle terre possedute dai marchesi. Il complesso di villa Cavalli ha subito numerosi passaggi di proprietà dal 1900 ad oggi, è stato utilizzato come magazzino, pollaio, essiccatoio per il tabacco e le sue proprietà sono state frazionate fino a ridursi al piccolo parco presente oggi. Poiché gli attuali proprietari non possono garantire né la manutenzione ordinaria né quella straordinaria e il complesso è tutelato dal D. Lgs. 42/2004 Codice dei Beni Culturali e del Paesaggio è stato messo all’asta per tre volte, l’ultima nel dicembre 2011, senza risultato. La tesi sviluppa un’analisi dello stato di fatto della villa e del parco, partendo dal suo inserimento nel territorio fino allo studio dei dettagli costruttivi, per giungere ad un’ipotesi di progetto che vede il complesso strettamente legato a Santa Maria Nuova e alla sua gente. L’edificio fungerà da centro culturale, con mostre permanenti e temporanee, laboratori didattici, ludoteca per bambini e ospiterà la sede distaccata della biblioteca del comune di Bertinoro, ora inserita in un edificio di Santa Maria Nuova ma con dimensioni estremamente limitate. Si intendono effettuare interventi di consolidamento strutturale su tutti i solai della villa, su volte e copertura, con un atteggiamento di delicatezza verso il piano nobile, agendo dal piano inferiore e da quello superiore. Capitoli specifici trattano il restauro delle finiture e delle superfici dipinte e stuccate, per finire con l’intervento di adeguamento impiantistico e di valorizzazione del parco.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’ossido di grafene (GO) è un materiale stratificato prodotto dall'ossidazione di cristalli di grafite con una miscela di acido solforico, nitrato di sodio e permanganato di potassio. A differenza del grafene, l'ossido di grafene è fortemente ossigenato, reca gruppi funzionali ossidrilici ed epossidici sui piani basali, che sono dei punti di attacco ottimali per la funzionalizzazione e la compatibilizzazione del grafene con la matrice polimerica, oltre a gruppi carbonilici e carbossilici situati ai bordi dei piani. Una delle applicazioni più promettenti di questo materiale è nei nanocompositi polimerici, ovvero materiali a matrice polimerica che incorporano materiali riempitivi nanodimensionali. Grazie alle dimensioni estremamente ridotte della carica e della sua elevata area superficiale, che garantisce una elevata interazione interfacciale polimero/riempitivo, basse quantità di nanocariche sono in grado di modificare pesantemente le proprietà della matrice migliorandone notevolmente le performance, così da ottenere notevoli incrementi prestazionali nel polimero. In questo lavoro di tesi, si è studiata la possibilità di aggiungere il GO in matrice poliuretanica al fine di migliorarne le proprietà. Il lavoro di tesi ha dimostrato su scala di laboratorio una produttività compatibile con le esigenze industriali. Potrebbero così essere preparati materiali più leggeri ed estremamente performanti con applicazioni nel campo automobilistico, aerospaziale, aeronautico e dei materiali in generale. L’incremento delle proprietà meccaniche ottenute con l’aggiunta di piccolissime quantità di GO, può essere sfruttato nella costruzione di manufatti che debbano sopportare carichi elevati senza modificare le altre proprietà del materiale (prodotto ad elevato valore aggiunto).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi 50 anni il mercato alimentare è stato caratterizzato da profondi cambiamenti influenzati soprattutto da evoluzioni sociali e da notevoli mutamenti delle abitudini alimentari (Riquelme et al., 1994). La costante diffusione dei grandi supermarket ed il recente interesse verso la salute e l’ambiente, nonché la modifica dello stile di vita da parte del consumatore, hanno portato le industrie alimentari a sviluppare nuovi metodi di conservazione e di distribuzione e tipologie di prodotti innovative, come i prodotti ortofrutticoli minimamente trasformati. La perdita di qualità dei prodotti ortofrutticoli minimamente trasformati è il risultato di complessi meccanismi chimici e biochimici che si traducono macroscopicamente in modificazioni a carico del colore, delle texture e delle caratteristiche organolettiche (Mencarelli & Massantini, 1994). A fronte dei suddetti fenomeni degradativi, in un contesto di incrementale aumento della domanda dei prodotti freschi, sani, ad elevata convenience e senza additivi chimici (Day, 2002) l’introduzione delle atmosfere protettive per la conservazione degli alimenti è risultata strategica per prolungare la shelf-life ed il mantenimento qualitativo dei prodotti freschi (Jeyas & Jeyamkondan, 2002). Le attuali tecnologie disponibili per le industrie alimentari permettono l’applicazione di condizioni di atmosfera modificata sia in fase di stoccaggio di prodotti ortofrutticoli sia in fase di condizionamento. Il primo obiettivo è generalmente la parziale rimozione dell’O2 e l’aumento dei livelli di CO2 nell’ambiente circostante il prodotto. Oltre ai gas usati tradizionalmente per la realizzazione delle atmosfere modificate, quali N2 e CO2, recentemente è aumentato l’interesse verso i potenziali effetti benefici di nuovi gas, quali argon (Ar) e protossido d’azoto (N2O). Questi ultimi, ora permessi in Europa per uso alimentare, sono risultati efficaci nell’inibizione della crescita microbica e delle reazioni enzimatiche degradative, a carico soprattutto del colore e della consistenza dei vegetali minimamente processati (Spencer, 1995; Kader et al., 1989; Watada et al., 1996). Premesso questo, in tale lavoro di tesi è stata effettuata una ricerca sugli effetti di N2, N2O e Ar e di differenti trattamenti ad immersione, noti come dipping (con acido ascorbico, acido citrico e cloruro di calcio), sul metabolismo di prodotti ortofrutticoli. In particolare, per ciò che concerne la parte sperimentale, gli obiettivi principali sono stati quelli di approfondire le potenzialità di tali gas e dipping nel mantenimento qualitativo (colore, consistenza, metabolismo respiratorio) e di verificare l’efficacia di interventi combinati di dipping e MAP (atmosfera modificata) nel prolungamento della shelf-life del prodotto. Questa sperimentazione è stata effettuata su due varietà di lattuga: una da cespo (Iceberg) e una da taglio (Lattughino).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo della tesi è quello di affrontare la progettazione con un approccio,quanto più attuale e per certi versi avanguardista, chiamato Parametric design (progettazione parametrica), accoppiato efficacemente col concetto di Arte generativa (in questo caso Architettura). Già nel 1957 Luigi Moretti affrontò il tema dell’architettura parametrico-generativa fondando l’IRMOU (Istituto per la Ricerca Matematica e Operativa applicata all'Urbanistica) e oggi è una mentalità molto diffusa nei più grandi studi del mondo. Il tema non è solo tecnologico o informatico strumentale, ma è proprio un modo di pensare e immaginare il possibile, costruito o naturale che sia. E’ un modo di vivere la propria creatività. L’aggettivo “generativa” è legato al fatto che l’arte in esame è generata seguendo regole preimpostate e ben definite dal progettista, coerentemente agli obiettivi e alle finalità del progetto. L’evoluzione delle stesse, seguendo relazioni molto semplici, può dar vita a risultati sorprendenti e inaspettati, dotati di una notevole complessità che però, se letta nell’insieme, è perfettamente in armonia con l’idea progettuale di partenza. Il fascino di questa materia è il legame entusiasmante che crea tra architettura, ingegneria, poesia, filosofia, matematica, biologia, fisica, pittura ecc ecc. Questo perché i concetti di evoluzione, di relazione e di generazione appartengono a tutto ciò che ci circonda, e quindi alla concezione umana di vita. E’ possibile in questo modo permeare il costrutto progettuale con principi e regole oggettivamente riconoscibili e apprezzabili dallo spettatore perché instrisi di una forte veridicità processuale. Il titolo "Oxymoron" è la traduzione inglese della figura retorica ossimoro,la quale è strettamente connessa all’ispirazione progettuale: proviene dall’indagine approfondita di processi evolutivi (distruttivi in questo caso) caratterizzanti realtà naturali che, esplorate con sempre più accuratezza, determinano morfologie e forme aventi profonde radici strutturali. La distruzione che crea lo spazio. La genesi stessa della forma segue predominanti algoritmi matematici governati e corretti da variabili di diversa natura che definiscono l'enviroment di influenze interagenti ed agenti sul campione di studio. In questo caso la ricerca è focalizzata su processi erosivi fisici e chimici, di agenti esterni (quali vento e sali rispettivamente) ,di cui materiali inorganici, quali minerali e aggregati degli stessi (rocce), sono soggetti. In particolare, l’interesse è approfondito su fenomeni apparentemente emergenti dei tafoni e dei cosiddetti Micro canyon. A tal scopo si sfrutterà un metodo di soft kill option (SKO) di ottimizzazione topologica (optimization topology) attraverso gli strumenti informatici più idonei quali software di modellazione parametrica e di calcolo computazionale. La sperimentazione sta proprio nell'utilizzare uno strumento concepito per uno scopo, con un'ottica strettamente ingegneristica, per un'altra meta, ossia ricavare e ottenere se possibile un metodo di lavoro o anche solo un processo generativo tale da riprodurre o simulare casi e situazioni riscontrabili in natura negli eventi soggetti a erosione. Il tutto coerente con le regole che stanno alla base della genesi degli stessi. Il parallelismo tra singolarità naturale e architettura risiede nella generazione degli spazi e nella combinazione di questi. L’ambizioso obiettivo è quello di innescare un ciclo generativo, che messo in comunicazione diretta con un contesto variegato ed eterogeneo, dia vita a una soluzione progettuale dall'alto contenuto morfologico e spaziale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto QRPlaces - Semantic Events, oggetto di questo lavoro, focalizza l’attenzione sull’analisi, la progettazione e l’implementazione di un sistema che sia in grado di modellare i dati, relativi a diversi eventi facenti parte del patrimonio turistico - culturale della Regione Emilia Romagna 1, rendendo evidenti i vantaggi associati ad una rappresentazione formale incentrata sulla Semantica. I dati turistico - culturali sono intesi in questo ambito sia come una rappresentazione di “qualcosa che accade in un certo punto ad un certo momento” (come ad esempio un concerto, una sagra, una raccolta fondi, una rappresentazione teatrale e quant’altro) sia come tradizioni e costumi che costituiscono il patrimonio turistico-culturale e a cui si fa spesso riferimento con il nome di “Cultural Heritage”. Essi hanno la caratteristica intrinseca di richiedere una conoscenza completa di diverse informa- zioni correlata, come informazioni di geo localizzazione relative al luogo fisico che ospita l’evento, dati biografici riferiti all’autore o al soggetto che è presente nell’evento piuttosto che riferirsi ad informazioni che descrivono nel dettaglio tutti gli oggetti, come teatri, cinema, compagnie teatrali che caratterizzano l’evento stesso. Una corretta rappresentazione della conoscenza ad essi legata richiede, pertanto, una modellazione in cui i dati possano essere interconnessi, rivelando un valore informativo che altrimenti resterebbe nascosto. Il lavoro svolto ha avuto lo scopo di realizzare un dataset rispondente alle caratteristiche tipiche del Semantic Web grazie al quale è stato possibile potenziare il circuito di comunicazione e informazione turistica QRPlaces 2. Nello specifico, attraverso la conversione ontologica di dati di vario genere relativi ad eventi dislocati nel territorio, e sfruttando i principi e le tecnologie del Linked Data, si è cercato di ottenere un modello informativo quanto più possibile correlato e arricchito da dati esterni. L’obiettivo finale è stato quello di ottenere una sorgente informativa di dati interconnessi non solo tra loro ma anche con quelli presenti in sorgenti esterne, dando vita ad un percorso di collegamenti in grado di evidenziare una ricchezza informativa utilizzabile per la creazione di valore aggiunto che altrimenti non sarebbe possibile ottenere. Questo aspetto è stato realizzato attraverso un’in- terfaccia di MashUp che utilizza come sorgente il dataset creato e tutti i collegamenti con la rete del Linked Data, in grado di reperire informazioni aggiuntive multi dominio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Can space and place foster child development, and in particular social competence and ecological literacy? If yes, how can space and place do that? This study shows that the answer to the first question is positive and then tries to explain the way space and place can make a difference. The thesis begins with the review of literature from different disciplines – child development and child psychology, education, environmental psychology, architecture and landscape architecture. Some bridges among such disciplines are created and in some cases the ideas from the different areas of research merge: thus, this is an interdisciplinary study. The interdisciplinary knowledge from these disciplines is translated into a range of design suggestions that can foster the development of social competence and ecological literacy. Using scientific knowledge from different disciplines is a way of introducing forms of evidence into the development of design criteria. However, the definition of design criteria also has to pass through the study of a series of school buildings and un-built projects: case studies can give a positive contribution to the criteria because examples and good practices can help “translating” the theoretical knowledge into design ideas and illustrations. To do that, the different case studies have to be assessed in relation to the various themes that emerged in the literature review. Finally, research by design can be used to help define the illustrated design criteria: based on all the background knowledge that has been built, the role of the architect is to provide a series of different design solutions that can give answers to the different “questions” emerged in the literature review.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The research activities described in the present thesis have been oriented to the design and development of components and technological processes aimed at optimizing the performance of plasma sources in advanced in material treatments. Consumables components for high definition plasma arc cutting (PAC) torches were studied and developed. Experimental activities have in particular focussed on the modifications of the emissive insert with respect to the standard electrode configuration, which comprises a press fit hafnium insert in a copper body holder, to improve its durability. Based on a deep analysis of both the scientific and patent literature, different solutions were proposed and tested. First, the behaviour of Hf cathodes when operating at high current levels (250A) in oxidizing atmosphere has been experimentally investigated optimizing, with respect to expected service life, the initial shape of the electrode emissive surface. Moreover, the microstructural modifications of the Hf insert in PAC electrodes were experimentally investigated during first cycles, in order to understand those phenomena occurring on and under the Hf emissive surface and involved in the electrode erosion process. Thereafter, the research activity focussed on producing, characterizing and testing prototypes of composite inserts, combining powders of a high thermal conductibility (Cu, Ag) and high thermionic emissivity (Hf, Zr) materials The complexity of the thermal plasma torch environment required and integrated approach also involving physical modelling. Accordingly, a detailed line-by-line method was developed to compute the net emission coefficient of Ar plasmas at temperatures ranging from 3000 K to 25000 K and pressure ranging from 50 kPa to 200 kPa, for optically thin and partially autoabsorbed plasmas. Finally, prototypal electrodes were studied and realized for a newly developed plasma source, based on the plasma needle concept and devoted to the generation of atmospheric pressure non-thermal plasmas for biomedical applications.