968 resultados para Pirro Ligorio, 1510-1583, Libro delle antichità di Roma,
Resumo:
Una delle operazioni di marketing che le imprese produttrici di beni tradizionali svolgono maggiormente online è il concorso a premi e questa tesi si pone come obiettivo quello di capire come queste ultime debbano usare una risorsa simile nell’era di internet.
Resumo:
Recentemente molti studi in ambiente marino sono stati focalizzati sui possibili impatti dovuti alle variazioni del pH degli oceani, causato dall’aumento delle immissioni di CO2 nell’atmosfera. Tra i possibili effetti nocivi, l’acidificazione oceanica può indurre cambiamenti nelle abbondanze e nelle distribuzioni delle engeneer species, con conseguenti ripercussioni sulla fauna associata. Esempio tipico di engeneer species sono le macroalghe che sono capaci di creare, lungo le coste rocciose, habitat diversi a seconda della specie che riesce ad attecchire. Tra le specie animali che dominano in questi habitat troviamo i copepodi Arpacticoidi, piccoli crostacei che svolgono un ruolo chiave all’interno delle reti trofiche. Per questi motivi lo scopo di questo lavoro è valutare possibili effetti dell’acidificazione sulle taxocenosi a copepodi Arpacticoidi associate alle macroalghe. Lo studio è stato svolto ad Ischia, nella zona nei pressi del Castello Aragonese, dove vi sono dei vents di origine vulcanica che emettono CO2 e formano un gradiente naturale di acidificazione lungo un’area di circa 300m, suddivisibile in 3 stazioni a differenti valori medi di pH. L’analisi delle taxocenosi è stata svolta a livello di generi e famiglie di Arpacticoidi, in termini di abbondanze e di struttura di comunità, su differenti specie algali raccolte lungo il gradiente di acidificazione. Mentre non si notano differenze significative per le famiglie, la struttura di comunità analizzata a livello di generi di copepodi Arpacticoidi mostra una suddivisione in due comunità ben distinte, delle quali una appartenente alla stazione acidificata e un'altra alle stazioni di controllo e moderatamente acidificata. Tale suddivisione si conferma anche prendendo in considerazione la diversa complessità strutturale delle alghe. Per quanto riguarda le abbondanze, sia a livello di famiglie che di generi, queste mostrano generalmente valori più elevati nella stazione moderatamente acidificata e valori più bassi nella stazione più acidificata. C’è però da considerare che se non si tiene conto della complessità algale queste differenze sono significative per le famiglie Ectinosomatidae, Thalestridae e per il genere Dactylopusia, mentre, se si tiene conto della complessità algale, vi sono differenze significative per la famiglia Miraciidae e per i generi Amonardia e Dactylopusia. In definitiva questo studio sembrerebbe evidenziare che le taxocenosi a copepodi Arpacticoidi siano influenzate sia dalla differente complessità algale, che dall’acidificazione oceanica. Inoltre mostra che, in prospettiva di studi futuri, potrebbe essere necessario focalizzarsi su specie algali ben definite e su un'analisi tassonomica dei copepodi Arpacticoidi approfondita fino al livello di specie.
Resumo:
Il progetto di tesi si pone come obiettivo la riqualificazione urbana del fronte mare della città di Rimini e la progettazione di un nuovo centro culturale polifunzionale. La costruzione di nuovi margini urbani, viene qui proposta secondo una reinterpretazione di un carattere tipicamente funzionale delle città di costa del litorale adriatico: la proiezione della funzione urbana oltre la linea di costa, con la costruzione di moli oltre l’edificato. “La città allunga la mano nell’acqua.” La tesi riprende questo aspetto di tipicità e propone una serie di “nuovi moli”, strutture polifunzionali destinate a incentivare quale risorsa fruitiva per il pubblico, stanziale o turistico, il rapporto col mare Adriatico. Anche in relazione a queste “proiezioni” oltre il litorale marino la tesi ha analizzato le forme dell’architettura di ultima generazione, cercando di recepirne i significati espressi attraverso la definizione formale; da qui parte il percorso della formulazione compositiva espressa nelle tavole grafiche, nelle quali si sottolinea il rapporto funzionale in relazione alla nova forma urbis e alla ricaduta sul nuovo assetto ambientale. E’, in sintesi, l’accettabilità di questo e dell’integrazione paesaggistica che la tesi vuole sostenere, attraverso il lungo percorso analitico e progettuale affrontato.
Resumo:
La comprensione delle proprietà e delle meccaniche di funzionamento dei sistemi complessi e dinamici che ci circondano è uno degli obiettivi principali delle discipline ingegneristiche e scientifiche. Lo sviluppo nel campo dell'Intelligenza Artificiale ha permesso la creazione di entità robotiche sempre più intelligenti, in grado di manifestare comportamenti notevoli e di raggiungere gli obiettivi prefissati: la progettazione di software di controllo ha velocemente ricevuto una crescente responsabilità. Questo elaborato si propone di inquadrare in generale la situazione della progettazione di software di controllo robotici, focalizzandosi in particolare sulle tecniche di progettazione automatica di programmi per robot: dopo aver inquadrato il background su cui si basa la progettazione automatica ed aver mostrato una panoramica dei principali metodi di progettazione diretta, vengono elencate e spiegate le tecniche più utilizzate ed interessanti della progettazione automatica di programmi per robot.
Resumo:
I cambiamenti climatici stanno sempre più influenzando l’assetto territoriale ed ambientale della nostra società. Questo fatto si evince da eventi che riescono a sconvolgere le opere atte alla loro mitigazione; tali sistemi vengono progettati tenendo conto delle competenze acquisite in campo teorico e archivistico, ovvero la serie dei dati storici sui quali costruire dei modelli probabilistici che permettano di determinare il massimo grado di intensità che l'evento di interesse potrà generare. Questi database, però, conseguentemente ai cambiamenti ambientali cui stiamo avendo testimonianza diretta, risultano essere sempre meno affidabili allo scopo di impostare questi studi di tendenza. Esempio di quanto detto sono le alluvioni, generate da eventi meteorologici fuori dall'ordinario: queste situazioni, sempre più frequenti sul nostro territorio, oltre che subire l'influsso dei cambiamenti climatici, trovano un substrato favorevole nel quale attecchire, dovuto dall'alto grado di antropizzazione del territorio. In questo ambito, rientrano quegli eventi che i media chiamano "bombe d'acqua", le quali scaricano su un piccolo territorio una massiccia quantità di acque di precipitazione in un arco di tempo estremamente limitato. L'effetto principale è quello di mettere in crisi la rete idrologica della zona colpita, la quale non è stata progettata per sopportare eventi di tale magnitudo. Gli effetti avversi sul territorio possono essere importanti e vantano una vasta gamma di effetti. Inondazioni ed allagamenti in primis, poi i conseguenti da danni economici, ma anche smottamenti o colate di fango ed il collasso dei sistemi fognari. In questo lavoro di tesi, queste problematiche saranno trattate col fine ultimo di valutare delle soglie di precipitazioni, tali per cui, in caso di eventi meteorologici fuori dall’ordinario, sarà possibile allertare la popolazione localizzata nella zona soggetta a rischio idro-geologico. Questa analisi è stata condotta grazie ai dati reperiti per un piccolo bacino pedecollinare del Comune di Rimini.
Resumo:
Questa tesi si pone l’obiettivo di effettuare un’analisi aggiornata sulla recente evoluzione del Cloud Computing e dei nuovi modelli architetturali a sostegno della continua crescita di richiesta di risorse di computazione, di storage e di rete all'interno dei data center, per poi dedicarsi ad una fase sperimentale di migrazioni live singole e concorrenti di macchine virtuali, studiandone le prestazioni a livello di risorse applicative e di rete all’interno della piattaforma open source di virtualizzazione QEMU-KVM, oggi alla base di sistemi cloud-based come Openstack. Nel primo capitolo, viene effettuato uno studio dello stato dell’arte del Cloud Computing, dei suoi attuali limiti e delle prospettive offerte da un modello di Cloud Federation nel futuro immediato. Nel secondo capitolo vengono discusse nel dettaglio le tecniche di live migration, di recente riferimento per la comunità scientifica internazionale e le possibili ottimizzazioni in scenari inter e intra data center, con l’intento di definire la base teorica per lo studio approfondito dell’implementazione effettiva del processo di migrazione su piattaforma QEMU-KVM, che viene affrontato nel terzo capitolo. In particolare, in quest’ultimo sono descritti i principi architetturali e di funzionamento dell'hypervisor e viene definito il modello di progettazione e l’algoritmo alla base del processo di migrazione. Nel quarto capitolo, infine, si presenta il lavoro svolto, le scelte configurative e progettuali per la creazione di un ambiente di testbed adatto allo studio di sessioni di live migration concorrenti e vengono discussi i risultati delle misure di performance e del comportamento del sistema, tramite le sperimentazioni effettuate.
Resumo:
Analisi riguardante la tenacizzazione della matrice di laminati compositi. Lo scopo è quello di aumentare la resistenza alla frattura di modo I e, a tal proposito, sono stati modificati gli interstrati di alcuni provini tramite l’introduzione di strati, di diverso spessore, di nanofibre in polivinilidenfluoruro (PVDF). La valutazione di tale metodo di rinforzo è stata eseguita servendosi di dati ottenuti tramite prove sperimentali svolte in laboratorio direttamente dal sottoscritto, che si è occupato dell’elaborazione dei dati servendosi di tecniche e algoritmi di recente ideazione. La necessità primaria per cui si cerca di rinforzare la matrice risiede nel problema più sentito dei laminati compositi in opera da molto tempo: la delaminazione. Oltre a verificare le proprietà meccaniche dei provini modificati sottoponendoli a test DCB, si è utilizzata una tecnica basata sulle emissioni acustiche per comprendere più approfonditamente l’inizio della delaminazione e i meccanismi di rottura che si verificano durante le prove. Quest’ultimi sono illustrati servendosi di un algoritmo di clustering, detto Fuzzy C-means, tramite il quale è stato possibile identificare ogni segnale come appartenente o meno ad un determinato modo di rottura. I risultati mostrano che il PVDF, applicato nelle modalità esposte, è in grado di aumentare la resistenza alla frattura di modo I divenendo contemporaneamente causa di un diverso modo di propagazione della frattura. Infine l’elaborato presenta alcune micrografie delle superfici di rottura, le quali appoggiano i risultati ottenuti nelle precedenti fasi di analisi.
Studio di un azionamento brushless di tipo predittivo per la trazione in un veicolo elettrico ibrido
Resumo:
Nel campo dell’automotive, negli ultimi anni, gli sviluppi sono stati consistenti: infatti sono state introdotte sul mercato molte novità, tra le quali vetture con propulsione elettrica o ibrida. Il controllo del motore termico durante il moto è studiato da moltissimi anni, mentre il controllo di un motore elettrico è tuttora in fase di continua ricerca e sviluppo. Infatti, con l’introduzione di tecniche vettoriali, si sono ottenuti notevoli miglioramenti a livello di qualità di utilizzo del motore elettrico stesso. In particolare, l’introduzione di un nuovo metodo di controllo che prende il nome di “controllo predittivo” cerca di ottimizzare ulteriormente la propulsione elettrica. Oggetto di studio in questa tesi è il controllo predittivo implementato per la regolazione delle correnti di statore in un motore brushless. Dopo una presentazione di carattere generale, che spazia dalle tipologie di vetture elettriche alle batterie utilizzate a bordo, passando dai vari tipi di propulsori elettrici verosimilmente utilizzabili, viene descritto, a livello teorico, il sistema utilizzato nelle simulazioni in questa tesi, prestando particolare attenzione alla macchina sincrona brushless a magneti permanenti ed al suo controllo vettoriale oltre che alla tecnica per un corretto deflussaggio. Successivamente sono descritti il controllo predittivo di corrente utilizzato nelle simulazioni, con un occhio di riguardo alla compensazione del ritardo di calcolo necessario per ottimizzare ulteriormente il controllo del motore di trazione elettrico, e la modellizzazione del veicolo elettrico ibrido in ambiente Simulink di Matlab, rimandando alle Appendici A e B per la eventuale consultazione dei codici implementati. Infine sono presentati i risultati ottenuti con vari tipi di prove per verificare se effettivamente il veicolo esegue ciò che è richiesto.
Resumo:
Il campo della Bioelettronica si è sviluppato a partire dal 18 secolo con l’ esperimento di Luigi Galvani che, applicando uno stimolo elettrico ai muscoli di una rana dissezionata, ne osservò il movimento. Da questo esperimento si è aperta la strada che ha portato ad oggi ad un grande sviluppo tecnologico nella realizzazione di dispositivi elettronici che permettono di offrire un miglioramento generale delle condizioni di vita. Come spesso accade con le tecnologie emergenti, i materiali sono la maggiore limitazione nello sviluppo di nuove applicazioni. Questo è certamente il caso della Bioelettronica. I materiali elettronici organici, nella forma di polimeri conduttivi, hanno mostrato di poter dotare gli strumenti elettronici di grandi vantaggi rispetto a quelli tradizionali a base di silicio, in virtù delle loro proprietà meccaniche ed elettroniche, della loro biocompatibilità e dei bassi costi di produzione. E’ da questi studi che nasce più propriamente il campo della Bioelettronica Organica, che si basa sulla applicazione di semiconduttori a base di carbonio in forma di piccole molecole coniugate e di polimeri, e del loro utilizzo nei dispositivi elettronici. Con il termine di ‘Bioelettronica organica’, quindi, si descrive l’accoppiamento tra dispositivi elettronici organici e il mondo biologico, accoppiamento che si sviluppa in due direzioni: da un lato una reazione o un processo biologico può trasferire un segnale ad un dispositivo elettronico organico, dall’altro un dispositivo elettronico organico può avviare un processo biologico.
Resumo:
Il lavoro di tesi si è svolto in collaborazione con il laboratorio di elettrofisiologia, Unità Operativa di Cardiologia, Dipartimento Cardiovascolare, dell’ospedale “S. Maria delle Croci” di Ravenna, Azienda Unità Sanitaria Locale della Romagna, ed ha come obiettivo lo sviluppo di un metodo per l’individuazione dell’atrio sinistro in sequenze di immagini ecografiche intracardiache acquisite durante procedure di ablazione cardiaca transcatetere per il trattamento della fibrillazione atriale. La localizzazione della parete posteriore dell'atrio sinistro in immagini ecocardiografiche intracardiache risulta fondamentale qualora si voglia monitorare la posizione dell'esofago rispetto alla parete stessa per ridurre il rischio di formazione della fistola atrio esofagea. Le immagini derivanti da ecografia intracardiaca sono state acquisite durante la procedura di ablazione cardiaca ed esportate direttamente dall’ecografo in formato Audio Video Interleave (AVI). L’estrazione dei singoli frames è stata eseguita implementando un apposito programma in Matlab, ottenendo così il set di dati su cui implementare il metodo di individuazione della parete atriale. A causa dell’eccessivo rumore presente in alcuni set di dati all’interno della camera atriale, sono stati sviluppati due differenti metodi per il tracciamento automatico del contorno della parete dell’atrio sinistro. Il primo, utilizzato per le immagini più “pulite”, si basa sull’utilizzo del modello Chan-Vese, un metodo di segmentazione level-set region-based, mentre il secondo, efficace in presenza di rumore, sfrutta il metodo di clustering K-means. Entrambi i metodi prevedono l’individuazione automatica dell’atrio, senza che il clinico fornisca informazioni in merito alla posizione dello stesso, e l’utilizzo di operatori morfologici per l’eliminazione di regioni spurie. I risultati così ottenuti sono stati valutati qualitativamente, sovrapponendo il contorno individuato all'immagine ecografica e valutando la bontà del tracciamento. Inoltre per due set di dati, segmentati con i due diversi metodi, è stata eseguita una valutazione quantitativa confrontatoli con il risultato del tracciamento manuale eseguito dal clinico.
Resumo:
L’obiettivo della seguente tesi è quello di illustrare le condizioni in cui avviene il trasferimento di conoscenza da consulente a cliente, e come questo sia il fattore abilitante per l’esistenza e l’utilizzo di tale figura professionale da parte delle organizzazioni. Questa tesi nasce dall’esperienza vissuta durante la partecipazione alla XXIV edizione di Junior Consulting, un programma organizzato da CONSEL - ELIS presso Roma, che ha permesso al sottoscritto di prendere parte al progetto di consulenza “Engineering & Construction - Performance Monitoring System” commissionato da Enel Green Power. L’esigenza manifestata dall’azienda era quella di riuscire ad avere una visione chiara e definita della qualità delle attività svolte dalla funzione Engineering & Construction (E&C) e quindi l’obiettivo del progetto si è concretizzato nella definizione di un set di KPI idoneo a rappresentare una misura delle performance della suddetta funzione. Avendo testato, seppure per pochi mesi, l’attività consulenziale, il candidato ha compiuto uno studio teorico che andasse ad analizzare in dettaglio l’attività del consulente, la sua importanza nel mondo economico, il contesto in cui opera e i principali dibattiti accademici di cui è protagonista negli ultimi anni. Nell’elaborato viene analizzato il caso pratico sulla base degli studi della letteratura, con lo scopo di formulare un modello che descriva l’approccio che il consulente dovrebbe avere, durante lo svolgimento delle sue attività, per la realizzazione del trasferimento di conoscenza. Nel primo capitolo è riportato uno studio relativo all’importanza e agli effetti che le società di consulenza hanno avuto nell’ultimo secolo ed in particolare negli ultimi 30 anni. Nel secondo capitolo è descritto il core asset delle società di consulenza, ovvero la conoscenza, e come questa è strutturata e gestita. Nel terzo capitolo sono analizzate le principali teorie sviluppate sulla figura del consulente, sia l’evoluzione storica che le principali posizioni ancora oggi oggetto di dibattito. Nel quarto capitolo l’attenzione è focalizzata sul trasferimento di conoscenza da consulente a cliente e sulle condizioni in cui questo può avvenire. Nel quinto capitolo è presentato il progetto sopracitato, i cui risultati sono riportati negli allegati 1 e 2. Infine, nel sesto capitolo, è presentato un modello di approccio del consulente ottenuto dall’analisi critica del caso pratico sulla base delle evidenze emerse dallo studio della letteratura.
Resumo:
Negli ultimi due decenni i microcanali hanno un'ampia gamma di applicazioni pratiche in ambiti specializzati, come le micropompe, l’ingegneria biomedica, la microfluidica, ecc. Quindi il miglioramento della capacità di scambio termico è molto significativo e, per questo motivo, è interessante studiare come influisce sullo scambio termico la variazione della geometria dei microcanali. Per descrivere le prestazioni associate ad una superficie di scambio termico ci si riferisce a dei parametri adimensionali. Ad esempio, si possono utilizzare numero di Poiseuille fRe e numero di Nusselt Nu, a cui sono associate, rispettivamente, le prestazioni in termini di attrito meccanico e di scambio termico convettivo della superficie. E si vedrà il comportamento termoidraulico al variare di parametri geometrici come il fattore di forma ed il raggio di curvatura degli spigoli della sezione attraverso simulazioni effettuate tramite FlexPDE. L’ottimizzazione delle sezioni di microcanali attraverso i Performance Evaluation Criteria (PEC) è basata su un’analisi condotta dal punto di vista della prima legge della termodinamica: l'ottimizzazione della funzione obiettivo è il suo unico scopo. Ma non ha tenuto conto dell’entropia generata nello scambiatore, che varia dopo l’ottimizzazione. Poiché l’entropia prodotta da un generico sistema termodinamico è direttamente legata alle perdite per irreversibilità nello stesso, quindi coincide l’efficienza del sistema dal punto di vista termodinamico. Per questo motivo, Bejan propone una procedura di ottimizzazione basata sulla seconda legge della termodinamica, in cui anche l’entropia è trattata come una funzione obiettivo che dovrà essere sempre minimizzata. Dopo una prima fase di analisi dal punto di vista fisico, il modello è stato applicato a casi concreti, in cui funzione obiettivo e numero di generazione entropica sono stati espressi in dipendenza dell’incognita geometrica da valutare.
Resumo:
Questa tesi si prepone di indagare quali ricadute positive potrebbe avere, nei confronti della pianificazione urbanistica e il monitoraggio a scala territoriale, l’applicazione delle tecnologie di analisi spaziale assistita dal computer, con particolare riferimento all’analisi tipomorfologica delle forme insediative, sia a scala di quartiere (distinguendo tessuto compatto, a grana fine, grossa, ecc.), che a scala urbana (analisi della densità e delle aggregazioni extraurbane). A tal fine sono state elaborate due ipotesi applicative delle recenti tecnologie di elaborazione object-oriented, sperimentandole sulle principali città romagnole che si collocano sull’asse della via Emilia.
Resumo:
La tesi tratta la tematica delle web API implementate secondo i vincoli dello stile architetturale ReST e ne propone un esempio concreto riportando la progettazione delle API di un sistema di marcature realizzato in ambito aziendale.
Il processo di compostaggio - studio di un metodo alternativo di screening e valutazione del compost
Resumo:
Il processo di compostaggio è il metodo più antico ed al tempo stesso innovativo di trasformazione dei rifiuti. La trasformazione in impianti di compostaggio industriale ricrea lo stesso processo semplice ma in scala maggiore processando molte tonnellate/anno di rifiuto con particolare riguardo a quello proveniente da raccolta differenziata. Il presente elaborato, oltre ad illustrare le nuove tecnologie di produzione nelle realtà locali della zona Romagnola, ha inteso indagare un aspetto alternativo ed innovativo di valutazione del compost. A supporto di quanto già previsto alla specifica normativa di settore e nell'ottica dell'ottimizzazione del processo, è stata valutata la possibilità di uso della tecnica analitica di microestrazione in fase solida (SPME) e della tecnica strumentale con naso elettronico. Si è inteso verificare anche come l'utilizzo di carbone vegetale, aggiunto alla fase di maturazione, possa apportare un contributo significativo nel controllo delle emissioni odorigene, problematica diffusa nelle aree limitrofe ad impianti di compostaggio. L'utilizzo delle tecniche di estrazione in fase solida (SPME) ha dimostrato che durante il processo le componenti odorigene tendono a ridursi notevolmente modificandosi in modo apprezzabile e valutabile mediante analisi GC-MS. L'aggiunta di carbone vegetale alla fase di maturazione contribuisce alla riduzione delle emissioni odorigene. I risultati ottenuti evidenziano come l'utilizzo dei sistemi proposti possa portare ad un'economicità qualora si riscontrassero tempi di maturazione variabili per le tipologie di materiale trattato, riducendo così i tempi di permanenza nei tunnel di maturazione e come le tecniche SPME e naso elettronico possano essere accoppiate per ottenere risultati complementari così da costruire un'informazione complessiva completa. Possibili sviluppi dello studio potrebbero essere improntati alla verifica puntuale del grado di maturazione in relazione alla tipologia del materiale in ingresso ed alla stagionalità nonché all'utilizzo di tali tecniche ad altre matrici e nell'ambito dell'individuazione della presenza di composti indesiderati in matrici ambientali.