644 resultados para Tecnologia additiva, modellazione per deposizione di filamento fuso


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uno dei principali ambiti di ricerca dell’intelligenza artificiale concerne la realizzazione di agenti (in particolare, robot) in grado di aiutare o sostituire l’uomo nell’esecuzione di determinate attività. A tal fine, è possibile procedere seguendo due diversi metodi di progettazione: la progettazione manuale e la progettazione automatica. Quest’ultima può essere preferita alla prima nei contesti in cui occorra tenere in considerazione requisiti quali flessibilità e adattamento, spesso essenziali per lo svolgimento di compiti non banali in contesti reali. La progettazione automatica prende in considerazione un modello col quale rappresentare il comportamento dell’agente e una tecnica di ricerca (oppure di apprendimento) che iterativamente modifica il modello al fine di renderlo il più adatto possibile al compito in esame. In questo lavoro, il modello utilizzato per la rappresentazione del comportamento del robot è una rete booleana (Boolean network o Kauffman network). La scelta di tale modello deriva dal fatto che possiede una semplice struttura che rende agevolmente studiabili le dinamiche tuttavia complesse che si manifestano al suo interno. Inoltre, la letteratura recente mostra che i modelli a rete, quali ad esempio le reti neuronali artificiali, si sono dimostrati efficaci nella programmazione di robot. La metodologia per l’evoluzione di tale modello riguarda l’uso di tecniche di ricerca meta-euristiche in grado di trovare buone soluzioni in tempi contenuti, nonostante i grandi spazi di ricerca. Lavori precedenti hanno gia dimostrato l’applicabilità e investigato la metodologia su un singolo robot. Lo scopo di questo lavoro è quello di fornire prova di principio relativa a un insieme di robot, aprendo nuove strade per la progettazione in swarm robotics. In questo scenario, semplici agenti autonomi, interagendo fra loro, portano all’emergere di un comportamento coordinato adempiendo a task impossibili per la singola unità. Questo lavoro fornisce utili ed interessanti opportunità anche per lo studio delle interazioni fra reti booleane. Infatti, ogni robot è controllato da una rete booleana che determina l’output in funzione della propria configurazione interna ma anche dagli input ricevuti dai robot vicini. In questo lavoro definiamo un task in cui lo swarm deve discriminare due diversi pattern sul pavimento dell’arena utilizzando solo informazioni scambiate localmente. Dopo una prima serie di esperimenti preliminari che hanno permesso di identificare i parametri e il migliore algoritmo di ricerca, abbiamo semplificato l’istanza del problema per meglio investigare i criteri che possono influire sulle prestazioni. E’ stata così identificata una particolare combinazione di informazione che, scambiata localmente fra robot, porta al miglioramento delle prestazioni. L’ipotesi è stata confermata applicando successivamente questo risultato ad un’istanza più difficile del problema. Il lavoro si conclude suggerendo nuovi strumenti per lo studio dei fenomeni emergenti in contesti in cui le reti booleane interagiscono fra loro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni la ricerca nella cura dei tumori si è interessata allo sviluppo di farmaci che contrastano la formazione di nuovi vasi sanguigni (angiogenesi) per l’apporto di ossigeno e nutrienti ai tessuti tumorali, necessari per l’accrescimento e la sopravvivenza del tumore. Per valutare l’efficacia di questi farmaci antiangiogenesi esistono tecniche invasive: viene prelevato tramite biopsia un campione di tessuto tumorale, e tramite analisi microscopica si quantifica la densità microvascolare (numero di vasi per mm^2) del campione. Stanno però prendendo piede tecniche di imaging in grado di valutare l’effetto di tali terapie in maniera meno invasiva. Grazie allo sviluppo tecnologico raggiunto negli ultimi anni, la tomografia computerizzata è tra le tecniche di imaging più utilizzate per questo scopo, essendo in grado di offrire un’alta risoluzione sia spaziale che temporale. Viene utilizzata la tomografia computerizzata per quantificare la perfusione di un mezzo di contrasto all’interno delle lesioni tumorali, acquisendo scansioni ripetute con breve intervallo di tempo sul volume della lesione, a seguito dell’iniezione del mezzo di contrasto. Dalle immagini ottenute vengono calcolati i parametri perfusionali tramite l’utilizzo di differenti modelli matematici proposti in letteratura, implementati in software commerciali o sviluppati da gruppi di ricerca. Al momento manca un standard per il protocollo di acquisizione e per l’elaborazione delle immagini. Ciò ha portato ad una scarsa riproducibilità dei risultati intra ed interpaziente. Manca inoltre in letteratura uno studio sull’affidabilità dei parametri perfusionali calcolati. Il Computer Vision Group dell’Università di Bologna ha sviluppato un’interfaccia grafica che, oltre al calcolo dei parametri perfusionali, permette anche di ottenere degli indici sulla qualità dei parametri stessi. Questa tesi, tramite l’analisi delle curve tempo concentrazione, si propone di studiare tali indici, di valutare come differenti valori di questi indicatori si riflettano in particolari pattern delle curve tempo concentrazione, in modo da identificare la presenza o meno di artefatti nelle immagini tomografiche che portano ad un’errata stima dei parametri perfusionali. Inoltre, tramite l’analisi delle mappe colorimetriche dei diversi indici di errore si vogliono identificare le regioni delle lesioni dove il calcolo della perfusione risulta più o meno accurato. Successivamente si passa all’analisi delle elaborazioni effettuate con tale interfaccia su diversi studi perfusionali, tra cui uno studio di follow-up, e al confronto con le informazioni che si ottengono dalla PET in modo da mettere in luce l’utilità che ha in ambito clinico l’analisi perfusionale. L’intero lavoro è stato svolto su esami di tomografia computerizzata perfusionale di tumori ai polmoni, eseguiti presso l’Unità Operativa di Diagnostica per Immagini dell’IRST (Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori) di Meldola (FC). Grazie alla collaborazione in atto tra il Computer Vision Group e l’IRST, è stato possibile sottoporre i risultati ottenuti al primario dell’U. O. di Diagnostica per Immagini, in modo da poterli confrontare con le considerazioni di natura clinica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un percorso di ricerca che interessa la città di New York prevede inevitabilmente nel suo sviluppo un approfondimento sulle diverse tematiche riguardanti in primis la città americana intesa in termini generali e, parallelamente, tutti quegli elementi che sono riconoscibili quali punti focali per l’isola di Manhattan. La lettura delle mappe storiche diventa un elemento fondamentale su cui basare un’analisi relativa alla crescita e al tessuto urbano; una particolare attenzione alle trasformazioni della griglia stradale che impone alla struttura della città un sistema rigido e che contemporaneamente sviluppa elementi di contraddizione al suo interno. E’ necessario quindi indagare il tema della griglia nelle città di fondazione e nelle varianti storiche. Se da un lato si è svolta una lettura storica, dall’altro viene affiancata una lettura critica, che mira principalmente all’analisi delle “crisi della regolarità”, cioè a quei punti in cui la struttura della griglia diviene più fragile o addirittura viene negata dall’assetto della città. Sulla scia delle riflessioni di Mario Gandelsonas sulle città americane, si è voluto a tracciare non solo un percorso analitico, ma anche una ricerca più personale, con il tentativo di indagare la città in relazione dicotomica rispetto alla sua architettura, riflettendo sul modo in cui l’una si interfaccia con l’altra in un rapporto di antagonismo che è andato crescendo giorno dopo giorno. Un rapporto di antagonismo, ma anche di inevitabile collaborazione tra le parti in un quadro che non è mai fisso e che coinvolge due elementi in continuo mutamento, genera un sistema di necessarie articolazioni, che non si presentano mai come una situazione stabile tra i due elementi, ma come una relazione tra due prassi che cambiano nel tempo. I temi progettuali chiave non sono frutto di una decisione preventiva, ma, viceversa, emergono come risultato della prima parte di questo lavoro. La ricerca è stata così indirizzata verso alcune questioni che sono apparse più rilevanti anche in ai fini progettuali: l’infrastruttura, approfondita mediante il caso studio del Port Authority Bus Terminal di Pier Luigi Nervi; l’edilizia sociale, che si presenta sempre con tipologie anomale rispetto al blocco newyorkese, come nel caso di Stuyvesant Town; ed i margini della città, ex zone industriali, oggi al centro del dibattito sulla riqualificazione di aree a forte potenziale naturalistico. I punti qui esaminati evidenziano e sintetizzano le problematiche del Waste Transfer previsto dall’amministrazione newyorkese nell’area sud di Manhattan.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La crescente disponibilità di dispositivi meccanici e -soprattutto - elettronici le cui performance aumentano mentre il loro costo diminuisce, ha permesso al campo della robotica di compiere notevoli progressi. Tali progressi non sono stati fatti unicamente per ciò che riguarda la robotica per uso industriale, nelle catene di montaggio per esempio, ma anche per quella branca della robotica che comprende i robot autonomi domestici. Questi sistemi autonomi stanno diventando, per i suddetti motivi, sempre più pervasivi, ovvero sono immersi nello stesso ambiente nel quale vivono gli essere umani, e interagiscono con questi in maniera proattiva. Essi stanno compiendo quindi lo stesso percorso che hanno attraversato i personal computer all'incirca 30 anni fa, passando dall'essere costosi ed ingombranti mainframe a disposizione unicamente di enti di ricerca ed università, ad essere presenti all'interno di ogni abitazione, per un utilizzo non solo professionale ma anche di assistenza alle attività quotidiane o anche di intrattenimento. Per questi motivi la robotica è un campo dell'Information Technology che interessa sempre più tutti i tipi di programmatori software. Questa tesi analizza per prima cosa gli aspetti salienti della programmazione di controllori per robot autonomi (ovvero senza essere guidati da un utente), quindi, come l'approccio basato su agenti sia appropriato per la programmazione di questi sistemi. In particolare si mostrerà come un approccio ad agenti, utilizzando il linguaggio di programmazione Jason e quindi l'architettura BDI, sia una scelta significativa, dal momento che il modello sottostante a questo tipo di linguaggio è basato sul ragionamento pratico degli esseri umani (Human Practical Reasoning) e quindi è adatto alla implementazione di sistemi che agiscono in maniera autonoma. Dato che le possibilità di utilizzare un vero e proprio sistema autonomo per poter testare i controllori sono ridotte, per motivi pratici, economici e temporali, mostreremo come è facile e performante arrivare in maniera rapida ad un primo prototipo del robot tramite l'utilizzo del simulatore commerciale Webots. Il contributo portato da questa tesi include la possibilità di poter programmare un robot in maniera modulare e rapida per mezzo di poche linee di codice, in modo tale che l'aumento delle funzionalità di questo risulti un collo di bottiglia, come si verifica nella programmazione di questi sistemi tramite i classici linguaggi di programmazione imperativi. L'organizzazione di questa tesi prevede un capitolo di background nel quale vengono riportare le basi della robotica, della sua programmazione e degli strumenti atti allo scopo, un capitolo che riporta le nozioni di programmazione ad agenti, tramite il linguaggio Jason -quindi l'architettura BDI - e perché tale approccio è adatto alla programmazione di sistemi di controllo per la robotica. Successivamente viene presentata quella che è la struttura completa del nostro ambiente di lavoro software che comprende l'ambiente ad agenti e il simulatore, quindi nel successivo capitolo vengono mostrate quelle che sono le esplorazioni effettuate utilizzando Jason e un approccio classico (per mezzo di linguaggi classici), attraverso diversi casi di studio di crescente complessità; dopodiché, verrà effettuata una valutazione tra i due approcci analizzando i problemi e i vantaggi che comportano questi. Infine, la tesi terminerà con un capitolo di conclusioni e di riflessioni sulle possibili estensioni e lavori futuri.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La regione Puglia negli ultimi anni è stata interessata da un importante aumento dell’urbanizzazione e ad una crescita di diverse attività economiche. Visto che questo sviluppo si concentra soprattutto nelle zone costiere ne consegue una sempre maggior influenza sulle diverse risorse marine (Cardillo et al. 2004; Mora 2008). Numerosi studi in varie parti del mondo (Airoldi & Beck 2007; Gray et al. 1990; Strain & Craig 2011; Thrush et al. 2006; Thrush et al. 1998) hanno mostrato come l’instaurarsi di attività economiche e la relativa creazione di impianti, strutture artificiali, e sviluppo urbano ad esse correlate, inducano forti modificazioni nei pattern naturali di distribuzione delle diverse specie dei popolamenti naturali. Questo studio ha interessato il golfo di Taranto in quanto essa è una delle principali città di questa regione, e può essere considerato un eccellente caso di studio. La finalità di questa tesi è analizzare i pattern di distribuzione del coralligeno in questo tratto di costa e di discuterli tenendo conto degli effetti delle pressioni antropiche presenti nell’area. Dall’analisi dei dati raccolti per mezzo di un campionamento fotografico, risulta che il coralligeno delle diverse località studiate, è caratterizzato da elevata variabilità, in termini di struttura del popolamento, già alla più piccola scala spaziale indagata, quella delle repliche. Tale variabilità, secondo l’ipotesi formulata, può essere causata da una combinazione di processi diversi, che operano a scale differenti. Certamente, le attività antropiche presenti nell’area di studio, sia singolarmente che in combinazione tra loro, aggiungono una sorgente ulteriore di variabilità, plausibilmente determinando cambiamenti diversi a seconda del tipo di attività che insiste nelle differenti aree. Da questo studio, pertanto, emergono alcune informazioni inerenti i pattern di distribuzione del popolamento a coralligeno nell’area del golfo di Taranto e alla possibile influenza di diverse fonti di impatto. Diverse sono le combinazioni di stress antropici analizzate e tutte causano modifiche ai popolamenti. I risultati ottenuti potrebbero aiutare gli organi competenti a selezionare modalità di espansione urbana ed industriale che tengano conto delle conseguenze di tale sviluppo sugli ambienti naturali costieri della Puglia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Background: l’epilessia è una malattia cerebrale che colpisce oggigiorno circa l’1% della popolazione mondiale e causa, a chi ne soffre, convulsioni ricorrenti e improvvise che danneggiano la vita quotidiana del paziente. Le convulsioni sono degli eventi che bloccano istantaneamente la normale attività cerebrale; inoltre differiscono tra i pazienti e, perciò, non esiste un trattamento comune generalizzato. Solitamente, medici neurologi somministrano farmaci, e, in rari casi, l’epilessia è trattata con operazioni neurochirurgiche. Tuttavia, le operazioni hanno effetti positivi nel ridurre le crisi, ma raramente riescono a eliminarle del tutto. Negli ultimi anni, nel campo della ricerca scientifica è stato provato che il segnale EEG contiene informazioni utili per diagnosticare l'arrivo di un attacco epilettico. Inoltre, diversi algoritmi automatici sono stati sviluppati per rilevare automaticamente le crisi epilettiche. Scopo: lo scopo finale di questa ricerca è l'applicabilità e l'affidabilità di un dispositivo automatico portatile in grado di rilevare le convulsioni e utilizzabile come sistema di monitoraggio. L’analisi condotta in questo progetto, è eseguita con tecniche di misure classiche e avanzate, in modo tale da provare tecnicamente l’affidabilità di un tale sistema. La comparazione è stata eseguita sui segnali elettroencefalografici utilizzando due diversi sistemi di acquisizione EEG: il metodo standard utilizzato nelle cliniche e il nuovo dispositivo portatile. Metodi: è necessaria una solida validazione dei segnali EEG registrati con il nuovo dispositivo. I segnali saranno trattati con tecniche classiche e avanzate. Dopo le operazioni di pulizia e allineamento, verrà utilizzato un nuovo metodo di rappresentazione e confronto di segnali : Bump model. In questa tesi il metodo citato verrà ampiamente descritto, testato, validato e adattato alle esigenze del progetto. Questo modello è definito come un approccio economico per la mappatura spazio-frequenziale di wavelet; in particolare, saranno presenti solo gli eventi con un’alta quantità di energia. Risultati: il modello Bump è stato implementato come toolbox su MATLAB dallo sviluppatore F. Vialatte, e migliorato dall’Autore per l’utilizzo di registrazioni EEG da sistemi diversi. Il metodo è validato con segnali artificiali al fine di garantire l’affidabilità, inoltre, è utilizzato su segnali EEG processati e allineati, che contengono eventi epilettici. Questo serve per rilevare la somiglianza dei due sistemi di acquisizione. Conclusioni: i risultati visivi garantiscono la somiglianza tra i due sistemi, questa differenza la si può notare specialmente comparando i grafici di attività background EEG e quelli di artefatti o eventi epilettici. Bump model è uno strumento affidabile per questa applicazione, e potrebbe essere utilizzato anche per lavori futuri (ad esempio utilizzare il metodo di Sincronicità Eventi Stocas- tici SES) o differenti applicazioni, così come le informazioni estratte dai Bump model potrebbero servire come input per misure di sincronicità, dalle quali estrarre utili risultati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa Tesi aspira a mostrare un codice a livello di pacchetto, che abbia performance molto vicine a quello ottimo, per progetti di comunicazioni Satellitari. L’altro scopo di questa Tesi è quello di capire se rimane ancora molto più difficile maneggiare direttamente gli errori piuttosto che le erasures. Le applicazioni per comunicazioni satellitari ora come ora usano tutte packet erasure coding per codificare e decodificare l’informazione. La struttura dell’erasure decoding è molto semplice, perché abbiamo solamente bisogno di un Cyclic Redundancy Check (CRC) per realizzarla. Il problema nasce quando abbiamo pacchetti di dimensioni medie o piccole (per esempio più piccole di 100 bits) perché in queste situazioni il costo del CRC risulta essere troppo dispendioso. La soluzione la possiamo trovare utilizzando il Vector Symbol Decoding (VSD) per raggiungere le stesse performance degli erasure codes, ma senza la necessità di usare il CRC. Per prima cosa viene fatta una breve introduzione su come è nata e su come si è evoluta la codifica a livello di pacchetto. In seguito è stato introdotto il canale q-ary Symmetric Channel (qSC), con sia la derivazione della sua capacità che quella del suo Random Coding Bound (RCB). VSD è stato poi proposto con la speranza di superare in prestazioni il Verification Based Decoding (VBD) su il canale qSC. Infine, le effettive performance del VSD sono state stimate via simulazioni numeriche. I possibili miglioramenti delle performance, per quanto riguarda il VBD sono state discusse, come anche le possibili applicazioni future. Inoltre abbiamo anche risposto alla domande se è ancora così tanto più difficile maneggiare gli errori piuttosto che le erasure.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sebbene studiati a fondo, i processi che hanno portato alla formazione ed alla evoluzione delle galassie così come sono osservate nell'Universo attuale non sono ancora del tutto compresi. La visione attuale della storia di formazione delle strutture prevede che il collasso gravitazionale, a partire dalle fluttuazioni di densità primordiali, porti all'innesco della formazione stellare; quindi che un qualche processo intervenga e la interrompa. Diversi studi vedono il principale responsabile di questa brusca interruzione della formazione stellare nei fenomeni di attività nucleare al centro delle galassie (Active Galactic Nuclei, AGN), capaci di fornire l'energia necessaria a impedire il collasso gravitazionale del gas e la formazione di nuove stelle. Uno dei segni della presenza di un tale fenomeno all'interno di una galassia e l'emissione radio dovuta ai fenomeni di accrescimento di gas su buco nero. In questo lavoro di tesi si è studiato l'ambiente delle radio sorgenti nel campo della survey VLA-COSMOS. Partendo da un campione di 1806 radio sorgenti e 1482993 galassie che non presentassero emissione radio, con redshift fotometrici e fotometria provenienti dalla survey COSMOS e dalla sua parte radio (VLA-COSMOS), si è stimata la ricchezza dell'ambiente attorno a ciascuna radio sorgente, contando il numero di galassie senza emissione radio presenti all'interno di un cilindro di raggio di base 1 Mpc e di altezza proporzionale all'errore sul redshift fotometrico di ciascuna radio sorgente, centrato su di essa. Al fine di stimare la significatività dei risultati si è creato un campione di controllo costituito da 1806 galassie che non presentassero emissione radio e si è stimato l'ambiente attorno a ciascuna di esse con lo stesso metodo usato per le radio sorgenti. I risultati mostrano che gli ammassi di galassie aventi al proprio centro una radio sorgente sono significativamente più ricchi di quelli con al proprio centro una galassia senza emissione radio. Tale differenza in ricchezza permane indipendentemente da selezioni basate sul redshift, la massa stellare e il tasso di formazione stellare specifica delle galassie del campione e mostra che gli ammassi di galassie con al proprio centro una radio sorgente dovuta a fenomeni di AGN sono significativamente più ricchi di ammassi con al proprio centro una galassia senza emissione radio. Questo effetto e più marcato per AGN di tipo FR I rispetto ad oggetti di tipo FR II, indicando una correlazione fra potenza dell'AGN e formazione delle strutture. Tali risultati gettano nuova luce sui meccanismi di formazione ed evoluzione delle galassie che prevedono una stretta correlazione tra fenomeni di AGN, formazione stellare ed interruzione della stessa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I test clinici e i questionari generalmente non sono in grado di fornire una valutazione predittiva e quantitativa della stabilità motoria. Permettono al clinico di esaminare la forza muscolare del paziente, il grado di spasticità, la funzionalità motoria e l'autonomia nello svolgimento delle normali attività, ma non di capire quanto il soggetto sia stabile. Sono stati esaminati diciotto pazienti con esiti di stroke in fase post acuta ed il 38% ha affermato di essere caduto almeno una volta nell'arco degli ultimi dodici mesi. Adottando una politica di prevenzione delle cadute si potrebbero limitare questi eventi che vanno ad aggravare un quadro clinico già compromesso. Per tale motivo sono attualmente oggetto di studio misure biomeccaniche, eseguite in laboratorio, atte a definire metodi con alta sensibilità e specificità per la valutazione della stabilità del cammino. Nel presente lavoro le misure strumentali sono state ottenute partendo dal segnale di accelerazione del centro di massa corporeo. Servendosi di un'unità inerziale munita di accelerometro triassiale è stato possibile, durante il cammino, ricavare l'andamento delle accelerazioni antero-posteriore, medio-laterale e verticale. Grazie ad un algoritmo, messo a punto nel Laboratorio di Bioingegneria della Facoltà di Cesena dall'Ing. Federico Riva, sono stati estrapolati gli indici strumentali. Il corpo centrale di questa tesi consiste nell'analisi statistica condotta tramite modelli di regressione lineare che mettono in correlazione parametri clinici (acquisiti per mezzo di test e questionari) abitualmente usati in ospedale e indici strumentali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le sperimentazioni riguardanti la produzione di biodiesel da alghe sono state condotte solo in laboratorio o in impianti pilota e il processo produttivo non è ancora stato sviluppato su scala industriale. L’obiettivo di questo lavoro di tesi è stato quello di valutare la potenziale sostenibilità ambientale ed energetica della produzione industriale di biodiesel da microalghe nella realtà danese ipotizzando la coltivazione in fotobioreattori. La tesi ha analizzato le diverse tecnologie attualmente in sperimentazione cercando di metterne in evidenza punti di forza e punti di debolezza. La metodologia applicata in questa tesi per valutare la sostenibilità ambientale ed energetica dei processi analizzati è LCA strumento che permette di effettuare la valutazione sull’intero ciclo di vita di un prodotto o di un processo. L’unità funzionale scelta è 1 MJ di biodiesel. I confini del sistema analizzato comprendono: coltivazione, raccolta, essicazione, estrazione dell’olio, transesterificazione, digestione anaerobica della biomassa residuale e uso del glicerolo ottenuto come sottoprodotto della transesterificazione. Diverse categorie d’impatto sono state analizzate. In questo caso studio, sono stati ipotizzati 24 diversi scenari differenziati in base alle modalità di coltivazione, di raccolta della biomassa, di estrazione dell’olio algale. 1. la produzione di biodiesel da microalghe coltivate in fotobioreattori non appare ancora conveniente né dal punto di vista energetico né da quello ambientale. 2. l’uso di CO2 di scarto e di acque reflue per la coltivazione, fra l’altro non ancora tecnicamente realizzabili, migliorerebbero le prestazioni energetiche ed ambientali del biodiesel da microalghe 3. la valorizzazione di prodotti secondari svolge un ruolo importante nel processo e nel suo sviluppo su larga scala Si conclude ricordando che il progetto di tesi è stato svolto in collaborazione con la Danish Technical University of Denmark (DTU) svolgendo presso tale università un periodo di tirocinio per tesi di sei mesi

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'equazione di Klein-Gordon descrive una ampia varietà di fenomeni fisici come la propagazione delle onde in Meccanica dei Continui ed il comportamento delle particelle spinless in Meccanica Quantistica Relativistica. Recentemente, la forma dissipativa di questa equazione si è rivelata essere una legge di evoluzione fondamentale in alcuni modelli cosmologici, in particolare nell'ambito dei cosiddetti modelli di k-inflazione in presenza di campi tachionici. L'obiettivo di questo lavoro consiste nell'analizzare gli effetti del parametro dissipativo sulla dispersione nelle soluzioni dell'equazione d'onda. Saranno inoltre studiati alcuni tipici problemi al contorno di particolare interesse cosmologico per mezzo di grafici corrispondenti alle soluzioni fondamentali (Funzioni di Green).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi sulla forma collettiva, argomento molto dibattuto dagli studiosi, prendo in considerazione alcuni fra i più importanti testi teorici sull’architettura. Nel mio percorso di studio il libro di Fumihiko Maki “Ricerca sulla forma collettiva” è il punto di partenza. Dopo averlo letto, studiato e tradotto ho scelto di concentrarmi sull’interessante classificazione che Maki fa a proposito delle forme in architettura. Questa vuole cercare di essere quanto mai universale e funzionale alla comprensione del progetto di architettura. Si parla di forma compositiva, megastruttura e forma a gruppo, e in queste rientrano le architetture del passato come quelle del presente. Per ognuna di queste tre forme ho scelto un trattato o libro che descrivesse ciascuna di esse in modo diverso o più ampio. Per la forma compositiva “Architettura della città” di Aldo Rossi; per la megastruttura “Le tentazioni dell’architettura: Megastruttura” di Reyner Banham; per la forma a gruppo “Architettura senza architetti” di Bernard Rudofsky. Ho letto, studiato questi libri e ne riporto qui una relazione ragionata corredata da citazioni. Infine, nelle conclusioni, affianco il materiale fino ad ora accumulato ai miei progetti di architettura svolti durante gli anni di studio in questa facoltà, spiegandoli brevemente alla luce della classificazione di Maki e delle letture sopra menzionate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presenza di materia oscura nell'universo venne ipotizzata negli anni '30 a seguito di alcune anomalie nei risultati sperimentali ottenuti in astrofisica e cosmologia. La distribuzione di materia ottenuta non concordava infatti con i dati provenienti dalle osservazioni astronomiche e gli scienziati ipotizzarono l'esistenza di un tipo di materia, denominata appunto materia oscura, che interagisse debolmente con la radiazione elettromagnetica e fosse quindi interamente invisibile ai telescopi, sia che fossero a radiofrequenze che operanti nel campo del visibile o con raggi gamma e X, ma che producesse effetti gravitazionali. Nel corso degli anni si sono aggiunte ulteriori evidenze a sostegno dell'esistenza di materia oscura, provenienti anche dallo studio della cosmologia, e numerosi esperimenti (tra cui XENON, IGEX, DAMA/LIBRA) sono stati condotti per cercare di determinare tipo e massa delle particelle o la loro abbondanza (PLANCK). Il lavoro di questa tesi consiste in uno studio delle interazioni dei neutroni con lo xenon per l'esperimento XENON1T. I neutroni costituiscono un fondo particolarmente pericoloso per l'esperimento, in quanto producono uno scattering direttamente sul nucleo allo stesso modo delle particelle di materia oscura. Nel lavoro svolto sono state dapprima analizzate le caratteristiche delle singole interazioni con lo xenon contenuto nella camera, per poi passare ad uno studio più specifico sul comportamento dei neutroni prodotti dai fotomoltiplicatori del rivelatore. In seguito alle analisi svolte è stato possibile caratterizzare il fondo di neutroni in modo più preciso, permettendo di determinare alcuni criteri di selezione per il loro riconoscimento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa dissertazione è di identificare le tecnologie più appropriate per la creazione di editor parametrici per documenti strutturati e di descrivere LIME, un editor di markup parametrico e indipendente dal linguaggio. La recente evoluzione delle tecnologie XML ha portato ad un utilizzo sempre più consistente di documenti strutturati. Oggigiorno, questi vengono utilizzati sia per scopi tipografici sia per l’interscambio di dati nella rete internet. Per questa ragione, sempre più persone hanno a che fare con documenti XML nel lavoro quotidiano. Alcuni dialetti XML, tuttavia, non sono semplici da comprendere e da utilizzare e, per questo motivo, si rendono necessari editor XML che possano guidare gli autori di documenti XML durante tutto il processo di markup. In alcuni contesti, specialmente in quello dell’informatica giuridica, sono stati introdotti i markup editor, software WYSIWYG che assistono l’utente nella creazione di documenti corretti. Questi editor possono essere utilizzati anche da persone che non conoscono a fondo XML ma, d’altra parte, sono solitamente basati su uno specifico linguaggio XML. Questo significa che sono necessarie molte risorse, in termini di programmazione, per poterli adattare ad altri linguaggi XML o ad altri contesti. Basando l’architettura degli editor di markup su parametri, è possibile progettare e sviluppare software che non dipendono da uno specifico linguaggio XML e che possono essere personalizzati al fine di utilizzarli in svariati contesti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente dissertazione investiga la possibilità di ottimizzare l’uso di energia a bordo di una nave per trasporto di prodotti chimici e petrolchimici. Il software sviluppato per questo studio può essere adattato a qualsiasi tipo di nave. Tale foglio di calcolo fornisce la metodologia per stimare vantaggi e miglioramenti energetici, con accuratezza direttamente proporzionale ai dati disponibili sulla configurazione del sistema energetico e sui dispositivi installati a bordo. Lo studio si basa su differenti fasi che permettono la semplificazione del lavoro; nell’introduzione sono indicati i dati necessari per svolgere un’accurata analisi ed è presentata la metodologia adottata. Inizialmente è fornita una spiegazione sul layout dell’impianto, sulle sue caratteristiche e sui principali dispositivi installati a bordo. Vengono dunque trattati separatamente i principali carichi, meccanico, elettrico e termico. In seguito si procede con una selezione delle principali fasi operative della nave: è seguito tale approccio in modo da comprendere meglio la ripartizione della richiesta di potenza a bordo della nave e il suo sfruttamento. Successivamente è svolto un controllo sul dimensionamento del sistema elettrico: ciò aiuta a comprendere se la potenza stimata dai progettisti sia assimilabile a quella effettivamente richiesta sulla nave. Si ottengono in seguito curve di carico meccanico, elettrico e termico in funzione del tempo per tutte le fasi operative considerate: tramite l’uso del software Visual Basic Application (VBA) vengono creati i profili di carico che possono essere gestiti nella successiva fase di ottimizzazione. L’ottimizzazione rappresenta il cuore di questo studio; i profili di potenza ottenuti dalla precedente fase sono gestiti in modo da conseguire un sistema che sia in grado di fornire potenza alla nave nel miglior modo possibile da un punto di vista energetico. Il sistema energetico della nave è modellato e ottimizzato mantenendo lo status quo dei dispositivi di bordo, per i quali sono considerate le configurazioni di “Load following”, “two shifts” e “minimal”. Una successiva investigazione riguarda l’installazione a bordo di un sistema di accumulo di energia termica, così da migliorare lo sfruttamento dell’energia disponibile. Infine, nella conclusione, sono messi a confronto i reali consumi della nave con i risultati ottenuti con e senza l’introduzione del sistema di accumulo termico. Attraverso la configurazione “minimal” è possibile risparmiare circa l’1,49% dell’energia totale consumata durante un anno di attività; tale risparmio è completamente gratuito poiché può essere raggiunto seguendo alcune semplici regole nella gestione dell’energia a bordo. L’introduzione di un sistema di accumulo termico incrementa il risparmio totale fino al 4,67% con un serbatoio in grado di accumulare 110000 kWh di energia termica; tuttavia, in questo caso, è necessario sostenere il costo di installazione del serbatoio. Vengono quindi dibattuti aspetti economici e ambientali in modo da spiegare e rendere chiari i vantaggi che si possono ottenere con l’applicazione di questo studio, in termini di denaro e riduzione di emissioni in atmosfera.