754 resultados para minimi di funzionali metodo di steepest descent metriche riemanniane elaborazione di immagini


Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questa Tesi di Laurea viene presentata un’interessante esperienza di implementazione numerica: lo sviluppo di un codice agli elementi finiti in grado di calcolare, verificare e ottimizzare edifici industriali in acciaio. Al giorno d’oggi, la tendenza delle imprese nel campo dell’ingegneria strutturale ed in particolare nel campo dell’edilizia industriale, è quella della specializzazione. E’ sempre più frequente, ad esempio nel campo dei capannoni industriali, che le aziende concentrino la loro attività solo su determinate tipologie costruttive, sulle quali ottimizzano il lavoro riducendo al massimo i tempi di progettazione, di costruzione e abbassando il prezzo. Il mondo dei programmi di calcolo, per la maggior parte, sembra aver preso una direzione di sviluppo opposta. Le case di produzione software mettono a disposizione dei progettisti strumenti sempre più raffinati, capaci di modellare dettagliatamente qualsiasi tipo di struttura, materiale, azione statica o dinamica; spesso questi programmi contengono anche un codice integrato CAD per il disegno della struttura e altri tools per lasciare all’utente la più grande libertà di azione possibile. Se da un lato questi strumenti danno al progettista la possibilità di una modellazione sempre più dettagliata, dall’altra parte hanno il limite di essere poco pratici per un tipo di progettazione standardizzato. Spesso quello di cui le imprese hanno bisogno è invece un programma creato ‘ad hoc’ per le loro attività che, grazie all’inserimento di pochi parametri, possa garantire una progettazione rapida e magari gestire non solo la fase di calcolo, ma anche quella di verifica e di ottimizzazione. In quest’ottica si inserisce lo sviluppo del codice eseguito in questa tesi. L’esposizione si articola in quattro parti. La prima, introduttiva, è dedicata alla descrizione delle tipologie di edifici monopiano in acciaio maggiormente diffuse, dei diversi tipi materiale, dei principali aspetti della normativa per queste costruzioni. Viene inoltre descritta la tipologia costruttiva implementata nel codice sviluppato. Il secondo capitolo è dedicato alla descrizione del metodo agli elementi finiti, esponendone i fondamenti teorici e le principali fasi della costruzione di un codice di calcolo numerico per elementi monodimensionali. Nella terza parte è illustrato il codice sviluppato. In particolare vengono dettagliatamente descritti i moduli di generazione del modello, del solutore, del post-processore in grado di eseguire le verifiche secondo le normative vigenti, e quello dedicato all’ottimizzazione strutturale. In fine, nell’ultimo capitolo viene illustrato un esempio progettuale con il quale si è potuta effettuare la validazione del codice confrontando i risultati ottenuti con quelli di riferimento forniti da programmi attualmente in commercio. La presente dissertazione non mira alla “certificazione” di un software che sia in grado di fare calcoli complessi nell’ambito dell’ingegneria strutturale, ma lo scopo è piuttosto quello di affrontare le problematiche e gestire le scelte operative che riguardano la scrittura di un codice di calcolo. Programmatori non si nasce, ma si diventa attraverso anni di esperienza che permettono di acquisire quella sensibilità numerica che è definibile come una vera e propria “arte”. Ed è in questa direzione che si è svolta la Tesi, ovvero comprendere prima di tutto l’atteggiamento da assumere nei confronti di un elaboratore elettronico e, solo successivamente, passare ad un utilizzo consapevole per scopi progettuali.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In this thesis, the development of asymmetric α-alkylation of aldehydes using two new organocatalysts is described. Nowadays organocatalized asymmetric synthesis uses preferentially primary or secondary amines. In our case two new Betti bases derivatives have been used as organocatalysts. We tried to find a method based on resolution to obtain both enantiomers with ee major than 90%. At the end we tried them in an organocatalytic processes which involve indole derivatives and aldehydes as substrates. In questa tesi è descritto lo sviluppo del processo di alfa-alchilazione di aldeidi utilizzando due nuovi catalizzatori organici chirali. Al giorno d’oggi la sintesi asimmetrica organo catalitica sfrutta principalmente ammine primarie e secondarie chirali. Come organo catalizzatori, sono stati utilizzati due nuovi derivati della base di Betti. E’ stato ricercato un metodo che permettesse di risolvere entrambi gli enantiomeri e che permettesse di ottenere un eccesso enantiomerico maggiore del 90%. Infine questi catalizzatori sono stati utilizzati e ottimizzati in micro-processi che utilizzano un substrato indolico e di un’aldeide.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente studio è stato progettato e articolato includendo tre approcci disciplinari sviluppati parallelamente al fine di ottenere dati etologici, endocrinologici, e respiratori riguardo cinque esemplari di trichecho del pacifico (Odobenus rosmarus) ospitati presso l’Oceanografic di Valencia. Il periodo di campionamento si è sviluppato in un lasso di tempo di 12 settimane durante le quali sono stati raccolti dati riguardo i tre ambiti di studio. La raccolta di dati etologici è stata effettuata per mezzo di supporto video il quale ha permesso di generare un totale di 72 ore di filmato. Attraverso l’analisi del materiale multimediale è stato possibile elaborare un catalogo comportamentale con annesso un catalogo video atto alla semplificazione di riconoscimento dei vari moduli comportamentali; la revisione della documentazione video è stata effettuata mediante il software Noldus “Observer 5.0” che si è resa necessaria per la quantificazione dei singoli comportamenti osservati durante il periodo di studio. Succesivamente i dati ottenuti sono stati sottoposti ad analisi statistica al fine di poter valutare le differenze e le analogie comportamentali dei due soggetti principali nell’arco della singola giornata e durante le dodici settimane di analisi. In concomitanza col campionamento video, si è proceduto ialla raccolta dei dati relativi ai pattern respiratori al fine di valutare la durata delle apnee in ambiente controllato. In seguito è stato effettuato un approccio endocrinologico al fine di valutare la possibilità di rilevare e quantificare glucorticoidi quali cortisolo, testosterone e progesterone presenti nei campioni. Si è ricorso alla raccolta di materiale salivare in alternativa al campionamento ematico in modo da stabilire l’effettiva efficacia del metodo. I campioni sono stati poi processati mediante RIA e i livelli ormonali ottenuti sono stati utilizzati per effettuare una comparazione con il manifestarsi dei moduli comportamentali osservati è analizzarne le correlazioni presenti e osservarne gli effetti sull’espressione etologica.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Studio su giunti incollati attraverso il metodo agli elementi finiti (FEM). E’ stata implementata l’analisi numerica su provini seguendo lo standard della normativa ASTM International relativa a prove sperimentali, per giunzioni di lamine in metallo o in materiale composito. Si è introdotto il materiale composito, cercando di inquadrarne le proprietà, i limiti e i vantaggi rispetto ai materiali tradizionalmente usati, sono stati elencati i difetti che possono nascere e svilupparsi in un composito durante la sua vita operativa, i quali, anche se di piccole dimensioni, a volte possono risultare tanto pericolosi da portare al collasso dell’intera struttura. Nasce, quindi, durante la fase di progettazione la necessità di rilevare, caratterizzare e tenere sotto controllo i danni e considerare i materiali non completamente esenti da difetti. Si è parlato, poi, del processo di riparazione, ove possibile, come alternativa alla sostituzione del componente con un notevole risparmio sui costi di manutenzione. Sono stai presi in esame i vari metodi effettuando un confronto tra essi. Per questo lavoro di tesi, è stato preso in esame l’incollaggio come metodo di fissaggio tra la membrana riparata e la struttura esistente e ne è stata descritta la teoria. Dopo questa panoramica si è passati alla verifica sugli incollaggi attraverso le analisi FEM.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Si mostra l’evoluzione di un modello fisico-matematico atto alla ricostruzione dei fussi nell’intera regione Emilia Romagna partendo da due sorgenti di dati: dati sparsi con bassa risoluzione spaziale senza errore e dati distribuiti in tutta la regione con percentuale rispetto alla totalità di autoveicoli ignota. Si descrive l’elaborazione dei dati e l’evoluzione del modello nella sua storicità fino ad ottenere un buon risultato nella ricostruzione dei fussi. Inoltre si procede ad analizzare la natura dei dati e la natura del problema per ottenere una buona soluzione in grado di descrivere il sistema e per essere facilmente estesa ad altre regioni. Dopo aver definito un metodo di validazione si confrontano svariati risultati di modelli differenti mostrando un’evoluzione nella ricerca di un modello che risolva il problema con tempi computazionali accettabili in modo da ottenere un sistema real-time.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Si mostrano i passi seguiti nello sviluppo di un modello matematico e simulativo che mira a ricostruire il campo di flusso veicolare della rete stradale della regione Emilia Romagna. Si descrivono le fonti di dati utilizzate per la ricostruzione: dispositivi GPS a bassa capillarità e spire induttive su strada; si discute delle caratteristiche dei dati e dei problemi intrinseci e contingenti da cui sono affetti, nonché delle metodologie adottate nel tentativo di risolvere questi problemi. Si illustra l’idea centrale alla base delle ricostruzioni, e si descrive un criterio di validazione del modello. Si mostrano i risultati dei vari algoritmi ideati, ognuno affiancato dal parametro di validità, evidenziando quale metodo produca risultati migliori. Si conclude discutendo delle potenzialità del modello in termini di applicabilità in altre regioni o zone geografiche.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questo lavoro nasce dall’intento di dare un’indicazione sul legame esistente tra la temperatura e la concentrazione di ozono. La correlazione, rintracciata sui dati osservati, è stata poi utilizzata allo scopo di elaborare proiezioni di evoluzioni future. Lo studio si è concentrato su un’area piuttosto ristretta della provincia di Parma, selezionata per la buona disponibilità di dati, sia di temperatura che di ozono, ma anche per la sua rappresentatività, dimostrata, delle caratteristiche dell’Emilia Romagna. Sulla base della scelta della stazione di misura di ozono sono state individuate tre località nelle vicinanze per avere dati di temperatura sia osservati sia provenienti da downscaling statistico. Proprio per quest’ultimo dataset sono stati elaborati scenari di temperatura per il periodo 2021-2050, rispetto al trentennio climatologico di riferimento 1961-1990, applicando il metodo di regionalizzazione statistica a cinque modelli globali. Le anomalie stagionali sono poi state date in ingresso a un generatore climatico in grado di produrre serie sintetiche giornaliere per il punto in esame. Un modello appositamente creato, ispirato al metodo di campionamento casuale stratificato, ha sfruttato sia queste informazioni sul futuro andamento della temperatura, sia la relazione trovata su dati osservati, per la costruzione di un set di concentrazioni di ozono previste per lo stesso trentennio futuro. Confrontando dal punto di vista statistico queste distribuzioni con quelle ricostruite per i periodi 1961-1990 e 2001-2012 si è valutato l’andamento della concentrazione di ozono. La conclusione più evidente a cui si giunge è la conferma del fatto che la situazione attuale dell’inquinamento da ozono nell’area di studio è decisamente più critica rispetto a quella che il modello ha ricostruito per il trentennio passato. La distribuzione dei valori di concentrazione di ozono degli ultimi dodici anni è invece molto più simile ormai al set di proiezioni previste per il futuro. Quello che potrà succedere a livello dell’inquinamento da ozono nel prossimo trentennio climatologico in Emilia Romagna dipende da quale modello si rivelerà più veritiero riguardo alla proiezione futura di temperatura: è infatti possibile che tutto rimanga molto simile alla situazione attuale o che si verificherà un ulteriore aumento, aggravando una situazione già critica.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Le caratteristiche del 99mTc e la possibilità per gli ospedali di produrlo in loco quotidianamente grazie ai generatori, hanno reso questo radioisotopo il più utilizzato della fisica medica: è richiesto in circa l’80% delle procedure di medicina nucleare con circa 7 milioni di somministrazioni all’anno in Europa e 8 milioni negli USA. Inoltre il campo di applicabilità del 99mTc è molto vasto: viene infatti utilizzato per scintigrafie ossee, epatiche, renali, celebrali, tiroidee e per il controllo della funzionalità epatica. A causa del notevole incremento dell’insorgenza di patologie oncologiche e dell’aumento della popolazione, la richiesta di 99mTc è sempre cresciuta negli anni ed è ancora destinata a crescere nei prossimi; l’unico fattore attenuante è lo sviluppo di altre tecniche di diagnostica funzionale come la PET ( Positron Emission Tomography ). Nonostante la creazione del 99mTc da generatori di 99Mo sia ancora oggi il metodo di produzione più efficiente, si sta ponendo recentemente la necessità di ricercare nuove tecniche di produzione dell’isotopo per soddisfare le grandi quantità richieste dal mercato globale. Questo accade perché malgrado l’utilizzo del 99mTc sia in forte crescita, la produzione di 99Mo è destinata a diminuire in quanto necessita di reattori nucleari: gli ingenti costi delle moderne centrali e le elevate quantità di scorie prodotte, stanno guidando la politica mondiale verso una denuclearizzazione che renderà in pochi anni impossibile soddisfare la richiesta di 99Mo della medicina nucleare. Questo lavoro di tesi si colloca in questo contesto, cioè nella ricerca di un metodo alternativo per la produzione di 99mTc: l’irraggiamento con protoni di un target di 100Mo arricchito, in un ciclotrone ad uso medicale. L’obbiettivo che si vuole raggiungere è fornire una stima attendibile su tale produzione, valutare la qualità dell’isotopo e mettere in luce eventuali problematiche riscontrabili.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La Cognitive Radio è un dispositivo in grado di reagire ai cambiamenti dell’ambiente radio in cui opera, modificando autonomamente e dinamicamente i propri parametri funzionali tra cui la frequenza, la potenza di trasmissione e la modulazione. Il principio di base di questi dispositivi è l’accesso dinamico alle risorse radio potenzialmente non utilizzate, con cui utenti non in possesso di licenze possono sfruttare le frequenze che in un determinato spazio temporale non vengono usate, preoccupandosi di non interferire con gli utenti che hanno privilegi su quella parte di spettro. Devono quindi essere individuati i cosiddetti “spectrum holes” o “white spaces”, parti di spettro assegnate ma non utilizzate, dai quali prendono il nome i dispositivi.Uno dei modi per individuare gli “Spectrum holes” per una Cognitive Radio consiste nel cercare di captare il segnale destinato agli utenti primari; questa tecnica è nota con il nome di Spectrum Sensing e consente di ottenere essenzialmente una misura all’interno del canale considerato al fine di determinare la presenza o meno di un servizio protetto. La tecnica di sensing impiegata da un WSD che opera autonomamente non è però molto efficiente in quanto non garantisce una buona protezione ai ricevitori DTT che usano lo stesso canale sul quale il WSD intende trasmettere.A livello europeo la soluzione che è stata ritenuta più affidabile per evitare le interferenze sui ricevitori DTT è rappresentata dall’uso di un geo-location database che opera in collaborazione con il dispositivo cognitivo.Lo scopo di questa tesi è quello di presentare un algoritmo che permette di combinare i due approcci di geo-location database e Sensing per definire i livelli di potenza trasmissibile da un WSD.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questo lavoro di tesi è stato elaborato un modello analitico al fine di ottenere una stima dell’ampiezza di delaminazione a seguito di impatti a bassa velocità in laminati in composito, in particolare carbon/epoxy. Nel capitolo 2 è descritto il comportamento meccanico di tali laminati (equazioni costitutive della singola lamina, dell’intero laminato e costanti ingegneristiche dell’intero laminato per qualsiasi sistema di riferimento). Nel capitolo 3 viene descritta la filosofia di progettazione damage tolerance per tali materiali sottoposti a low-velocity impact (LVI) e richiamato il concetto di structural health monitoring. In particolare vengono descritti i tipi di difetti per un laminato in composito, vengono classificati gli impatti trasversali e si rivolge particolare attenzione agli impatti a bassa velocità. Nel paragrafo 3.4 sono invece elencate diverse tecniche di ispezione, distruttive e non, con particolare attenzione alla loro applicazione ai laminati in composito. Nel capitolo 4 è riportato lo stato dell’arte per la stima e la predizione dei danni dovuti a LVI nei laminati: vengono mostrate alcune tecniche che permettono di stimare accuratamente l’inizio del danno, la profondità dell’indentazione, la rottura delle fibre di rinforzo e la forza massima di impatto. L’estensione della delaminazione invece, è difficile da stimare a causa dei numerosi fattori che influenzano la risposta agli impatti: spesso vengono utilizzati, per tale stima, modelli numerici piuttosto dispendiosi in termini di tempo e di calcolo computazionale. Nel capitolo 5 viene quindi mostrata una prima formula analitica per il calcolo della delaminazione, risultata però inaffidabile perché tiene conto di un numero decisamente ristretto di fattori che influenzano il comportamento agli LVI. Nel capitolo 6 è mostrato un secondo metodo analitico in grado di calcolare l’ampiezza di delaminazione mediante un continuo aggiornamento della deflessione del laminato. Dal confronto con numerose prove sperimentali, sembra che il modello fornisca risultati vicini al comportamento reale. Il modello è inoltre fortemente sensibile al valore della G_IIc relativa alla resina, alle dimensioni del laminato e alle condizioni di vincolo. É invece poco sensibile alle variazioni delle costanti ingegneristiche e alla sequenza delle lamine che costituiscono il laminato. La differenza tra i risultati sperimentali e i risultati del modello analitico è influenzata da molteplici fattori, tra cui il più significativo sembra essere il valore della rigidezza flessionale, assunto costante dal modello.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il lavoro discusso in questa tesi è lo sviluppo di un metodo sintetico basato sulla catalisi asimmetrica che consente di ottenere precursori di alcuni alcaloidi dell’Ergot in forma enantioarricchita. La reazione sviluppata consiste in un processo domino Friedel-Crafts/nitro-Michael fra indoli sostituiti in posizione 4 con un accettore di Michael e nitroetene. I catalizzatori utilizzati sono in grado di attivare il nitroetene per la Friedel-Crafts mediante legami a idrogeno e di indurre stereoselezione nella successiva ciclizzazione di Michael intramolecolare. Mediante la procedura ottimizzata è possibile ottenere una serie di indoli policiclici, potenziali precursori sintetici di alcaloidi dell’Ergot, con buone rese ed enantioselezioni.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nel presente lavoro sono esposti i comportamenti e le caratteristiche principali dei giunti incollati. Il metodo agli elementi finiti è stato studiato in modo da realizzare un modello accurato di un sistema fisico. L’analisi agli elementi finiti è stata utilizzata per effettuare una simulazione numerica di un single-strap joint in alluminio e in CFRP sotto un carico di trazione assiale. L’effetto di una modifica della distanza tra le lastre è stato studiato e i risultati confrontati.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Lo scopo della seguente tesi è quello di illustrare la disposizione dei campioni di sistemi binari Mg Pd e di deposizioni singole di Ti, nell’abito di due progetti di ricerca, l’SSHS, Solide State Hydrogen Storage nell’ambito dell’Azione COST, e la produzione di titania (TiO2) per la fotocatalisi, sintetizzati in differenti reggimi di flusso di gas d’He, realizzando la crescita con il metodo IGC. Sono state illustrate le nuove proprietà e i metodi di formazione dei materiali nanostrutturati, per poi passare alla descrizione dell’apparato dove sono stati prodotti i campioni, con la conseguente spiegazione della progettazione del controllore di flusso dei sistemi di alimentazione e interfacciamento di quest’ultimo. Dopo un’accurata analisi al microscopio elettronico, `e stata descritta la morfologia dei campioni a due diversi reggimi di flusso di gas He, per i campioni di Mg Pd non sono state apprezzate differenze al variare del flusso, per il Ti, invece, si può notare una variazione morfologica legata alle dimensioni.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il trattato sottolinea quanto sia indispensabile avere un confronto fra le simulazioni numeriche effettuate col metodo Ray Tracing e le campagne di misure sperimentali. Sebbene le simulazioni numeriche comportino un impiego di tempo e risorse oneroso, una volta impostate risultano molto versatili e rapide nell'apportare cambiamenti ai relativi settaggi e ambiente di propagazione.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Comprensione della città di Bogotá attraverso lo studio del Piano Maestro di Le Corbusier. Trasposizione del sistema di città lineare al caso concreto della città e nuovo modello di settore come metodo di intervento. Piano urbano per la riqualificazione dell’area industriale di Fontibón e approfondimento architettonico e strutturale del grande edificio cruciforme in prossimità della calle 13. Sviluppo di un nuovo isolato residenziale che sia in grado di aumentare la densità abitativa e favorire la socialità.