650 resultados para Ottimizzazione di portafoglio metodo della programmazione dinamica


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'importanza dell'acciuga europea (Engraulis encrasicolus) come risorsa ittica, sia a livello economico che ecologico, nel Mar Mediterraneo, ha portato alla necessità di monitorare la biomassa deponente di questa specie per cercare di dare un limite al suo sovrasfruttamento (rappresentando il 22% delle catture nazionali). Lo studio effettuato riguarda le stime di fecondità dell'acciuga europea tramite l'applicazione di un metodo di analisi d'immagine, Whole Mount, su campioni di gonadi di adulti maturi e pronti alla deposizione. Il campionamento degli esemplari è avvenuto durante due campagne oceanografiche, organizzate dall'U.O.S di Capo Granitola dell'Istituto per l'Ambiente Marino Costiero del CNR, che hanno coperto l'area dello Stretto di Sicilia e del Mar Tirreno, durante i mesi estivi che rappresentano il picco di deposizione della specie. Nel presente lavoro sono stati analizzati in totale 76 ovari di acciuga, provenienti da entrambe le aree di campionamento e che presentassero ovociti maturi e risultassero, quindi, in una fase di deposizione nota come "deposizione imminente". Per entrambe le aree di studio è stata stimata una relazione lunghezza-peso con andamento esponenziale. I test statistici non parametrici di Kolmogorov-Smirnov e di Mann-Whitney hanno permesso di stimare se vi fossero differenze tra la fecondità, l'indice gonadosomatico (IGS) e il fattore di condizione (CF) nelle due aree, Stretto di Sicilia e piattaforma settentrionale siciliana. I valori di CF sono risultati significativamente differenti tra le due aree se valutati con il test di Kolmogorov-Smirnov, tuttavia tale differenza non è stata confermata dal test di Mann-Whitney. L'IGS e la fecondità, invece, sono risultati significativamente diversi nelle due aree per entrambi i test. Si può ipotizzare che valori di fecondidifferenti nelle due aree, nonostante in entrambi i casi il campionamento sia avvenuto durante il picco di riproduzione della specie, possono essere dovuti alla variabilità dei fattori abiotici, quali temperature e nutrienti, differenti nello Stretto di Sicilia e nell'area lungo le coste settentrionali siciliane. Temperatura e nutrienti possono essere differenti, poiché vi è un diverso movimento delle masse d'acqua causato da correnti distinte nelle due aree. Conoscere la variabilità dei parametri riproduttivi di una specie di rilevanza commerciale così alta, come l'acciuga, rappresenta uno strumento fondamentale per scegliere le misure di gestione sostenibile degli stock più appropriate per aree differenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questo elaborato di tesi è sintetizzare microcapsule di dimensioni non superiori ai 20 micron, contenenti un composto termocromico in modo da funzionare come indicatori di temperatura. Le capsule devono essere quindi in grado di variare la propria colorazione in funzione della temperatura del mezzo in cui sono disperse o dell’ambiente circostante, senza degradarsi. Il core è costituito da una miscela contenente un pigmento termocromico il cui colore varia da verde intenso se mantenuto a temperature ambiente, fino ad un verde pallido, quasi bianco, per temperature inferiori ai 10°C. Il core è stato quindi incapsulato in uno shell, costituito da una resina melammina-formaldeide (MF) mediante polimerizzazione in situ. Questo processo prevede la sintesi di un prepolimero MF che viene poi fatto reticolare in presenza di una emulsione del core in soluzione acquosa. Per prima cosa è stato ottimizzata la sintesi del prepolimero a partire da una soluzione acquosa di melammina e formaldeide. Vista la tossicità della formaldeide (H341-H350-H370) è stata studiata anche la possibilità di sostituire questo reagente con la sua forma polimerica (paraformaldeide) che a 45°C circa degrada rilasciando formaldeide in situ. In questo modo il processo risulta molto più sicuro anche in previsione di un suo possibile sviluppo industriale. In seguito è stato ottimizzato il processo di microincapsulazione in emulsione su vari tipi di core e studiando l’effetto di vari parametri (pH, temperatura, rapporto core/shell, tipo di emulsionante ecc.), sulle dimensioni e la stabilità delle microcapsule finali. Queste sono quindi state caratterizzate mediante spettrometria Infrarossa in trasformata di Fourier (FT-IR) e la loro stabilità termica è stata controllata tramite analisi TermoGravimetrica (TGA). Il processo di reticolazione (curing) della resina, invece, è stato studiato tramite Calorimetria Differenziale a Scansione (DSC). Le microcapsule sono inoltre state analizzate tramite Microscopio Elettronico (OM) e Microscopio Elettronico a Scansione (SEM).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Argomento della presente tesi è il calcolo integrale. Nella prima parte dell'elaborato viene descritta l'evoluzione storica delle idee presenti già nella matematica antica, che conducono infine alla creazione del calcolo integrale vero e proprio, nei fondamentali lavori di Newton e Leibniz. Segue una sintetica descrizione delle sistematizzazioni formali della teoria dell'integrazione, ad opera di Riemann e successivamente Lebesgue, oltre alla generalizzazione dell'integrale di Riemann ideata da Sieltjes, di grande importanza, fra l'altro, nel calcolo delle probabilità. Si dà poi conto degli spazi funzionali con norme integrali (L^p, spazi di Sobolev). L'ultimo capitolo è dedicato all'insegnamento del calcolo integrale nella scuola secondaria in Italia, e alla sua evoluzione dall'inizio del XX secolo a oggi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'azienda IMA S.p.a., leader nel settore delle macchine automatiche per il packging, intende approfondire la conoscenza sui processi di manifattura additiva con l'obiettivo futuro di riuscire a realizzare il 5% di componenti che compongono le macchine della gamma dell'azienda mediante l'utilizzo di queste nuove tecnologie. Il raggiungimento di tale obiettivo comporta un radicale cambio di mentalità rispetto al passato e la creazione di nuove figure professionali e procedure di progettazione dei componenti totalmente nuove ed innovative. In questo contesto, vengono in aiuto i metodi numerici di ottimizzazione topologica. Noti carichi, vincoli, materiali e geometria d'ingombro del particolare, questi metodi vanno a determinare l'ottimale distribuzione del materiale per ottenere un incremento delle prestazioni del componente, andando a collocare il materiale solo in corrispondenza delle zone dove è strettamente necessario. L'ottimizzazione topologica strutturale, ottenimento della massima rigidezza specifica, è stato proprio l'argomento di questo elaborato. E' stato impiegato il software COMSOL Multiphysics 5.2 per implementare il problema di ottimizzazione. Inizialmente abbiamo affrontato problemi semplici, i cui risultati sono reperibili in letteratura. Dopo aver validato la correttezza della nostra implementazione, abbiamo infine esteso il problema a un caso di studio di un componente di una macchina IMA. Il caso di studio riguardava un componente che esegue l'estrazione della fustella piana dal magazzino in cui l'intero pacco fustelle viene riposto dall'operatore. I risultati ottenuti su questo componente sono stati positivi ottenendo un miglioramento della rigidezza specifica di quest'ultimo. L'obiettivo primario dell'elaborato è stato quello di realizzare una panoramica dei metodi di ottimizzazione topologica e riuscire ad applicare questi ad un caso concreto per valutare se tale tipo di progettazione potesse essere adeguato alle esigenze di IMA. L'obiettivo è stato largamente raggiunto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il metodo Hartree-Fock permette di determinare approssimativamente la funzione d'onda e l'energia per atomi a più elettroni in uno stato stazionario. Più in generale, si applica a sistemi quantistici a N-corpi, per studiare, ad esempio, gli elettroni nelle molecole e nei solidi. Il punto di partenza di questo metodo è il modello della particella indipendente; sotto questa ipotesi, ogni elettrone del sistema è descritto dalla propria funzione d'onda. Il contributo di D. R. Hartree allo studio della struttura di atomi complessi consiste nell'aver formulato le equazioni per le funzioni d'onda dei singoli elettroni usando argomentazioni intuitive e nell'avere inoltre proposto, per la loro risoluzione, una procedura iterativa basata sul requisito di autoconsistenza. La generalizzazione del suo metodo, che tiene conto del requisito di antisimmetria imposto dal principio di esclusione di Pauli, fu formulata da V. A. Fock e J. C. Slater. Con tale tecnica si assume che la funzione d'onda totale a N-elettroni sia un determinante di Slater, ovvero un prodotto antisimmetrico di orbitali relativi a singoli elettroni. Il determinante di Slater ottimale si ottiene usando il metodo variazionale per individuare i migliori spin-orbitali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel seguente elaborato si espone l’utilizzo del sistema GPS/INS per la valutazione del moto di un ciclomotore. Tale sistema è composto da sensori GPS ( Global Navigation System ) per la misurazione della posizione, e da sensori INS ( Inertial Navigation System) per la misurazione dell’accelerazione e delle velocità angolari rispetto a tre assi coordinati. Chiaramente le misure di accelerazioni e di velocità angolari da parte dei sensori, presentano dei minimi errori, che però si ripercuotono sul posizionamento finale. Per limitare questo fenomeno e rendere la misura di velocità e posizione utilizzabile, un filtro di Kalman viene impiegato per correggere il risultato dell'integrazione usando le misurazioni del GPS. Il connubio tra il sistema INS e il sistema GPS è molto efficacie anche quando si ha una assenza di ricezione satellitare o perdita parziale dei satelliti (cycle slip). Infine è stato utilizzato uno smartphone sfruttando i sensori in esso presenti : accelerometri, giroscopi, GPS, per analizzare la dinamica di un ciclomotore, concentrandosi sull’assetto in particolar modo l’angolo di rollio. Tale prova è stata affrontata non tanto per validare il sistema GPS/INS, ma per provare una soluzione comoda e di basso costo per analizzare il moto di un ciclomotore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella presente tesi viene condotta l'analisi strutturale della testa di un supporto al bagno di saldatura elicoidale per tubi di acciaio. Dopo una breve introduzione sui tubi di acciaio e sul Metodo agli Elementi Finiti, si analizza la testa utilizzando un software open source. I risultati ottenuti consentono di ottimizzare la geometria della testa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli autovalori giocano un ruolo fondamentale in moltissimi fenomeni fisici. La localizzazione degli autovalori di una certa matrice nel piano complesso, ad esempio, è fondamentale nello studio della stabilità degli aerei. Le frequenze delle vibrazioni dei fasci sono sostanzialmente gli autovalori di una matrice di dimensione infinita. Questo rende il calcolo degli autovalori un problema notevolmente importante. Tra i metodi iterativi noti per l'approssimazione degli autovalori vi è il metodo delle potenze, utilizzato per il calcolo dell'autovalore dominante (autovalore di modulo massimo) di una matrice data e del relativo autovettore associato. Affinchè l'algoritmo converga è necessario che ci sia un autovalore dominante e, in particolare, più l'autovalore dominante è staccato dal resto dello spettro, maggiore sarà la sua velocità di convergenza. Il metodo delle potenze e le sue varianti (metodo delle potenze inverse e metodo delle potenze inverse shiftate) sono molto usati nelle applicazioni, in cui spesso non si è interessati ad approssimare tutti gli autovalori dello spettro, ma solo alcuni. Le equazioni del moto in dinamica strutturale, problemi di ingegneria strutturale e problemi relativi all'informatica (come l'algoritmo di PageRank di Google) sono solo alcuni esempi di applicazioni possibili di tale metodo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Agent-oriented programming (AOP) è un paradigma di programmazione che concepisce un software come insieme di agenti che possiedono caratteristiche di autonomia, proattività e che sono in grado di comunicare con altri agenti. Sebbene sia stato impiegato soprattutto nell'ambito dell'intelligenza artificiale questo tipo di programmazione si rivela utile per lo sviluppo di sistemi distribuiti riuscendo a gestire agilmente problemi di concorrenza. Lo scopo di questa tesi è analizzare le caratteristiche del paradigma e dei software basati su agenti, utilizzando come caso di studio Sarl, un linguaggio general-purpose molto recente. La parte principale del lavoro consiste nella descrizione dei modelli teorici che hanno portato alla nascita della programmazione ad agenti, in particolare del modello BDI, e dei principali framework per lo sviluppo di sistemi multi-agente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La determinazione della qualità dell’olio vergine di oliva e la definizione dell’appartenenza del prodotto ad una specifica categoria merceologica (extra vergine, vergine, lampante) può essere ottenuta mediante la valutazione organolettica effettuando il Panel test. Quest’ ultimo è attuato da un gruppo di assaggiatori esperti (panel), guidati da un capo-panel, e ha l’obiettivo di identificare e quantificare i principali attributi sensoriali (positivi e negativi) stabilendo, sulla base dei risultati, la categoria merceologica di appartenenza del prodotto. Lo scopo di questo lavoro di tesi è stato quello di valutare l’applicabilità di un metodo strumentale che, attraverso un approccio di screening rapido, possa supportare l’analisi sensoriale, fornendo una discriminazione degli oli analizzati in funzione della loro qualità (categoria merceologica). Per tale finalità, un set di 42 oli di oliva vergini provenienti dalla Spagna e dalla Croazia, classificati nelle tre categorie merceologiche sulla base del Panel test, è stato analizzato mediante guida d’onda che ha consentito di esaminare le forme d’onda, sia del guadagno che della fase, nell’intervallo di frequenza 1,6 -2,7 GHz. Dai risultati ottenuti, per diversi intervalli di frequenza gli spettri del guadagno sembrano essere influenzati dalla categoria merceologica. Inoltre, l’analisi delle componenti principali (PCA), condotta a partire da tale informazione spettrale, ha consentito, in linea generale, la discriminazione tra oli extra vergini, vergini e lampanti. Infine, la successiva Hierarchical Cluster Analysis ha permesso di identificare clusters distinti per i campioni lampanti e quelli extra vergini e vergini.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’incidenza di patologie cardiovascolari come ipertensione e aterosclerosi è in progressivo aumento nel mondo, sia a causa del maggiore sviluppo di fattori di rischio quali obesità, sedentarietà e diabete, dovuti al tenore di vita che caratterizza la popolazione, specialmente quella risiedente in paesi sviluppati e con un alto tenore di vita, sia a causa dell’aumento dell’aspettativa di vita. Sembra quindi possibile considerare la complianza arteriosa totale e, in particolare, la complianza del primo tratto di aorta come un importante indice per la prevenzione e la valutazione del rischio della patologia arteriosa. La valutazione di questo parametro è però difficile da effettuare in vivo, motivo per cui diversi metodi sono stati sviluppati, alcuni basati sul modello Windkessel a due elementi, modello della circolazione sistemica proposto per la prima volta da Otto Frank nel 1899, altri su quello a tre. I primi risultano più accurati dei secondi. Tra i metodi di stima della complianza arteriosa totale ve ne è uno, il Pulse Pressure Method (PPM), ovvero metodo della pressione differenziale che, introdotto per la prima volta da Stergiopulos nel 1994, si è dimostrato essere tanto semplice quanto accurato. Questo consiste nel trovare il miglior valore di complianza che minimizzi, dopo opportune iterazioni, l’errore tra la pressione differenziale misurata, e quella calcolata in uscita da un modello Windkessel a due elementi. I vantaggi nell’uso di questo metodo non sono pochi: esso infatti non richiede flusso nullo in aorta ed è perciò applicabile in qualsiasi punto dell’albero arterioso, fornisce il valore della complianza alla pressione media Pm e necessita della sola conoscenza della pressione differenziale aortica e del flusso aortico, ottenibili non invasivamente. Studiando i risultati ottenuti, infine, si è visto come l’aorta prossimale, ovvero il tratto di aorta ascendente e l’arco aortico, sia il principale determinante della complianza arteriosa totale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La maggior parte della rete viaria nazionale ha superato i 50 anni di vita, essendo stata progettata tra il dopo guerra e i primi anni ’70. Di conseguenza, le infrastrutture come ad esempio ponti e viadotti sono caratterizzate da un generalizzato stato di degrado. Nell’ottica delle verifiche di sicurezza delle opere in C.A.P. esistenti, quindi, conoscere la precompressione residua di un determinato elemento, con un certo grado di affidabilità, permette di valutare la necessità di intervento o meno sullo stesso. Tra le tecniche diagnostiche in maggior diffusione vi è quella del rilascio tensionale, che consiste nello stimare l’attuale stato di precompressione agente su specifiche sezioni di elementi precompressi a partire dal rilascio di deformazione di precompressione, agente sul calcestruzzo, isolandone una porzione tramite una serie di tagli fino al raggiungimento del completo rilascio. Esistono varie tecniche di rilascio tensionale ma nella letteratura scientifica non esiste ancora una robusta validazione di questi metodi dal punto di vista dell’affidabilità e dell’accuratezza. In questo lavoro di tesi sono state affrontate due tecniche, riconducibili a due macrogruppi di metodi di misura: metodo tramite la realizzazione di tagli inclinati o perpendicolari rispetto alla superficie del manufatto in calcestruzzo, al fine di estrarre un provino tronco piramidale; metodo tramite l’estrazione di una carota perpendicolare alla superficie del manufatto in calcestruzzo. L’obiettivo prefissato era la valutazione delle prove in termini di attendibilità dei risultati con, inoltre, una particolare attenzione all’invasività nei confronti della struttura e alla ripetibilità in situ. Per il lavoro di tesi sono state realizzate 10 colonne in cemento armato (C.A.) a cui, al fine di simulare uno stato di precompressione, è stata applicata una tensione nota di compressione per poi procedere con le prove di rilascio tensionale tramite i metodi considerati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tematica al centro della tesi è la valutazione della stabilità del versante roccioso in cui si colloca la tomba Lattanzi, facente parte della necropoli Norchia (VT), e la proposta preliminare di interventi a basso impatto per la conservazione del sito. Le attività svolte sono riportate di seguito: - inquadramento geografico, storico ed archeologico della necropoli di Norchia e della tomba Lattanzi; - inquadramento geologico e geomorfologico sviluppato consultando la carta geologica d’Italia in scala 1:50.000 e carte tematiche riguardanti la zona di interesse, comprese quelle del progetto IFFI (Inventario dei Fenomeni Franosi in Italia); - inquadramento sismico dell’area, condotto a partire dai dati forniti dall’INGV per il comune di Viterbo; - inquadramento meteo-climatico del comune di Viterbo; - inquadramento topografico attraverso nuvola di punti generata da rilievo laser scanner; - caratterizzazione fisica e meccanica del materiale roccioso tramite prove di laboratorio; - caratterizzazione delle discontinuità tramite rilievi in situ; - classificazione tecnica dell’ammasso; - creazione di un modello geotecnico del sottosuolo; - analisi cinematica effettuata tramite il programma Dips®; - analisi con il metodo dell’equilibrio limite e analisi numerica effettuata tramite il programma Plaxis®; - elaborazione dei risultati ottenuti e proposte di intervento quali: Intervento con ancoraggi passivi e sottofondazione al piede della tomba con una muratura in conci di tufo. Le analisi svolte, seppur semplificate, consentono di definire i possibili fenomeni di instabilità del versante nelle condizioni attuali e, in una ottica di conservazione preventiva, di effettuare scelte di gestione del sito che evitino interventi impattanti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le stelle nate nelle galassie satelliti accresciute dalla MW durante il suo processo evolutivo, sono oggi mescolate nell'Alone Retrogrado della nostra Galassia, ma mantengono una coerenza chimica e dinamica che ci consente di identificarle e di ricostruirne l'origine. Tuttavia, investigare la chimica o la dinamica in maniera indipendente non è sufficiente per fare ciò. L'associazione di stelle a specifici eventi di merging basata esclusivamente sulla loro posizione nello spazio degli IoM può non essere univoca e portare quindi ad identificazioni errate o ambigue. Allo stesso tempo, la composizione chimica delle stelle riflette la composizone del gas della galassia in cui le stelle si sono formate, ma galassie evolutesi in maniera simile sono difficilmente distinguibili nei soli piani chimici. Combinare l'informazione chimica a quella dinamica è quindi necessario per ricostruire in maniera accurata la storia di formazione ed evoluzione della MW. In questa tesi è stato analizzato un campione di 66 stelle dell'Alone Retrogrado della MW (localizzate nei dintorni solari) combinando i dati fotometrici di Gaia e quelli spettroscopici ottenuti con PEPSI@LBT. L'obiettivo principale di questo lavoro è di associare univocamente le stelle di questo campione alle rispettive galassie progenitrici tramite l'utilizzo coniugato delle informazioni chimiche e cinematiche. Per fare questo, è stata prima di tutto ricostruita l'orbita di ognuna delle stelle. In seguito, l'analisi degli spettri dei targets ha permesso di ottenere le abbondanze chimiche. L'identificazione delle sottostrutture è stata effettuata attraverso un'analisi chemo-dinamica statisticamente robusta, ottenuta tramite l'applicazione di un metodo di Gaussian Mixture Model, e l'associazione finale ai relativi progenitori, nonchè la loro interpretazione in termini di strutture indipendenti, è stata eseguita accoppiando questa informazione con la composizione chimica dettagliata di ogni stella.