1000 resultados para Analisi Layout,simulazione,ottimizzazione,analisi dei flussi,magazzino
Resumo:
I materiali compositi rivestono un ruolo fondamentale nell’industria aeronautica e nel settore delle competizioni automobilistiche. La possibilità di progettare i materiali in funzione della loro applicazione permette una crescente diffusione del loro utilizzo, e l’ampliamento delle applicazioni a moltissimi altri settori, sia per componenti di tipo strutturale, sia di tipo estetico. Nonostante la quantità di studi sul comportamento a fatica dei compositi, non sono ancora presenti risultati attendibili per la previsione della resistenza e della vita a fatica in relazione ad un determinato tipo di sollecitazione; non almeno a livello dei materiali tradizionali. L’obiettivo della tesi è indagare eventuali variazioni del comportamento a fatica di un laminato in CFRP in relazione al variare di parametri quali dimensioni e sequenza di impilamento delle ply. Per tale scopo sono state realizzate delle prove per il calcolo del comportamento a fatica, in particolare prove di flessione in 3 punti, e si sono poi confrontati tra loro i risultati sperimentali e correlati al variare dei parametri di interesse.
Resumo:
Analisi di un sistema per il posizionamento e la movimentazione di sensori in galleria del vento. In particolare l’analisi è stata focalizzata sul sistema di movimentazione sonde (traversing) presente nel long-pipe in CICLoPE (Center for International Cooperation in Long Pipe Experiments). La struttura menzionata nasce per far fronte ad alcuni dei limiti presenti negli attuali laboratori fluidodinamici per lo studio della turbolenza ad alti numeri di Reynolds. Uno degli obiettivi del centro è quello di caratterizzare le più piccole strutture caratteristiche della turbolenza. Al fine di permettere tale studio era necessario migliorare il traversing esistente per ottenere movimenti ad alta precisione, in modo da raggiungere lo stesso ordine di grandezza delle scale più piccole della turbolenza. Il miglioramento di tale strumentazione è stato necessario anche per fornire un valido supporto alle metodologie esistenti per la determinazione della distanza tra sonde e parete, che resta una delle difficoltà nello studio della turbolenza di parete. L’analisi del traversing, svolta attraverso più test, ha fatto emergere problemi sia nella struttura del sistema, sia nel software che gestisce il motore per la movimentazione. La riprogrammazione del software e la rettifica di alcuni componenti del sistema hanno permesso di eliminare gli errori emersi. Le piccole imprecisioni restanti durante la movimentazione, non eliminabili con un’implementazione software, verranno totalmente superate grazie all’impiego del nuovo motore dotato di un encoder rotativo che sarà in grado di retroazionare il sistema, fornendo il reale spostamento effettuato.
Resumo:
L’installazione di smorzatori viscosi sulle strutture permette di dissipare l’energia che il sisma trasmette, senza provocare danni o rotture degli elementi strutturali principali. Questi dispositivi sono stati l'oggetto di numerosi lavori di ricerca dal 1980 fino ad oggi e l'efficacia nel mitigare gli effetti dell’azione sismica su strutture edilizie è stata ampiamente dimostrata. La maggior parte delle teorie scientifiche per la progettazione e l'ottimizzazione degli smorzatori si basano sofisticati algoritmi, portando talvolta a complessi procedure. L'applicazione di tali algoritmi richiede spesso competenze computazionali e di tempo eccessive. Il fine della tesi è quello di proporre un metodo pratico, cioè diretto e immediato per aiutare gli ingegneri per effettuare analisi sismiche su strutture intelaiate dotate di smorzatori viscosi e di dimensionare tali dispositivi. Tale metodo è stato l’oggetto del lavoro di ricerca scientifica trattato nell’articolo: “Equivalent Static Analyses of framed structures with added viscous dampers” di Palermo et al., 2015. Si riesce così ad estendere così il concetto di analisi statica equivalente anche per strutture dotate di smorzatori viscosi, definendo in maniera intuitiva sia le configurazioni di idealizzazione della strutture durante il sisma sia l’ idealizzazione dell’effetto del sisma sulla struttura. In questi anni di lavoro di ricerca, sono stati proposti vari metodi per il dimensionamento degli smorzatori viscosi. Tra questi, il prof. Ing. Silvestri (Silvestri et al., 2010) ha proposto un approccio progettuale diretto, chiamato "five step procedure” che mira a guidare l'ingegnere professionista, dalla scelta del target di prestazioni alle identificazioni della caratteristiche meccaniche di smorzatori viscosi trovabili in commercio. La procedura originale (Silvestri et al., 2010, Silvestri et al., 2011, Palermo et al., 2013), anche se per lo più basata su espressioni analitiche, richiede ancora lo sviluppo di analisi numeriche Time-History di modelli FEM, al fine di valutare le forze massime negli smorzatori aggiunti. Verrà spiegato e proposto un metodo semplificato (“Direct five step procedure for the dimensioning of added viscous dampers” Palermo et al., 2015) che consente ottenere direttamente, tramite una semplice formula, le forze massime degli smorzatori (spesso un parametro chiave della valutazione del costo degli smorzatori), senza eseguire simulazioni numeriche. Infine, si è applicato il metodo semplificato proposto di analisi statica equivalente per strutture equipaggiate di smorzatori viscosi ad un edificio reale.
Resumo:
Negli ultimi quindici anni il traffico aereo passeggeri in Italia è stato interessato da un cospicuo incremento: si è passati dai 91 milioni di passeggeri nel 2000 ai 150 milioni nel 2014. Le previsioni di crescita per il Paese indicano il possibile raddoppio del traffico entro il 2030, quando si dovrebbe raggiungere la soglia dei 300 milioni di passeggeri, con un aumento soprattutto della quota parte internazionale. Non vi può essere sviluppo economico di uno Stato senza crescita del traffico aereo, la quale si può realizzare solo con un adeguamento e un potenziamento delle capacità delle infrastrutture aeroportuali compatibile con le condizioni ambientali e un’efficace interconnessione degli scali con gli altri modi di trasporto. Infatti la pianificazione e la progettazione degli aeroporti non può prescindere da un’analisi approfondita sugli impatti ambientali prodotti dalle attività svolte all’interno degli scali. Inoltre l’incremento del numero medio di passeggeri per movimento (dal 75 pax/mov nel 2000 a 106 pax/mov nel 2011, dato riferito al traffico nazionale) rappresenta un dato positivo dal punto di vista ambientale: nei cieli vola un minor numero di aeromobili, ma in grado di trasportare un maggior numero di passeggeri, con conseguente diminuzione del numero dei movimenti, quindi del rumore, delle emissioni e dell’inquinamento ambientale provocato dalle operazioni necessarie a garantire l’operatività di ciascun volo. La salvaguardia dell’ambiente per un aeroporto è un compito difficile e oneroso, poiché può creare problemi ambientali come inquinamento acustico, dell’aria, delle acque fondiarie e trattamento dei rifiuti. In particolare, scopo di questo elaborato è studiare l’impatto che le operazioni svolte in air-side provocano sulla qualità delle acque di dilavamento, osservando e analizzando le attività che avvengono presso l’Aeroporto G. Marconi di Bologna. Si intende svolgere un censimento delle operazioni che influenzano la qualità delle acque (sia direttamente sia a seguito del dilavamento delle pavimentazioni aeroportuali), indagando quali siano i soggetti coinvolti, le procedure da eseguire, la frequenza e gli eventuali mezzi impiegati. Poi si vogliono eseguire analisi chimiche e granulometriche con un duplice obiettivo: conoscere la qualità delle acque raccolte dalle caditoie presenti nel piazzale e a bordo pista e verificare l’efficacia delle operazioni eseguite anche per ridurre il build up, cioè il tasso di accumulo in tempo secco e, di conseguenza, l’apporto di inquinanti riversato nelle acque di dilavamento. Infine si propongono interventi volti a incrementare la sostenibilità ambientale dell’infrastruttura aeroportuale, con particolare attenzione alla riduzione dell’inquinamento idrico.
Resumo:
Si è calcolata la percentuale di metalli rimossi (R%) da fly ash e scarti industriali ceramici sottoposti a vari tipi di leaching con acqua deionizzata, acido solforico (pH1), attacco alcalino (pH14) e trattamento combinato acido-alcalino. Il parametro R è molto importante perché è in grado di fornire un’indicazione riguardo l’effettiva efficacia di un tipo di leaching rispetto ad un altro. Così facendo è possibile valutare la reale fattibilità del recupero di materie prime critiche (secondo la Commissione Europea) da questi rifiuti. Per quanto riguarda il recupero da fly ash, il trattamento con leaching acido si dimostra il più valido per numero di elementi e percentuale di recupero. Tuttavia, anche se il leaching combinato per certi aspetti può sembrare migliore, bisogna anche considerare i costi di lavorazione, che in questo caso aumenterebbero sensibilmente. Per quanto riguarda gli scarti ceramici, è il leaching combinato a mostrare il miglior potenziale di rimozione dei metalli critici, sia in termini di percentuali che per il numero di elementi rimossi.
Resumo:
Dalle rilevazioni PISA condotte dall'OCSE nel 2003, gli studenti finlandesi sono risultati i migliori in Europa in capacità di lettura e competenze matematiche. Vari esperti in didattica si sono quindi interrogati cercando quali aspetti rendessero eccellente il sistema finlandese. Altri, invece, hanno sostenuto che le prove PISA rilevassero solo alcune abilità senza tener conto delle conoscenze apprese a scuola, quindi il successo finlandese potrebbe essere dovuto al caso. Infatti nei test TIMSS, gli alunni finlandesi hanno avuto risultati mediocri. La tesi cerca di spiegare i “segreti” del sistema scolastico finlandese e di confrontarlo con la scuola italiana. Sono state osservate in loco le lezioni di matematica in alcune classi campione di una scuola finlandese all’ottavo e nono anno di scolarità. Si analizza la didattica sotto diversi punti di vista e si confrontano i libri di testo finlandesi e italiani su uno specifico argomento ritenuto di cruciale importanza: i polinomi. Si evidenzia che la differenza nei risultati delle rilevazioni non dipende tanto dalle differenze dei sistemi scolastici quanto all'impostazione culturale dei giovani finlandesi.
Resumo:
L’obiettivo del presente lavoro è illustrare la creazione di due corpora bilingui italiano-inglese di libretti d’opera di Giuseppe Verdi, annotati e indicizzati, e descrivere le potenzialità di queste risorse. Il progetto è nato dalla volontà di indagare l’effettiva possibilità di gestione e consultazione di testi poetici tramite corpora in studi translation-driven, optando in particolare per il genere libretto d’opera in considerazione della sua complessità, derivante anche dal fatto che il contenuto testuale è fortemente condizionato dalla musica. Il primo corpus, chiamato LiVeGi, si compone di cinque opere di Giuseppe Verdi e relativa traduzione inglese: Ernani, Il Trovatore, La Traviata, Aida e Falstaff; il secondo corpus, nominato FaLiVe, contiene l’originale italiano dell’opera Falstaff e due traduzioni inglesi, realizzate a circa un secolo di distanza l’una dall’altra. All’analisi del genere libretto e delle caratteristiche principali delle cinque opere selezionate (Capitolo 1), segue una panoramica della prassi traduttiva dei lavori verdiani nel Regno Unito e negli Stati Uniti (Capitolo 2) e la presentazione delle nozioni di Digital Humanities e di linguistica computazionale, all’interno delle quali si colloca il presente studio (Capitolo 3). La sezione centrale (Capitolo 4) presenta nel dettaglio tutte le fasi pratiche di creazione dei due corpora, in particolare selezione e reperimento del materiale, OCR, ripulitura, annotazione e uniformazione dei metacaratteri, part-of-speech tagging, indicizzazione e allineamento, terminando con la descrizione delle risorse ottenute. Il lavoro si conclude (Capitolo 5) con l’illustrazione delle potenzialità dei due corpora creati e le possibilità di ricerca offerte, presentando, a titolo d’esempio, due case study: il linguaggio delle protagoniste tragiche nei libretti di Verdi in traduzione (studio realizzato sul corpus LiVeGi) e la traduzione delle ingiurie nel Falstaff (attraverso il corpus FaLiVe).
Resumo:
Lo sviluppo tecnologico e la nascita di Internet ha portato alla costituzione di un nuovo canale di comunicazione il quale costituisce, insieme all'uso dei sistemi informatici, un veicolo per la realizzazione di illeciti. Lo scopo di questa tesi di laurea è di presentare e analizzare in modo critico i principali reati informatici. Le ricerche sono state effettuate attraverso diverse banche dati, lettura di libri e vari articoli. La tesi espone al primo capitolo una panoramica storica e generale sui reati informatici. Nel secondo capitolo viene esaminata la Legge 23 dicembre 1993 n. 547. Il terzo capitolo è il cuore della tesi e analizza i principali reati informatici insieme a relativi casi giuridici. Il quarto ed ultimo capitolo, esamina l'esigenza di avere una normativa comune tra i vari stati del mondo. La trattazione fornisce un quadro d'insieme sul dilagante fenomeno dei crimini informatici, seguito da un'analisi approfondita dei singoli reati. La ricerca e lo studio dei casi reali hanno consentito di concretizzare la normativa teorica.
Resumo:
La tesi affronta la tematica dei problemi cardiaci riscontrati in alcuni pazienti, a seguito del trattamento sanitario con procedure chemioterapiche. In particolar modo si concentra sugli effetti collaterali derivanti dalle cure somministrate ad individui affetti da tumori mammari, che, a causa di questa condizione, subiscono terapie mirate a livello del torace. La cardiotossicità che si presenta nei casi precedentemente indicati è di tipo acuto, o cronico. Il lavoro si prefigge lo scopo di analizzare una metodologia che identifichi e riscontri in tempo il manifestarsi della cardiotossicità, basandosi su alcuni sintomi e segnali, per evitare il manifestarsi del tipo cronico. Per raggiungere questo obiettivo si è studiato l'utilizzo di apparecchiature per l’ecocardiografia, che sono poco invasive e presentano una quantità di effetti collaterali estremamente ridotta. L’elaborato è suddiviso in quattro capitoli: 1. Il primo capitolo è dedicato al "Cuore". Nei diversi sottocapitoli ci si concentra sulla parte anatomica e sulla fisiologia dello stesso. Il sottocapitolo più importante è quello sulla "Cardiotossicità", tema centrale del lavoro, in cui sono spiegati i meccanismi con cui si manifesta, quali farmaci la causano e per quali motivi. 2. Il secondo capitolo si occupa dell’apparecchiatura usata durante lo studio del cuore, cioè l'ecografo. Dopo una breve introduzione sulle proprietà fisiche degli ultrasuoni, ci si concentra sulla struttura dell’apparecchiatura. In particolare ci si focalizza sugli strumenti per ecografie cardiache volumetriche. 3. Il terzo capitolo è dedicato al software TOMTEC. Si descrive in quali modalità si utilizza, in che maniera, e quali parametri identifica per l'eventuale riscontro di episodi di cardiotossicità. In uno dei sottocapitoli è descritto nel dettaglio il database creato dall’autrice per la raccolta dei dati relativi ai pazienti trattati. 4. L'ultimo capitolo è dedicato alla conclusioni, in cui si sottolinea l'importanza della ricerca di meccanismi per prevenire l'insorgere di malattie cardiache in pazienti già sottoposti a pesanti cicli di terapia.
Resumo:
Il riconoscimento di impronte digitali viene largamente utilizzato in molteplici ambiti, dai sistemi di sicurezza alle applicazioni forensi. La maggior parte dei sistemi automatici di riconoscimento si basa sull'estrazione e il confronto delle minuzie nelle impronte digitali, ma l’accuratezza di queste operazioni peggiora sensibilmente in presenza di impronte di scarsa qualità, fino ad arrivare anche a compromettere il riconoscimento stesso. In questo lavoro di tesi ci si è posto come obiettivo il miglioramento delle prestazioni di un algoritmo di estrazione delle minuzie, attraverso l’utilizzo di varie tecniche per l’analisi di qualità locale delle impronte digitali.
Resumo:
Lo scopo di questa tesi è quello di evidenziare, attraverso varie analisi statistiche ed applicazione di modelli stocastici, il comportamento strutturale e funzionale dei dinucleotidi che compongono le sequenze di DNA di diversi organismi. Gli organismi che abbiamo scelto di prendere in considerazione sono l'uomo, il topo e l'Escherichia coli. Questa scelta non è stata casuale, ma oculata, al fine di mettere in risalto alcune differenze tra organismi eucarioti, quali l'uomo e il topo, ed organismi procarioti come il batterio E.coli. Nella prima parte del nostro studio, abbiamo computato le distanze che intercorrono tra occorrenze successive dello stesso dinucleotide lungo la sequenza, usando un metodo di non sovrapposizione, ed abbiamo iterato il calcolo per tutti i 16 dinucleotidi. Dopodiché ci siamo preoccupati di graficare le distribuzioni di distanza dei 16 dinucleotidi per l'E.Coli, il topo e l'uomo; gli istogrammi evidenziano un comportamento anomalo della distribuzione di CG che accomuna gli organismi eucarioti e di cui, invece, è esente l'organismo procariote esaminato. Questo dato statistico trova una spiegazione nei processi biologici di metilazione che possono innescarsi sul dinucleotide CG nelle sequenze eucariotiche. In seguito, per determinare quanto ciascuna delle 16 distribuzioni si discosti dalle altre abbiamo usato la divergenza di Jensen-Shannon. Per quantificare le differenze sostanziali tra le distribuzioni di CG dei 3 organismi considerati abbiamo deciso di verificare quale fosse il miglior fit per tali curve tra un esponenziale ed una power-law. L'esponenziale rappresenta un buon fit per le code delle distribuzioni di CG del topo e dell'uomo; ciò rivela la presenza di una lunghezza caratteristica per entrambi gli organismi. Nella seconda parte dello studio, i risultati vengono confrontati con modelli markoviani: sequenze random generate con catene di Markov di ordine zero (basate sulle frequenze relative dei nucleotidi) e uno (basate sulle probabilità di transizione tra diversi nucleotidi). Quest'ultima riproduce abbastanza fedelmente la sequenza biologica di partenza, per cui abbiamo scelto di utilizzare la catena Markov del 1° ordine per altre analisi statistiche riguardanti le distribuzioni dei nucleotidi, dinucleotidi, ed anche dei trinucleotidi con particolare interesse per quelli in cui è contenuto CG, in modo da verificare se l'anomalia si ripercuote anche in essi. Riteniamo pertanto che metodi basati su questo approccio potrebbero essere sfruttati per confermare le peculiarità biologiche e per migliorare l'individuazione delle aree di interesse, come le isole CpG, ed eventualmente promotori e Lamina Associated Domains (LAD), nel genoma di diversi organismi.
Resumo:
Obiettivo di questo progetto è stato la traduzione dello humour nei prodotti audiovisivi, attraverso il sottotitolaggio in italiano di una puntata del talk-show russo “Večernij Urgant”. Il primo capitolo è dedicato alla descrizione dei generi televisivi, in particolare del macrogenere dell’intrattenimento, alle teorie sulla traduzione dello humour nei testi audiovisivi e alle tecniche di analisi e classifica degli elementi umoristici. Nel secondo capitolo viene presentato il format e la struttura del talk-show, la puntata scelta, la numero 403 trasmessa il 12.12.2014, e la proposta di sottotitolaggio. Il terzo e ultimo capitolo riguarda l’analisi e il commento della proposta di sottotitolaggio, le principali difficoltà di traduzione dello humour e le strategie utilizzate per risolverle.
Resumo:
Questo lavoro di tesi nasce per fornire un contributo originale alle ricerche già portate avanti dal gruppo di didattica della fisica volte a rispondere a tre principali esigenze evidenziate dai report europei: rendere la cittadinanza sempre più attiva e sensibile verso azioni di mitigazione e adattamento ai cambiamenti climatici, orientare i giovani verso professioni in settori denominati dall’acronimo STEM (Scienza, Tecnologia, Ingegneria e Matematica), colmare il divario tra le competenze possedute da chi entra nel mondo del lavoro e quelle richieste dalle aziende che operano in campo tecnologico per affrontare le sfide dello sviluppo e dell’innovazione. Per integrare le tre esigenze, il gruppo di ricerca ha avviato nell’ultimo anno una collaborazione con l’Area della Ricerca dell’Università di Bologna (ARIC) al fine di individuare modalità per fare entrare gli strumenti di progettazione noti come Project Cycle Management (PCM) e Goal Oriented Project Planning (GOPP) nelle scuole e sviluppare competenze progettuali a partire dall’analisi di tipo logico dei problemi in situazioni complesse. La collaborazione ha portato alla produzione di nuovi materiali sui cambiamenti climatici finalizzati a guidare gli studenti ad analizzare documenti di sintesi dei report dell’IPCC con tecniche di analisi per problemi e obiettivi tipiche del PCM e del GOPP e, quindi, a progettare azioni di mitigazione o adattamento. Il lavoro di tesi si colloca in questo contesto e si è concretizzato nell’analisi di una sperimentazione realizzata in una classe IV del Liceo Scientifico “A. Einstein” di Rimini tra aprile e maggio, 2015.
Resumo:
L’obiettivo del presente lavoro di tesi è stato quello di analizzare i campioni di otoliti delle due specie del genere Mullus (Mullus barbatus e Mullus surmuletus) per mezzo dell’Analisi Ellittica di Fourier (EFA) e l’analisi di morfometria classica con gli indici di forma, al fine di verificare la simmetria tra l’otolite destro e sinistro in ognuna delle singole specie di Mullus e se varia la forma in base alla taglia dell’individuo. Con l’EFA è stato possibile mettere a confronto le forme degli otoliti facendo i confronti multipli in base alla faccia, al sesso e alla classe di taglia. Inoltre è stato fatto un confronto tra le forme degli otoliti delle due specie. Dalle analisi EFA è stato possibile anche valutare se gli esemplari raccolti appartenessero tutti al medesimo stock o a stock differenti. Gli otoliti appartengono agli esemplari di triglia catturati durante la campagna sperimentale MEDITS 2012. Per i campioni di Mullus surmuletus, data la modesta quantità, sono stati analizzati anche gli otoliti provenienti dalla campagna MEDITS 2014 e GRUND 2002. I campioni sono stati puliti e analizzati allo stereomicroscopio con telecamera e collegato ad un PC fornito di programma di analisi di immagine. Dalle analisi di morfometria classica sugli otoliti delle due specie si può sostenere che in generale vi sia una simmetria tra l’otolite destro e sinistro. Dalle analisi EFA sono state riscontrate differenze significative in tutti i confronti, anche nel confronto tra le due specie. I campioni sembrano però appartenere al medesimo stock. In conclusione si può dire che l’analisi di morfometria classica ha dato dei risultati congrui con quello che ci si aspettava. I risultati dell’analisi EFA invece hanno evidenziato delle differenze significative che dimostrano una superiore potenza discriminante. La particolare sensibilità dell’analisi dei contorni impone un controllo di qualità rigoroso durante l’acquisizione delle forme.
Resumo:
Siracusa, importante città della Sicilia sud orientale, si affaccia sul Mar Ionio ed è situata in una zona altamente esposta al pericolo di tsunami, di tipo locale e non: fra i numerosi eventi che hanno colpito quest’area si ricordano i maremoti dell’11 gennaio 1693 e del 28 dicembre 1908. L’obiettivo di questa Tesi è studiare la vulnerabilità sociale, esposizione e rischio legati a un’eventuale inondazione di Siracusa dovuta a tsunami. Il presente lavoro è strutturato come segue. Innanzitutto, si fornisce una descrizione della regione interessata illustrandone gli aspetti geografici e geologici e tracciando una breve sintesi della sequenza degli tsunami che l’hanno colpita. Successivamente si prende in esame la vulnerabilità, in particolare la vulnerabilità sociale, facendo un breve excursus dei concetti e delle metodologie di analisi. Nella Tesi lo studio della vulnerabilità sociale sarà diviso in tre fasi che si differenziano sia per l’approccio utilizzato che per le dimensioni dell’area in esame. Nella prima fase viene studiata tutta la costa orientale della Sicilia con l’obiettivo di calcolare la vulnerabilità sociale su base comunale. Per ogni comune della costa verrà calcolato un indice di vulnerabilità noto nella letteratura specialistica come SoVI (Social Vulnerability Index). Nella seconda fase ci si concentra sul comune di Siracusa e si stima il numero di persone potenzialmente colpite da tsunami sulla base di dati statistici disponibili a livello municipale. La terza fase consiste in un’analisi ancora più dettagliata che studia puntualmente le strutture che si trovano nella zona inondata e quantifica il danno sia per le persone che per le costruzioni considerando per queste ultime anche il loro valore economico.