999 resultados para Casalecchio di RenoRomainvilleAnalisi comparataPianificazione dei trasportiRiqualificazione strade
Resumo:
La crisi energetica che sta investendo l’Italia e l’Europa e la contestuale necessità di raggiungere gli obiettivi che la comunità internazionale si è preposta per uno sviluppo sostenibile stanno spingendo sempre di più verso l’utilizzo di fonti energetiche alternative. In questo contesto il gas naturale liquefatto (LNG) può assumere un ruolo chiave per il trasporto a lunghe distanze.Il gas naturale liquefatto fa parte della classe dei liquidi criogenici. Uno dei problemi principali dei liquidi criogenici riguarda gli aspetti di sicurezza come, ad esempio, il comportamento del liquido criogenico in seguito ad un rilascio accidentale.Questo lavoro di tesi si è focalizzato sulla caratterizzazione sperimentale del flusso l’evaporazione di liquidi criogenici.Per condurre lo studio, per motivi di sicurezza, è stato utilizzato l’azoto liquido (LN2), liquido con caratteristiche criogeniche simili all’LNG, ma non reattivo. Analisi preliminari hanno evidenziato come il contributo legato allo scambio termico per conduzione sia quello preponderante per la determinazione del flusso evaporante. Per questo motivo, lo sversamento è stato eseguito su diverse tipologie di substrato, rappresentative dei materiali più comuni e che plausibilmente possano andare a contatto con liquidi criogenici. Nello specifico sono stati valutati i seguenti substrati: ghiaia, sabbia, terreno secco, terreno umido e cemento. In seguito, è stato valutato il profilo di massa, velocità di evaporazione e temperatura rispetto al tempo per comprendere la durata della fase evaporativa e i principali fenomeni coinvolti. La velocità media e massima di evaporazione è risultata fortemente influenzata dalle proprietà fisiche del substrato e dalla presenza di acqua al suo interno.I dati raccolti rappresentano un passo in avanti fondamentale per la caratterizzazione del comportamento dei liquidi criogenici in atmosfera, favorendo la progettazione di tecnologie e procedure opportune per il loro utilizzo in sicurezza.
Resumo:
Nel campo della meccanica uno dei metodi di fissaggio maggiormente utilizzati è il fissaggio per attrito con elementi filettati. Il collegamento tra gli elementi è generato dall’accoppiamento tra i filetti di vite e madrevite, che, una volta precaricati, aderiscono impedendo il movimento reciproco tramite la forza di attrito. Uno dei problemi, però, che si riscontra sull’utilizzo dei giunti filettati è relativo alla resistenza a fatica. Precisamente, gli organi in esame presentano una geometria altamente intagliata: infatti, i filetti, fungono da centri di intensificazione degli sforzi. Per mitigare il fenomeno occorrerebbe diminuire la rigidità della vite, ma ciò comporterebbe un rischio di perdita del precarico con conseguente riduzione di efficacia del collegamento. Si è mostrato, tuttavia, che vi è un possibile metodo alternativo per migliorare la resistenza a fatica delle viti: si è notato che le viti snervate, tramite un serraggio, presentano un limite a vita finita maggiore rispetto a quelle standard. Lo scopo di questo lavoro di tesi è di oggettivare l’incremento del limite di fatica generato da uno snervamento, verificare l’effettivo miglioramento anche sulla vita infinita e dedurne le motivazioni, mediante prove. A tal fine, sono state prese in considerazione diverse tipologie di provini, nello specifico viti M8 di classe 8.8 e 12.9, per verificare l’influenza della resistenza meccanica sull’incremento del limite. I test prevedono anche una breve parentesi sui benefici portati dall’utilizzo di un dado rialzato, in particolare viene mostrato come l’aumento del numero di filetti in presa vada ad esaltare il fenomeno analizzato. Una volta oggettivato l’aumento di resistenza a fatica e avanzate alcune ipotesi sulle cause del fenomeno, è stato sviluppato un modello agli elementi finiti, con semplificazioni volte a ridurre il tempo di calcolo, al fine di studiare la distribuzione degli stress in fase di serraggio per validare le assunzioni avanzate.
Resumo:
L'elaborato di tesi prende in esame il processo di produzione della linea “Pordenone”, in funzione nello stabilimento forlivese, di Electrolux S.P.A., azienda leader mondiale nella produzione di elettrodomestici e apparecchiature per l'uso domestico. Ragione del presente studio è l’acquisizione dell’opportuna comprensione del funzionamento dell’impianto al fine di individuare le inefficienze, le causali di fermata per la pianificazione della produzione o per gli interventi di manutenzione correttiva dei guasti, in modo da poter suggerire azioni di miglioramento. Per monitorare il processo di produzione è stato applicato all'oggetto di indagine lo studio del diagramma di Pareto, che ha permesso di evidenziare le principali causali all'origine della riduzione di produttività. Oltre a suggerire ipotesi di azioni di miglioramento, si è sottolineata l'importanza del coinvolgimento motivazionale degli operatori nelle procedure di lavoro, e l'opportunità di una maggiore implementazione del sistema informatico. Ragioni di carattere economico o di sicurezza dell'operatore, non hanno permesso di accogliere alcuni suggerimenti proposti, mentre sono state apportate migliorie nella produzione attraverso la riduzione delle fermate di lavoro. Nell'attuale clima di incertezza produttiva e di calo di domanda da parte di alcuni mercati, non è facile elaborare strategie di produzione innovative, tali da garantire la qualità del prodotto offerto e i risultati economici attesi, nel rispetto autentico dell'ambiente della collettività. Tuttavia, si ritiene che le informazioni generate da un adeguato monitoraggio del sistema offrano la possibilità di guardare avanti verso i progressi, piuttosto che concentrare la propria attenzione sulle opportunità mancate, e che le stesse informazioni possano trasformare l'agire dalla reattività (azione dopo il fatto) alla proattività (agire in anticipo) per migliorare efficacemente il processo di produzione.
Resumo:
Gli obiettivi di questi tesi sono lo studio comparativo di alcuni DBMS non relazionali e il confronto di diverse soluzioni di modellazione logica e fisica per database non relazionali. Utilizzando come sistemi di gestione due DBMS Document-based non relazionali, MongoDB e CouchDB, ed un DBMS relazionale, Oracle, sarà effettuata un’analisi di diverse soluzione di modellazione logica dei dati in database documentali e uno studio mirato alla scelta degli attributi sui quali costruire indici. In primo luogo verrà definito un semplice caso di studio su cui effettuare i confronto, basato su due entità in relazione 1:N, sulle quali sarà costruito un opportuno carico di lavoro. Idatabase non relazionali sono schema-less, senza schema fisso, ed esiste una libertà maggiore di modellazione. In questo lavoro di tesi i dati verranno modellati secondo le tecniche del Referencing ed Embedding che consistono rispettivamente nell’inserimento di una chiave (riferimento) oppure di un intero sotto-documento (embedding) all’interno di un documento per poter esprimere il concetto di relazione tra diverse entità. Per studiare l’opportunità di indicizzare un attributo, ciascuna entità sarà poi composta da due triplette uguali di attributi definiti con differenti livelli di selettività, con la differenza che su ciascun attributo della seconda sarà costruito un indice. Il carico di lavoro sarà costituito da query definite in modo da poter testare le diverse modellazioni includendo anche predicati di join che non sono solitamente contemplati in modelli documentali. Per ogni tipo di database verranno eseguite le query e registrati i tempi, in modo da poter confrontare le performance dei diversi DBMS sulla base delle operazioni CRUD.
Resumo:
HP Composites, azienda leader nella produzione di componenti in fibra di carbonio, a seguito della crescita di ordini commissionati dai suoi clienti, ha deciso di affidare a dei fornitori la produzione di alcune commesse, in alcune o in tutte le fasi del loro ciclo. L’elaborato di tesi nasce da un’esperienza di tirocinio nell’ufficio pianificazione di HP Composites, e si pone l’obiettivo di analizzare tutte le attività che, evitando di dedicare risorse alle lavorazioni selezionate, deve compiere per supportare il fornitore; l’analisi è stata effettuata tramite la costruzione di un diagramma di flusso e fornendo un indicazione del tempo richiesto da ogni attività, per poi poi avanzare delle proposte di ottimizzazione. Il ciclo commessa può essere suddiviso in quattro fasi: scelta della commessa e selezione del fornitore, attivazione del fornitore, gestione settimanale dell’evasione degli ordini e gestione del fine commessa. L’ufficio acquisti nel tempo si è specializzato individuando i temi da chiarire prima di attivare la fornitura per evitare l’insorgere di problematiche a produzione già attivata. Per quanto riguarda la gestione settimanale del fornitore, è stato istituito il ruolo del responsabile delle esternalizzazioni, una figura che funga da intermediario con il fornitore e monitori la produzione esterna: questa figura apporta un'alta quantità di interazioni, ma HP valuta maggiori i vantaggi di questa gestione centralizzata. Inoltre nel tempo le attività pianificazione sono state ottimizzate grazie alla stesura di file precompilati da aggiornare. Un’attività fonte di inefficienza è quella dell’emissione dei documenti di trasporto, soprattutto nel caso in cui il compito di consegnare il prodotto al cliente è deputato al fornitore di conto lavoro: HP Composites ha intenzione di implementare un lettore barcode per l’emissione del documento che ridurrebbe i tempi richiesti dall’attività e permetterebbe una gestione del conto lavoro a sistema più corretta.
Resumo:
L'obiettivo di questo elaborato di tesi è la modellazione grafica delle cabine di pilotaggio di due elicotteri civili: si prevede una futura implementazione del modello di volo completo sul simulatore FlightGear. I due velivoli presi in considerazione sono stati sviluppati dall'azienda AgustaWestland e sono denominati AW109 e AW139. I modelli di volo sono composti da una parte grafica e dal modello dinamico del volo. La presente tesi si occupa del primo aspetto. Il lavoro di tesi è iniziato con una fase preliminare di ricerca che ha richiesto lo studio di come i modelli dinamici di volo siano implementati nel simulatore FlightGear; è stato, inoltre, approfondito l'utilizzo del linguaggio di markup XML necessario a descrivere il funzionamento e le caratteristiche dei velivoli in FlightGear. Ha fatto seguito la fase di scrittura dei file XML, facendo riferimento a modelli di elicotteri preesistenti e all'effettiva modellazione degli strumenti di bordo, attraverso il programma CAD Blender. Nella fase finale sono stati studiati e posizionati i vari strumenti principali di bordo, consultando i manuali degli elicotteri e ottenendo delle cabine di pilotaggio del tutto simili a quelle reali dei velivoli considerati. Gli sviluppi futuri di questo lavoro prevedono l'integrazione dei modelli grafici qui implementati nel modello di volo completo dei due elicotteri presi in considerazione.
Resumo:
Studio dei metodi di progettazione per lo sviluppo di eliche aeronautiche. Come caso di studio è stata scelta la progettazione di un’elica che ottimizzi le prestazioni del Risen, prodotto dalla Porto Aviation Group. Questo ultraleggero monta motore Rotax915IS, che eroga una potenza considerevolmente maggiore rispetto ai motori adottati in precedenza: sono state, quindi, progettate una serie di eliche in grado di convertire in maniera efficiente la coppia ricevuta in spinta nelle diverse fasi di volo del velivolo. E' incluso nella tesi uno studio di sensitività in cui è stato verificato come varia la spinta in funzione dei diversi parametri costruttivi dell'elica aeronautica. Lo sviluppo dell’elica avviene attraverso il seguente percorso: 1) definizione parametri di volo e funzionamento motore del velivolo a cui accoppiare l'elica, 2) studio delle prestazioni dell'aereo con le eliche già disponibili così da potere validare i calcoli, 3) stima delle prestazioni dell'aereo in seguito a variazioni delle caratteristiche geometriche della pala; 4) sintesi caratteristiche costruttive per ottenere una pala in grado di fornire prestazioni soddisfacenti in ogni fase del volo. Gli studi sono stati supportati da analisi su codici software commerciali, al fine di valutare l’influenza dei parametri costruttivi sulle prestazioni del velivolo a cui viene accoppiata l'elica. Lo studio ha condotto allo sviluppo di cinque pale, una delle quali presenta ottime prestazioni.
Resumo:
Il Raytracing è una delle tecniche più utilizzate per generare immagini fotorealistiche. Introdotto nel mondo del rendering da più di 40 anni, col tempo si è evoluto, e ad oggi è considerato la tecnica standard in industrie come VFX e film d'animazione. Il problema del Raytracing risiede nel fatto che per essere applicato, bisogna effettuare dei test d'intersezione, raggio-primitiva, con tutti gli oggetti presenti nella scena da renderizzare. Sebbene queste operazioni siano tutto sommato semplici, tipicamente il numero degli oggetti su cui vanno effettuate è talmente elevato che l'applicazione di questa tecnica diventa impraticabile. Per questo si è pensato di raggruppare le primitive in speciali strutture dati chiamate Strutture di accelerazione spaziale. Esse hanno il compito di ridurre il numero di test da effettuare, abbassando il costo asintotico della ricerca da lineare a sub-lineare (o logaritmico) nel numero di primitive. Nel corso degli anni sono state introdotte diverse strutture di accelerazione spaziale per il Raytracing, ognuna con le sue peculiarità, i suoi vantaggi ed i suoi svantaggi. In questa tesi verranno studiate alcune delle principali strutture di accelerazione spaziale (BVH, Uniform Grid ed Octree), concentrandosi in particolare sulle tecniche di costruzione ed attraversamento di ognuna di esse. Per farlo, verrà anche trattato tutto il background necessario sul Raytracing e Le strutture di accelerazione verranno anche implementate e messe a confronto su diverse scene. Il confronto permetterà di evidenziare come ognuna di esse porti dei vantaggi, e che non esiste una struttura di accelerazione assolutamente migliore delle altre.
Resumo:
Il rilevamento di intrusioni nel contesto delle pratiche di Network Security Monitoring è il processo attraverso cui, passando per la raccolta e l'analisi di dati prodotti da una o più fonti di varia natura, (p.e. copie del traffico di rete, copie dei log degli applicativi/servizi, etc..) vengono identificati, correlati e analizzati eventi di sicurezza con l'obiettivo di rilevare potenziali tenativi di compromissione al fine di proteggere l'asset tecnologico all'interno di una data infrastruttura di rete. Questo processo è il prodotto di una combinazione di hardware, software e fattore umano. Spetta a quest'ultimo nello specifico il compito più arduo, ovvero quello di restare al passo con una realtà in continua crescita ed estremamente dinamica: il crimine informatico. Spetta all'analista filtrare e analizzare le informazioni raccolte in merito per contestualizzarle successivamente all'interno della realta che intende proteggere, con il fine ultimo di arricchire e perfezionare le logiche di rilevamento implementate sui sistemi utilizzati. È necessario comprendere come il mantenimento e l'aggiornamento di questi sistemi sia un'attività che segue l'evolversi delle tecnologie e delle strategie di attacco. Un suo svolgimento efficacie ed efficiente risulta di primaria importanza per consentire agli analisti di focalizzare le proprie risorse sulle attività di investigazione di eventi di sicurezza, ricerca e aggiornamento delle logiche di rilevamento, minimizzando quelle ripetitive, "time consuming", e potenzialmente automatizzabili. Questa tesi ha come obiettivo quello di presentare un possibile approccio ad una gestione automatizzata e centralizzata di sistemi per il rilevamento delle intrusioni, ponendo particolare attenzione alle tecnologie IDS presenti sul panorama open source oltre a rapportare tra loro gli aspetti di scalabilità e personalizzazione che ci si trova ad affrontare quando la gestione viene estesa ad infrastrutture di rete eterogenee e distribuite.
Resumo:
I raggi cosmici sono una fonte naturale di particelle ad alta energia di origine galattica e extragalattica. I prodotti della loro interazione con l’atmosfera terrestre giungono fino alla superficie terrestre, dove vengono rilevati dagli esperimenti di fisica delle particelle. Si vuole quindi identificare e rimuovere questo segnale. Gli apparati sperimentali usati in fisica delle particelle prevedono dei sistemi di selezione dei segnali in ingresso (detti trigger) per rigettare segnali sotto una certa soglia di energia. Il progredire delle prestazioni dei calcolatori permette oggi di sostituire l’elettronica dei sistemi di trigger con implementazioni software (triggerless) in grado di selezionare i dati secondo criteri più complessi. TriDAS (Triggerless Data Acquisition System) è un sistema di acquisizione triggerless sviluppato per l’esperimento KM3NeT e utilizzato recentemente per gestire l’acquisizione di esperimenti di collisione di fascio ai Jefferson Lab (Newport News, VA). Il presente lavoro ha come scopo la definizione di un algoritmo di selezione di eventi generati da raggi cosmici e la sua implementazione come trigger software all’interno di TriDAS. Quindi si mostrano alcuni strumenti software sviluppati per costruire un ambiente di test del suddetto algoritmo e analizzare i dati prodotti da TriDAS.
Resumo:
L'obiettivo di questa tesi è di fornire un'introduzione alla teoria dei q-analoghi in ambito combinatorio e alcune sue applicazioni allo studio di problemi legati a successioni numeriche. Lo scopo di questa teoria è quello di ricavare informazioni e proprietà aggiuntive su alcuni oggetti matematici discreti attraverso una loro generalizzazione di tipo polinomiale. In particolare sono proposti alcuni risultati legati al conteggio delle permutazioni di insiemi e multiinsiemi, delle partizioni di interi e dei cammini di Dyck.
Resumo:
L’obiettivo iniziale di questo lavoro era quello di studiare il fenomeno della proteolisi nel formaggio, al variare del tempo di stagionatura e di salatura, mediante lo studio dello stato dell’acqua, con una metodica non distruttiva e innovativa per questa tematica: il TD-NMR. I formaggi oggetto di studio sono stati prodotti con un impianto pilota presente in Dipartimento, con lo stesso latte, nella stessa giornata e nelle medesime condizioni di caseificazione. Il primo passo è stato quello di assegnare un nome alle 4 popolazioni di protoni corrispondenti alle 4 curve esponenziali in cui si traducevano i risultati di T2. Dato che gli studi bibliografici consultati non erano concordi su questo aspetto e nessuno aveva svolto esperimenti che potessero confermare le supposizioni formulate, abbiamo proceduto all’analisi di un formaggio simile ai nostri campioni, addizionato di una soluzione dopante a base di Fe(III)Cl2. Questo passaggio ci ha permesso di identificare i tipi di molecole rappresentati dalle 4 popolazioni. Successivamente siamo stati in grado di fare ipotesi concrete sull’evoluzione dei risultati di T2 e intensità relativa al variare del tempo di stagionatura e di salatura. Dalle nostre osservazioni è emerso che è possibile correlare l’andamento di T2 e I a quello di diversi parametri che caratterizzano il formaggio. Le ipotesi emerse da questo studio sono solamente intuizioni preliminari riguardo l’impiego di questo metodo di analisi per il formaggio, che però ha la potenzialità di essere molto utile nella ricerca e anche nell’industria. Si tratta infatti di un metodo caratterizzato da estrema facilità nella preparazione dei campioni, che può essere adattato ad analisi non distruttive e che impiega uno strumento molto economico rispetto ad altri tipi di analisi NMR. Possiamo inoltre concludere che, avendo messo a punto questi aspetti di base, l’interpretazione dei dati sarà senz’altro più semplice rispetto ad altre analisi NMR.
Resumo:
ABSTRACT Background: L’ictus è una delle prime cause di morte e disabilità nel Mondo: in Europa il numero dei sopravvissuti ad ictus è circa 6 milioni. Tra gli esiti di questa patologia troviamo l’iperestensione di ginocchio, una deformità progressiva e invalidante che compromette il cammino e può essere associata a dolore. La riabilitazione dei soggetti colpiti può essere complessa, a causa della variabilità delle possibili eziologie. Ad oggi non esiste ancora un unico protocollo riabilitativo per il trattamento di questa patologia. L’obiettivo di questa revisione sistematica è quello di valutare l’efficacia dei trattamenti fisioterapici sull’iperestensione di ginocchio in soggetti colpiti da ictus. Metodi: Banche dati: PUBMED, PEDro, Cochrane. Studi inclusi: Trial clinici randomizzati sull’efficacia degli interventi fisioterapici sull’iperestensione di ginocchio in soggetti colpiti da ictus. Questa revisione è stata redatta seguendo la checklist del PRISMA statement. Risultati: Sono stati inclusi 4 studi (3RCT,1CCT), con identificazione di due tipi di intervento: trattamento propriocettivo e con ortesi. Tutti gli interventi hanno prodotto miglioramenti sul cammino dei partecipanti, nel breve termine. L’outcome che ha riportato un miglioramento significativo in seguito agli interventi effettuati è quello riguardante i gradi di iperestensione di ginocchio. Per quanto riguarda la velocità del cammino, è stato riscontrato un miglioramento significativo soltanto in uno dei quattro studi inclusi. Conclusioni: Sono state trovate evidenze in favore dell’allenamento propriocettivo abbinato alla normale fisioterapia nel trattamento dell’iperestensione di ginocchio in soggetti con esiti di ictus e iperestensione di ginocchio, nel breve termine. Questo approccio potrebbe migliorare la qualità del cammino e quindi anche l’autonomia e la qualità di vita di questi pazienti.
Resumo:
Il processo di sviluppo di un’applicazione comprende più fasi, ognuna strettamente correlata alle altre. Una delle fasi di questo processo è il rilascio del software, che consiste nel rendere disponibile agli utenti l’applicazione caricandone l’eseguibile su un server, sul quale verrà poi eseguita. Per un’azienda di sviluppo software è particolarmente importante automatizzare e standardizzare il processo di rilascio del software, allo scopo di renderlo più veloce e di diminuire il tempo che intercorre fra una modifica e il momento in cui questa viene effettivamente resa disponibile per gli utenti, ottimizzando infine l’impegno degli sviluppatori. La presente tesi descrive l’implementazione di un sistema di Continuous Integration e Continuous Deliveliry scalabile su una software house con più di 900 dipendenti suddivisi in decine di team, ognuno dei quali ha in carico lo sviluppo di vari software. Le applicazioni realizzate dai team sono generalmente microservizi in esecuzione all’interno di container su piattaforma Kubernetes. Sono state quindi valutate le varie alternative per la realizzazione di questo sistema, analizzandone pro e contro, scegliendo infine GitLab per la parte di Continuous Integration e ArgoCD per la parte di Continuous Deployment. Nei vari capitoli viene quindi analizzata l’infrastruttura esistente e vengono illustrati i vantaggi e svantaggi delle varie soluzioni considerate. Per i due software selezionati viene invece descritto il lavoro svolto, con dettagli sul funzionamento del sistema e la configurazione necessaria per il corretto funzionamento dell’intero processo. La soluzione realizzata effettua build, test, code validation e deploy delle applicazioni seguendo un pattern GitOps, con un repository git contenente la configurazione attuale delle applicazioni, permettendo rollback in caso di problematiche e garantendo un alto livello di sicurezza attraverso il mantenimento dello storico della configurazione e della versione delle applicazioni.
Resumo:
L’elaborato presenta una proposta di traduzione/adattamento dei due albi illustrati La perra, la cerda, la zorra y la loba (Luis Amavisca e Marta Sevilla, 2020) e Más puta que las gallinas (y otras animalads machistas) (Luis Amavisca e Sonia Pulido, 2021). È diviso in cinque capitoli: il primo propone un quadro teorico sul linguaggio e gli insulti sessisti in Italia e Spagna, con alcuni accorgimenti su come utilizzare un linguaggio non sessista. Il secondo capitolo si concentra sull’educazione alla parità di genere, partendo dalle leggi in merito nei due paesi e dalle linee guida sul linguaggio non sessista per arrivare alla scuola e al ruolo della letteratura per l’infanzia e per ragazze e ragazzi e, in particolare, dell’albo illustrato. Il terzo è dedicato all’analisi dettagliata dei due testi, la cui proposta di traduzione/adattamento viene presentata nel quarto capitolo. Infine, il quinto capitolo verte sul commento alla traduzione proposta, concentrandosi sugli aspetti più interessanti e sull’influenza delle immagini.