89 resultados para Definite
Resumo:
Lo studio, oggetto della presente tesi, si propone di affrontare e approfondire le tecniche di rilevamento impiegate nell'ambito di contesti idraulici per la valutazione del dislivello fra punti, allo scopo di consentire il regolare deflusso delle acque. Il primo capitolo si apre introducendo la geodesia, per poi definire le varie tipologie di superfici e sistemi di riferimento, a cui le quote ottenute nella misurazione dei dislivelli si riferiscono. Il secondo capitolo descrive le tecniche impiegate nella misurazione dei dislivelli, soffermandosi sulla livellazione geometrica “dal mezzo”di alta precisione e su quella trigonometrica, impiegata principalmente per rilievi di precisione, come quello idraulico preso in esame, soprattutto per l’attraversamento di aree impraticabili quali corsi fluviali o piccoli bracci di mare. Il terzo capitolo descrive la strumentazione impiegata per eseguire le tecniche definite nel capitolo precedente, soffermandoci su quella impiegata nel caso-studio. Il quarto capitolo analizza il caso-studio da me effettuato, il cui obiettivo riguarda il collegamento altimetrico tra le due sommità delle aste idrometriche, installate rispettivamente presso Molo Vecchio e il torrente Acquanegra per il controllo del livello del lago di Monate (Provincia di Varese).
Resumo:
Abstract La metafora è stata tradizionalmente considerata come uno strumento linguistico dal valore esclusivamente estetico, ma agli inizi degli anni Ottanta questa teoria è stata messa in discussione: la metafora è per noi uno strumento conoscitivo fondamentale: ci consente di organizzare le nostre conoscenze e di crearne di nuove, aiutandoci a categorizzare elementi e concetti astratti o troppo complessi come elementi di cui possiamo fare esperienza quotidianamente e che sono sufficientemente strutturati nel nostro sistema concettuale. Le metafore di questo tipo vengono definite metafore concettuali. La messa in discussione della teoria tradizionale della metafora comporta inevitabilmente anche la messa in discussione del concetto di similarità, visto non più come una causa della metafora, ma come la sua conseguenza, e del meccanismo che ne sta alla base. La teoria cognitiva della metafora, in ricerche successive, è stata confermata attraverso le teoria neurale della metafora: l'insorgere di una metafora comporta la creazione di un legame tra aree diverse del cervello che rappresenta fisiologicamente la metafora.
Resumo:
La tesi descrive il metodo dell'analisi delle componenti principali, vertendo sia sull'aspetto matematico che la caratterizza sia su alcune sue applicazioni. Vengono anche definite le nozioni di algebra lineare e statistica fondamentali per la sua descrizione.
Resumo:
Nell’ambito delle telecomunicazioni risulta di notevole rilievo la tecnologia ad onde convogliate, definita Power-Line Communication (PLC), che permette la trasmissione di dati sfruttando la rete elettrica come mezzo di trasmissione. Essa rappresenta una delle tecnologie promettenti per quanto concerne la fornitura di servizi come l’accesso ad Internet, alla rete telefonica e al telecontrollo di apparecchi sempre più sofisticati. Al fine di rendere possibile sia la trasmissione di potenza (alla frequenza di 50 Hz per l’Italia) che di altri segnali dati (su bande a frequenza maggiore) saranno necessarie tecniche di modulazione avanzata, che però non rappresentano un argomento trattato a fondo in questa tesi. Lo sviluppo tecnologico degli ultimi anni ha permesso una notevole diffusione delle PLC soprattutto in applicazioni domestiche, grazie ai prezzi molto contenuti in parallelo alle ottime prestazioni, soprattutto nell’automazione. Obbiettivo dell’elaborato risulta la rilevazione della risposta impulsiva in ambienti Power-Line di tipo Narrowband (a banda stretta), immettendo in rete sequenze di tipo casuale o pseudo-casuale, queste ultime definite Pseudo-Noise (PN); esse infatti hanno particolari proprietà che renderanno possibile il raggiungimento dello scopo prefissato. Lo strumento fondamentale per le misurazioni sul campo effettuate risulta l’Analog Discovery (Digilent ne è il produttore), utilizzato non solo come generatore di forme d’onda in ingresso ma anche come oscilloscopio per l’analisi del segnale ricevuto.
Resumo:
Questo lavoro si pone l'obiettivo di fornire stime della dose efficace annua e della dose al cristallino annua per operatori di radiologia interventistica. Ci si concentra inoltre sulla dose al cristallino vista la recente direttiva EURATOM che dovrà essere recepita dalla normativa italiana entro febbbraio 2018. Ci si è occupati di una equipe di tre medici radiologi operanti presso il reparto di Neuroradiologia dell'Ospedale Bellaria di Bologna che lavora principalmente con un angiografo biplanare. Il lavoro sperimentale ha avuto inizio delineando il campo di radiazione presente nella sala operatoria ed in particolare, nei pressi del primo medico operatore che è risultato essere quello più esposto alle radiazioni. Il campo di radiazione è stato definito tramite misurazioni con camera a ionizzazzione utilizzando dei fantocci in PMMA simulanti un paziente. Determinati i valori del campo di radiazione e stabiliti alcuni parametri fissi si è cercato un parametro (possibilmente registrato dalla macchina) che permettesse una correlazione tra il carico di lavoro degli operatori e la dose da essi ricevuta in modo da ricavare stime sul lungo periodo. Questo è stato individuato nel DAP totale (registrato automaticamente dopo ogni intervento e presenti nei report) grazie alla presenza di mappe isokerma fornite dalla ditta costruttrice dell'angiografo. Tali mappe forniscono una relazione tra Kerma e DAP al variare di alcuni parametri di macchina. Affinchè fosse possibile utilizzare le mappe isokerma ne è stata necessaria la verifica tramite ulteriori misure sperimentali (nelle stesse condizioni operative definite nelle mappe). Effettuata la verifica si è determinato il carico di lavoro degli operatori per quattro mesi, assunto come periodo sufficientemente lungo per una stima sulla dose assorbita annua. Combinando i carichi di lavoro con i valori di dose assorbita rilevati si sono ottenute le stime obiettivo della tesi che vengono discusse sotto vari aspetti.
Resumo:
Il contesto dinamico in cui operano le aziende richiede, sempre più, sistemi di gestione flessibili e in continua evoluzione, e soprattutto richiede che le varie funzioni aziendali siano integrate tra loro. Così anche la funzione di manutenzione, la quale nei tempi passati, era considerata una funzione di supporto alla produzione, ora è vista come parte integrante della stessa. Pertanto è necessario che la gestione dei flussi logistici ed informativi relativi ai processi di manutenzione, siano il più possibile efficace ed efficienti, al fine di ridurre i costi complessivi sostenuti dall’azienda. L’elaborato tratta del dimensionamento di un magazzino ricambi e della relativa gestione operativa ed informativa, applicati ad un caso aziendale. Geberit Produzione Spa ha la necessità di migliorare i flussi della gestione manutentiva totale, andando a correggere le criticità rilevate nel sistema attuale. Il dimensionamento è sviluppato sulla base delle informazioni raccolte dal campo, le quali permettono di individuare la quantità ottimale di ricambi, che minimizzi da un lato i costi di mantenimento a scorta e dall’altro i costi dovuti alla mancanza dei ricambi nel momento necessario. Secondo le tipologie di materiale tecnico presenti, sono individuate le modalità di immagazzinamento e i mezzi di movimentazione più idonei, ed in base a questi viene definito il layout definitivo. Sono, poi, determinati i criteri di gestione dei flussi logistici e di informatizzazione dei processi, al fine di descrivere delle procedure standard che regolino l’operato del personale. Scelti gli indici di valutazione delle performance della manutenzione, è stata valutata la convenienza economica della realizzazione del progetto. Con questo studio vengono definite le fondamenta per una efficace ed efficiente gestione futura della manutenzione.
Resumo:
In questa tesi è stato affrontato lo studio della valutazione delle proprietà meccaniche del calcestruzzo negli edifici esistenti, ponendo attenzione alle normative che regolano questa procedura, alle prove distruttive e non, che vengono eseguite in sito e in laboratorio, fino all'elaborazione dei risultati al fine di ottenere il valore desiderato della resistenza a compressione del cls. In particolare sono state affrontate le prove a compressione, trazione indiretta e di determinazione del modulo elastico che si eseguono in laboratorio, i carotaggi, la carbonatazione, la prova sclerometrica, ultrasonica, di aderenza, di estrazione e penetrazione eseguite in sito. Per la valutazione del calcestruzzo è stato introdotto il funzionamento delle curve di correlazione, la loro costruzione e valutazione, e le varie definizioni del calcestruzzo definite dalla NTC del 2008, dalle Linee Guida C.S. LL.PP. e dal metodo Holos.
Resumo:
Negli ultimi anni le preoccupazioni a causa dell’inquinamento ambientale sono risultate sempre maggiori, questo ha portato un sempre più crescente interesse per l’ottimizzazione nella progettazione dei motori a combustione interna per avere un aumento di potenza cercando di utilizzare meno carburante. Sempre più di frequente, al fine di studiare la combustione in modo accurato e ricavarne modelli analitici coerenti con la realtà, ci si rivolge alla simulazione numerica; Tutti i modelli di combustione utilizzati dai solutori CFD richiedono la conoscenza della velocità laminare di fiamma, questa gioca un ruolo molto importante nei motori a combustione interna così come in altre applicazioni, come il calcolo dei moti turbolenti. Il calcolo della velocità laminare può avvenire attraverso modelli di cinetica chimica dettagliata a fronte di un peso computazionale non indifferente oppure utilizzando meccanismi cinetici ridotti con conseguente perdita di accuratezza. L’obiettivo di questa tesi è lo studio della velocità di fiamma laminare al variare delle principali caratteristiche della miscela focalizzandosi sull’effetto di pressione, temperatura e di eventuali inerti (Acqua ed Egr). Attraverso la cinetica chimica dettagliata e relativo calcolo delle velocità delle reazioni di ossidazione sono state definite delle “look up tables” il più possibile dettagliate (nonostante il grande peso computazionale) al fine di avere uno strumento facilmente implementabile in solutori CFD. Inoltre, a partire dai dati acquisiti, si è passati all’analisi delle precedenti correlazioni cercando, nei limiti, di migliorarne e proporne altre per non dover ricorrere all’interpolazione delle mappe.
Resumo:
La tesi si divide in due macroargomenti relativi alla preparazione della geometria per modelli MCNP. Il primo è quello degli errori geometrici che vengono generati quando avviene una conversione da formato CAD a CSG e le loro relazioni con il fenomeno delle lost particles. Il passaggio a CSG tramite software è infatti inevitabile per la costruzione di modelli complessi come quelli che vengono usati per rappresentare i componenti di ITER e può generare zone della geometria che non vengono definite in modo corretto. Tali aree causano la perdita di particelle durante la simulazione Monte Carlo, andando ad intaccare l' integrità statistica della soluzione del trasporto. Per questo motivo è molto importante ridurre questo tipo di errori il più possibile, ed in quest'ottica il lavoro svolto è stato quello di trovare metodi standardizzati per identificare tali errori ed infine stimarne le dimensioni. Se la prima parte della tesi è incentrata sui problemi derivanti dalla modellazione CSG, la seconda invece suggerisce un alternativa ad essa, che è l'uso di Mesh non Strutturate (UM), un approccio che sta alla base di CFD e FEM, ma che risulta innovativo nell'ambito di codici Monte Carlo. In particolare le UM sono state applicate ad una porzione dell' Upper Launcher (un componente di ITER) in modo da validare tale metodologia su modelli nucleari di alta complessità. L'approccio CSG tradizionale e quello con UM sono state confrontati in termini di risorse computazionali richieste, velocità, precisione e accuratezza sia a livello di risultati globali che locali. Da ciò emerge che, nonostante esistano ancora alcuni limiti all'applicazione per le UM dovuti in parte anche alla sua novità, vari vantaggi possono essere attribuiti a questo tipo di approccio, tra cui un workflow più lineare, maggiore accuratezza nei risultati locali, e soprattutto la possibilità futura di usare la stessa mesh per diversi tipi di analisi (come quelle termiche o strutturali).
Resumo:
I materiali compositi possiedono proprietà funzionali e di resistenza sempre più performanti grazie alla natura dei rinforzanti in fibra di carbonio, i quali però sono caratterizzati da criticità relative al processo di trasformazione altamente energivoro e dispendioso, all’inquinamento collegato alla produzione delle fibre e al trattamento di sizing, nonché alla difficoltà nello stadio di separazione dei costituenti del manufatto composito e del conseguente riciclo. A causa di queste problematiche sono stati introdotti in produzione materiali a matrice epossidica rinforzata con fibre di lino. Lo studio è stato indirizzato verso la caratterizzazione delle materie prime che compongono i manufatti, quindi fibre e semilavorati, mediante analisi termiche dinamiche in DSC e TGA con il fine di determinare la composizione e resistenza dei singoli componenti e la misura della variazione nel comportamento quando sono uniti per comporre i prepreg. Sono state eseguite delle prove di igroscopicità, umidità e densità per ottenere una panoramica precisa sulle differenze nella struttura delle fibre in carbonio e lino che le differenzia in modo apprezzabile. Sono stati laminati compositi reticolati secondo tecnologia in autoclave, le cui proprietà sono state definite mediante prove termiche dinamiche in DSC, TGA, DMA, prove alla fiamma mediante conocalorimetro, prove fisiche di igroscopicità, umidità e densità, prove ottiche al SEM in seguito ad una rottura in trazione. Parte del progetto seguito è stato direzionato all’ottimizzazione del ciclo produttivo in autoclave. La simulazione del nuovo ciclo di cura industriale, RAPID, è stata eseguita per valutare la variazione della Tg finale e il grado di curing, nonché le proprietà termiche e meccaniche già valutate nel ciclo di cura, STANDARD.
Resumo:
Il Lavoro di Tesi è stato condotto a Modigliana, comprensorio viticolo di frontiera ai confini tra Romagna e Toscana caratterizzato da elevata biodiversità, suddiviso in tre vallate (Ibola, Acerreta e Tramazzo). Sono stati presi in esame tre vigneti di Sangiovese uno per ogni valle, considerando anche specie arboree e arbustive presenti nelle aree contigue. Il Sangiovese, interagendo con i vari elementi del Terroir si è adattato a diversi ambienti donando uve con qualità diverse. Le uve dei tre vigneti erano contraddistinte da una minore concentrazione di monoterpeni e C13-norisoprenoidi ed un più alto livello di acidi grassi ed esteri rispetto ai dati riportati in altre ricerche. Nella classe degli alcoli alifatici, l’1-esanolo e il 2-esen-1-olo, rappresentano i composti preponderanti nelle uve dei vigneti delle valli di Modigliana. In particolare, nelle uve del vigneto della valle Ibola, essi superano nettamente le concentrazioni riportate in altri studi. L’1-esanolo e il 2-esen-1-olo sono responsabili degli aromi erbacei nelle uve e nel vino. Questa caratteristica delle uve trova corrispondenza con la descrizione dei vini di Sangiovese di Modigliana, caratterizzato da note verdi, definite “nobili” poiché evolvono nel tempo regalando complessità. I rilievi sulla microflora delle uve hanno evidenziato la presenza di diverse specie di lieviti non-Saccharomyces, che ricoprono importanti ruoli in vinificazione. Dal vigneto della valle Tramazzo sono stati isolati ceppi H. uvarum, I. occidentalis, M. pulcherrima e Pichia spp. Dal vigneto della valle Ibola sono stati isolati ceppi appartenenti solo alla specie Hanseniaspora uvarum. Dal vigneto della valle Acerreta sono stati identificati ceppi di H. uvarum, I. occidentalis, I. terricola, Pichia spp. e Aureobasidium spp. Nel proseguo dello studio sarà importante valutare la ripetibilità dei risultati nel tempo, monitorando anche le cinetiche di fermentazione, includendo la caratterizzazione e l’evoluzione dei vini.
Resumo:
L’apparato muscolo scheletrico è composto da strutture muscolari, articolari e ossee. Tali tessuti sono molto diversi tra loro e hanno proprietà meccaniche estremamente variabili, pertanto presentano una transizione graduale in corrispondenza della loro giunzione, onde evitare l’insorgere di concentrazioni di tensione. L’evoluzione ha portato alla formazione di particolari interfacce che permettono la corretta trasmissione dei carichi distribuendo le tensioni su una superficie più ampia in corrispondenza della giunzione. Le interfacce che vanno a inserirsi nell’osso vengono definite entesi e in particolare, in questa review, analizzeremo il caso di quelle tra tendini/legamenti e osso. In questo lavoro ci siamo anche concentrati sulla giunzione miotendinea, ovvero tra muscolo e tendine. Sono numerose le lesioni che riguardano muscoli, ossa, tendini o legamenti e molto spesso l’infortunio avviene a livello della giunzione. Quando ciò accade vi sono diverse strade, ciascuna con i suoi vantaggi e svantaggi: sutura, autograft, allograft o xenograft. Oltre a queste soluzioni si è fatta gradualmente più spazio la possibilità di realizzare degli scaffold che vadano temporaneamente a sostituire la parte danneggiata e a promuovere la sua rigenerazione, degradandosi man mano. L’elettrofilatura (Elettrospinning) è un processo produttivo che negli ultimi decenni si è affermato come tecnica per la fabbricazione di questi scaffold, fino a diventare uno tra i principali processi utilizzati dai ricercatori in questo campo. Questa tecnica infatti permette di realizzare scaffold di nanofibre porose utilizzando polimeri biodegradabili e soprattutto biocompatibili. Lo scopo della review è proprio quello di scoprire tutti i lavori e gli studi che utilizzano l’elettrofilatura per realizzare degli scaffold per interfacce, delineando così lo stato dell’arte sui progressi fatti e sulle varie tecniche utilizzate.
Resumo:
L'abbandono del cliente, ossia il customer churn, si riferisce a quando un cliente cessa il suo rapporto con l'azienda. In genere, le aziende considerano un cliente come perso quando un determinato periodo di tempo è trascorso dall'ultima interazione del cliente con i servizi dell'azienda. La riduzione del tasso di abbandono è quindi un obiettivo di business chiave per ogni attività. Per riuscire a trattenere i clienti che stanno per abbandonare l'azienda, è necessario: prevedere in anticipo quali clienti abbandoneranno; sapere quali azioni di marketing avranno maggiore impatto sulla fidelizzazione di ogni particolare cliente. L'obiettivo della tesi è lo studio e l'implementazione di un sistema di previsione dell'abbandono dei clienti in una catena di palestre: il sistema è realizzato per conto di Technogym, azienda leader nel mercato del fitness. Technogym offre già un servizio di previsione del rischio di abbandono basato su regole statiche. Tale servizio offre risultati accettabili ma è un sistema che non si adatta automaticamente al variare delle caratteristiche dei clienti nel tempo. Con questa tesi si sono sfruttate le potenzialità offerte dalle tecnologie di apprendimento automatico, per cercare di far fronte ai limiti del sistema storicamente utilizzato dall'azienda. Il lavoro di tesi ha previsto tre macro-fasi: la prima fase è la comprensione e l'analisi del sistema storico, con lo scopo di capire la struttura dei dati, di migliorarne la qualità e di approfondirne tramite analisi statistiche il contenuto informativo in relazione alle features definite dagli algoritmi di apprendimento automatico. La seconda fase ha previsto lo studio, la definizione e la realizzazione di due modelli di ML basati sulle stesse features ma utilizzando due tecnologie differenti: Random Forest Classifier e il servizio AutoML Tables di Google. La terza fase si è concentrata su una valutazione comparativa delle performance dei modelli di ML rispetto al sistema storico.
Resumo:
Il problema del rumore derivante dai volumi di traffico sempre crescente richiede la ricerca di svariate soluzioni, tra cui l'installazione di barriere di sicurezza e antirumore, definite anche integrate. La tesi, svolta in collaborazione con Piacentini Ingegneri srl, dopo un primo inquadramento del problema dei livelli di rumore eccessivi e dei limiti imposti da normativa, descrive le possibili soluzioni trovate nel tempo e in corso di ricerca. Vengono dunque descritte nel dettaglio le barriere integrate, specialmente quelle trovate nei tratti autostradali di Genova e Milano nel corso del tirocinio svolto presso Piacentini Ingegneri srl. È stata eseguita una modellazione FEM delle barriere Integauto-s e diverse prove sperimentali sui new jersey e sulle opere di supporto alle barriere (pull-out, carotaggi, prove a trazione, ecc). Dai certificati delle prove si ricavano i parametri di resistenza degli elementi (barriera e cordoli di sostegno) grazie ai quali, in aggiunta alla documentazione originale fornita da Autostrade per l'Italia, si raggiunge il Livello di Conoscenza accurato, il massimo possibile: LC3. Ciò è indispensabile per rispettare la procedura per il rialzamento delle barriere integrate concordate tra le 2 società sopracitate. Quindi, si procede con le verifiche delle barriere e delle opere di supporto alle barriere (cordolo su terreno, cordolo con micropali o pali, cordolo su opera d'arte esistente, pile da ponte). L'intera tesi è finalizzata alla definizione delle altezze delle barriere integrate, in quanto per motivi di sicurezza erano state abbassate. I calcoli strutturali, la modellazione FEM e le prove condotte hanno portato alla conoscenza massima possibile delle seguenti barriere: Integauto-s, NJBP C1.2 Martellona, e NJBP Ecotecnica (trovate nei tratti autostradali oggetto di rialzamento).
Resumo:
Questa tesi presenta la sintesi di un copolimero a blocchi successivamente funzionalizzato per ottenere le caratteristiche necessarie alla formazione di micelle con l’obbiettivo di un futuro impiego nel campo del drug delivery. Si è cominciato con la sintesi del copolimero poli(glicidil metacrilato)-block-poli(metil metacrilato) mediante tecnica di polimerizzazione radicalica controllata RAFT al fine di ottenere una distribuzione di peso molecolare e polidispersità definite.La funzionalizzazione del copolimero ottenuto tramite uno specifico nucleofilo, la morfolina, fornisce una nuova molecola (PHMPMA-b-PMMA) con caratteristiche anfifiliche e capace di autoassemblarsi in micelle polimeriche. Le micelle così ottenute sono state ulteriormente stabilizzate fisicamente mediante la reticolazione di polidopamina (PDA) sulla superficie esterna della micella e quindi analizzate mediante varie tecniche analitiche (UV-Vis; IR; TGA) per correlare il grado di reticolazione finale alla quantità di dopamina aggiunta in soluzione.