995 resultados para Fatica confronto fresatura elettroerosione EDM acciaio titanio
Resumo:
Lo scopo di questo lavoro è confrontare due opere, Anna Karenina di Lev Tolstoj e L’amante di Lady Chatterley di David Herbert Lawrence e dimostrare che essi non hanno in comune solo il tema dell’adulterio, ma anche e soprattutto l’averlo inteso come strumento di ribellione sociale. In Tolstoj troviamo l’adulterio censurato nel corso della narrazione, poiché esso viene condannato sia dalla società che dall’autore stesso, che aveva come intento dare una lezione morale. Lawrence invece esalta e descrive l’adulterio, poiché nel suo caso diventa lo strumento di scoperta dell’amore vero e di ritorno al primitivismo a dispetto della civiltà industrializzata. Quindi, pur appartenendo a due epoche diverse e a due società con differenti visioni circa matrimonio e famiglia, le due eroine sono similari per il coraggio che dimostrano nell’andare contro le rispettive società.
Resumo:
Lo studio del comportamento a fatica dei componenti è uno degli aspetti principali della progettazione. I trattamenti superficiali permettono di migliorare la resistenza dei componenti sollecitati a fatica. A tale scopo, in questo documento sono stati analizzati alcuni trattamenti superficiali applicati a differenti materiali metallici per valutarne una eventuale applicazione.
Resumo:
Il lavoro di questa tesi è incentrato sulla sintesi di film nanoparticellari di TiO2 con drogaggio di vanadio e analisi delle loro proprietà, prodotti tramite la tecnica IGC. Lo studio è finalizzato ad ottenere un materiale idoneo per la costruzione di fotoelettrodi da utilizzare per la produzione di idrogeno tramite la fotoelettrolisi dell'acqua. Si è impiegata la titania perché è uno dei materiali più promettenti grazie alla sua facilità di fabbricazione, il basso costo, la resistenza alla corrosione in soluzioni elettrolitiche e alla fotocorrosione e alle sue buone proprietà fotocatalitiche. Il drogaggio di vanadio rappresenta una possibile soluzione dei principali problemi che affliggono il materiale, come lo scarso assorbimento del range visibile e la rapida ricombinazione dei portatori di carica. Nel primo capitolo è presente una breve descrizione teorica del processo di produzione di idrogeno tramite split fotocatalitico dell'acqua all'interno di PEC nelle quali la TiO2 è utilizzata come fotoanodo. Nel secondo capitolo è presente una breve digressione sulle proprietà morfologico-strutturali, cristalline, elettroniche e sulla stabilità e le trasformazioni di fase dei principali polimorfi della TiO2. Infine una descrizione del sistema Titanio-Vanadio. Nel terzo capitolo viene presentato il sistema di crescita sia illustrando la teoria che sta dietro alla tecnica che descrivendo nei dettagli l'apparato IGC. Vengono infine presentati i campioni sintetizzati durante questo lavoro di tesi. Nel quarto capitolo vengono presentati i risultati delle indagini condotte per determinare le proprietà dei nostri campioni. E' stata dapprima effettuata un'analisi morfologica con un SEM e una semi-quantitativa con l'EDX. Sono state determinate le proprietà strutturali e la presenza delle fasi cristalline, a diversi trattamenti termici, con l'XRD. Si sono poi testate le proprietà ottiche e in particolare dell'assorbimento con misure di trasmittanza spettrale. Infine si è caratterizzata la struttura locale elettronica e cristallina tramite XAS e le dinamiche di rilassamento dei portatori di carica con TR-XAS.
Resumo:
L’attività di tesi è stata rivolta allo sviluppo e messa a punto del trattamento termico di austempering per un acciaio ad alto contenuto di Si. Scopo della ricerca è stato valutare la possibilità di effettuare il trattamento termico secondo metodiche industriali analoghe a quelle utilizzate per il trattamento delle ghise sferoidali austemperate (ADI). Si sono studiati in particolare gli effetti dei tempi e delle temperature del trattamento sulle microstrutture e le proprietà meccaniche dell'acciaio. I risultati della sperimentazione e delle analisi hanno permesso di definire i parametri ottimali del processo di austempering, al fine di ottenere una microstruttura ausferritica in grado di garantire al contempo elevata resistenza e buona tenacità e duttilità.
Resumo:
[Abstract]. Questo lavoro è finalizzato al confronto delle rivelazioni di canditati eventi di neutrino cosmico da parte di due esperimenti ANTARES ed ICECUBE. I due apparati, entrambi basati sulla rivelazione di radiazione Cherenkov generata da prodotti di interazione CC dei neutrini, si differenziano per la geometria del detector e per il mezzo in cui viene prodotta la radiazione, e hanno quindi sensibilità e risoluzione diverse. L'analisi dei dati è basata sulla rappresentazione delle direzioni di arrivo degli eventi su mappa celeste nei due sistemi di coordinate galattico ed equatoriale. La sovrapposizione della distribuzioni degli eventi ha permesso di evidenziare le zone di visibilità sulla mappa celeste caratteristiche di ciascun esperimento. Una successiva analisi statistica ha analizzato la frequenza delle occorenze di eventi del dataset di ANTARES in intorni di raggio crescente di eventi di ICECUBE, per valutare eventuali eventi identificabili nei due dataset. Questa analisi ha evidenziato la necessità di una selezione preventiva degli eventi del dataset di ANTARES, in base a criteri non solo topologici, in modo da permettere una eventuale identificazione di eventi coincidenti.
Resumo:
Il presente lavoro è stato svolto presso il Servizio di Fisica Sanitaria dell’Azienda USL della Romagna, Presidio Ospedaliero di Ravenna e consiste nella validazione del dato dosimetrico visualizzato su due apparecchiature per mammografia digitale e nel confronto tra qualità immagine di diverse curve di acquisizione in funzione della dose e della post-elaborazione. Presupposto per l’acquisizione delle immagini è stata la validazione del dato dosimetrico visualizzato sui mammografi, tramite misura diretta della dose in ingresso con strumentazione idonea, secondo protocolli standard e linee guida europee. A seguire, sono state effettuate prove di acquisizione delle immagini radiografiche su due diversi fantocci, contenenti inserti a diverso contrasto e risoluzione, ottenute in corrispondenza di tre curve dosimetriche e in funzione dei due livelli di post-elaborazione delle immagini grezze. Una volta verificati i vari passaggi si è proceduto con l’analisi qualitativa e quantitativa sulle immagini prodotte: la prima valutazione è stata eseguita su monitor di refertazione mammografica, mentre la seconda è stata effettuata calcolando il contrasto in relazione alla dose ghiandolare media. In particolare è stato studiato l’andamento del contrasto cambiando le modalità del software Premium View e lo spessore interposto tra la sorgente di raggi X ed il fantoccio, in modo da simulare mammelle con grandezze differenti.
Resumo:
Studio di verifica statico per una struttura di sostegno di un apparecchio radiologico esistente, che deve essere riprogettato e ingegnerizzato. Tale riprogettazione, basata su un primo studio di verifica, ha come obiettivo finale la produzione di una struttura che presenti le seguenti caratteristiche: • trasportabilità della struttura con conseguente diminuzione del peso; • resistenza meccanica alle sollecitazioni esterne; • rigidezza meccanica in modo da avere un posizionamento ottimale dell’apparecchio radiologico; • dimensioni d’ingombro il più limitate possibili. Verrà, dunque, valutato il coefficiente di sicurezza statico, utilizzando le caratteristiche meccaniche del materiale costituente i componenti della struttura esistente. Successivamente, basandosi su questi calcoli, verrà modificata la forma, il materiale e le caratteristiche d’ingombro della struttura finale così da ottenere un risultato coerente con le richieste sopra citate. Dato che la struttura analizzata può essere rappresentata in diverse configurazioni, a causa della mobilità di alcuni suoi elementi, sarà valutata la condizione più gravosa in modo da verificare tutte le altre condizioni di esercizio.
Resumo:
Questo studio si propone di realizzare un’applicazione per dispositivi Android che permetta, per mezzo di un gioco di ruolo strutturato come caccia al tesoro, di visitare in prima persona città d’arte e luoghi turistici. Gli utenti finali, grazie alle funzionalità dell’app stessa, potranno giocare, creare e condividere cacce al tesoro basate sulla ricerca di edifici, monumenti, luoghi di rilevanza artistico-storica o turistica; in particolare al fine di completare ciascuna tappa di una caccia al tesoro il giocatore dovrà scattare una fotografia al monumento o edificio descritto nell’obiettivo della caccia stessa. Il software grazie ai dati rilevati tramite GPS e giroscopio (qualora il dispositivo ne sia dotato) e per mezzo di un algoritmo di instance recognition sarà in grado di affermare se la foto scattata rappresenta la risposta corretta al quesito della tappa. L’applicazione GeoPhotoHunt rappresenta non solo uno strumento ludico per la visita di città turistiche o più in generale luoghi di interesse, lo studio propone, infatti come suo contributo originale, l’implementazione su piattaforma mobile di un Content Based Image Retrieval System (CBIR) del tutto indipendente da un supporto server. Nello specifico il server dell’applicazione non sarà altro che uno strumento di appoggio con il quale i membri della “community” di GeoPhotoHunt potranno pubblicare le cacce al tesoro da loro create e condividere i punteggi che hanno totalizzato partecipando a una caccia al tesoro. In questo modo quando un utente ha scaricato sul proprio smartphone i dati di una caccia al tesoro potrà iniziare l’avventura anche in assenza di una connessione internet. L’intero studio è stato suddiviso in più fasi, ognuna di queste corrisponde ad una specifica sezione dell’elaborato che segue. In primo luogo si sono effettuate delle ricerche, soprattutto nel web, con lo scopo di individuare altre applicazioni che implementano l’idea della caccia al tesoro su piattaforma mobile o applicazioni che implementassero algoritmi di instance recognition direttamente su smartphone. In secondo luogo si è ricercato in letteratura quali fossero gli algoritmi di riconoscimento di immagini più largamente diffusi e studiati in modo da avere una panoramica dei metodi da testare per poi fare la scelta dell’algoritmo più adatto al caso di studio. Quindi si è proceduto con lo sviluppo dell’applicazione GeoPhotoHunt stessa, sia per quanto riguarda l’app front-end per dispositivi Android sia la parte back-end server. Infine si è passati ad una fase di test di algoritmi di riconoscimento di immagini in modo di avere una sufficiente quantità di dati sperimentali da permettere di effettuare una scelta dell’algoritmo più adatto al caso di studio. Al termine della fase di testing si è deciso di implementare su Android un algoritmo basato sulla distanza tra istogrammi di colore costruiti sulla scala cromatica HSV, questo metodo pur non essendo robusto in presenza di variazioni di luminosità e contrasto, rappresenta un buon compromesso tra prestazioni, complessità computazionale in modo da rendere la user experience quanto più coinvolgente.
Resumo:
Lo scopo di questa tesi è lo studio, inizialmente a livello teorico, del fenomeno della liquefazione tramite testi di letteratura e manuali tecnici. Da questi sono state acquisite le conoscenze basilari e necessarie per la stima del potenziale di liquefazione, che in seguito sono state applicate ad un caso reale. In questa seconda parte del lavoro sono stati elaborati i dati sperimentali ottenuti dalle indagini in sito, SPT ed CPT eseguite nel sito di Isola Serafini, ottenendo la stima del potenziale di liquefazione dei terreni. L’obiettivo generale è quello di confrontare e commentare le differenze tra i risultati ottenuti con le prove SPT e CPT. Le analisi sono state condotte considerando la sismicità dell’area e cercando di simulare la situazione presente durante l’evento sismico dell’Emilia risalente al 20 maggio 2012.
Resumo:
Quando si parla di architetture di controllo in ambito Web, il Modello ad Eventi è indubbiamente quello più diffuso e adottato. L’asincronicità e l’elevata interazione con l’utente sono caratteristiche tipiche delle Web Applications, ed un architettura ad eventi, grazie all’adozione del suo tipico ciclo di controllo chiamato Event Loop, fornisce un'astrazione semplice ma sufficientemente espressiva per soddisfare tali requisiti. La crescita di Internet e delle tecnologie ad esso associate, assieme alle recenti conquiste in ambito di CPU multi-core, ha fornito terreno fertile per lo sviluppo di Web Applications sempre più complesse. Questo aumento di complessità ha portato però alla luce alcuni limiti del modello ad eventi, ancora oggi non del tutto risolti. Con questo lavoro si intende proporre un differente approccio a questa tipologia di problemi, che superi i limiti riscontrati nel modello ad eventi proponendo un architettura diversa, nata in ambito di IA ma che sta guadagno popolarità anche nel general-purpose: il Modello ad Agenti. Le architetture ad agenti adottano un ciclo di controllo simile all’Event Loop del modello ad eventi, ma con alcune profonde differenze: il Control Loop. Lo scopo di questa tesi sarà dunque approfondire le due tipologie di architetture evidenziandone le differenze, mostrando cosa significa affrontare un progetto e lo sviluppo di una Web Applications avendo tecnologie diverse con differenti cicli di controllo, mettendo in luce pregi e difetti dei due approcci.
Resumo:
Modellazione di un impianto fotovoltaico connesso alla rete. Simulazione con software Simulink del funzionamento dell'intero sistema fotovoltaico e confronto delle prestazioni legate all'utilizzo degli algoritmi MPPT più comuni, quali Hill Climbing e Incremental Conductance.
Resumo:
La complessa materia della prevenzione incendi può essere approcciata secondo due strategie sostanzialmente differenti. Da una parte, l’approccio di tipo deterministico, imperante in Italia, si concretizza nell’emanazione di norme estremamente prescrittive e nel ricorso da parte del progettista a strumenti di calcolo molto semplici. Il pregio maggiore di tale approccio risiede senza dubbio alcuno nella sua estrema semplicità, nella garanzia di una certa omogeneità di applicazione e nella possibilità di erogare in tempi ragionevoli una formazione uniforme ed accettabile ai controllori. Mentre il limite più evidente consiste nella rigidità, talora eccessiva, delle prescrizioni normative e nelle procedure di calcolo da adottare. Dall’altra, un approccio di tipo ingegneristico (Fire Safety Engineering), seguito per lo più nei paesi anglosassoni, si basa sulla predizione della dinamica evolutiva dell’incendio tramite l’applicazione di idonei modelli di calcolo fisicamente basati (physically sound). Punto di forza di questa seconda strategia è la sua estrema flessibilità, che consente la simulazione d’incendi di complessità anche molto elevata. Per contro i limiti più evidenti di tale approccio risiedono nella problematica validazione sperimentale dei modelli in argomento, data la natura distruttiva delle prove che andrebbero condotte, nella spinta preparazione richiesta ai professionisti ed ancor più ai controllori, dato il proliferare negli anni di modelli anche molto diversi tra loro, ed, infine, nel caso di raffinati modelli di campo, in un onere computazionale non sempre sostenibile con i PC di comune diffusione. Allo stato attuale in Italia il ricorso alla Fire Safety Engineering è di fatto circoscritto alle applicazioni per le quali non esiste una specifica norma prescrittiva, su tutte la valutazione del rischio in attività a rischio di incidente rilevante e la Fire Investigation; talora essa è impiegata anche per la valutazione della sicurezza equivalente in occasione di richiesta di deroga a norme prescrittive.
Resumo:
La presente tesi nasce dal desiderio di effettuare un confronto tra due lingue dei segni che possiedono un'origine comune: la lingua dei segni italiana (LIS) e la langue des signes française (LSF). Si è cercato di capire quanto queste ultime possano essere analoghe tutt'oggi effettuando un confronto tra le loro principali strutture sintattiche, dopo aver passato in rassegna gli avvenimenti storici ed i provvedimenti legislativi più influenti in entrambi i paesi. La pecularietà di questa tesi risiede essenzialmente nel suo carattere inedito poiché finora nessun confronto del genere era stato realizzato tra queste due lingue. Nel primo capitolo, si è deciso di passare in rassegna le varie definizioni proposte dall'OMS circa l'handicap e la disabilità in modo da distinguere due concetti che spesso vengono considerati sinonimi. Vediamo inoltre quanto è importante l'impatto dell'ambiente circostante e della società nei confronti dell'handicap, dopodiché viene rivolta particolare attenzione alla sordità. Nel secondo capitolo, ripercorriamo i sentieri della storia, dai pensatori dell'Antichità fino al giorno d'oggi, al fin di vedere quali sono state le varie correnti di pensiero riguardo la sordità e le lingue dei segni attraverso i secoli. In seguito, ci focalizziamo sull'aspetto legislativo riportando i vari disegni di legge e provvedimenti legislativi che hanno segnato un decisivo progresso nel campo del riconoscimento delle lingue dei segni in Francia ed in Italia. Nel terzo capitolo, dopo una breve introduzione sulle lingue dei segni, vengono scomposti i parametri formazionali della LIS e della LSF, soffermandoci sulle differenze circa la dattilologia e le configurazioni in LSF e in LIS. Infine, viene effettuato il confronto tra le principali strutture sintattiche in LSF e in LIS allo scopo di verificare l'ipotesi alla base della presente tesi. Dopo aver esposto l'obiettivo, ciò che emerge dal confronto, sebbene vi siano alcune piccole differenze, conferma l'ipotesi all'origine della ricerca.
Resumo:
La tesi ha come obiettivo un confronto tra giornalismo sportivo italiano e inglese sul tema dei Mondiali di calcio svoltisi nell'estate del 2014 in Brasile. Attraverso l'analisi di quindici articoli presi da alcuni dei quotidiani più letti in Italia e nel Regno Unito, vedremo come in due nazioni così appassionate di calcio si scrive di questo sport, in particolare in occasione di un evento di interesse transnazionale, sottolinenando affinità e differenze tra due lingue apparentemente lontane tra loro ma che scopriremo avere molti punti in comune.
Resumo:
In any terminological study, candidate term extraction is a very time-consuming task. Corpus analysis tools have automatized some processes allowing the detection of relevant data within the texts, facilitating term candidate selection as well. Nevertheless, these tools are (normally) not specific for terminology research; therefore, the units which are automatically extracted need manual evaluation. Over the last few years some software products have been specifically developed for automatic term extraction. They are based on corpus analysis, but use linguistic and statistical information to filter data more precisely. As a result, the time needed for manual evaluation is reduced. In this framework, we tried to understand if and how these new tools can really be an advantage. In order to develop our project, we simulated a terminology study: we chose a domain (i.e. legal framework for medicinal products for human use) and compiled a corpus from which we extracted terms and phraseologisms using AntConc, a corpus analysis tool. Afterwards, we compared our list with the lists extracted automatically from three different tools (TermoStat Web, TaaS e Sketch Engine) in order to evaluate their performance. In the first chapter we describe some principles relating to terminology and phraseology in language for special purposes and show the advantages offered by corpus linguistics. In the second chapter we illustrate some of the main concepts of the domain selected, as well as some of the main features of legal texts. In the third chapter we describe automatic term extraction and the main criteria to evaluate it; moreover, we introduce the term-extraction tools used for this project. In the fourth chapter we describe our research method and, in the fifth chapter, we show our results and draw some preliminary conclusions on the performance and usefulness of term-extraction tools.