525 resultados para Campi di concentramento, Guerra civile spagnola, Letteratura sul franchismo
Resumo:
Lo scopo di questa attività è approfondire le conoscenze sul processo di riempimento a caldo noto come nitro-hot-fill (NHF) utilizzato per contenitori in PET. Il nostro obiettivo è quello di simulare su scala di laboratorio il processo industriale al fine di ottimizzarne i parametri e aumentare la stabilità dei contenitori anche attraverso l’utilizzo di materie prime con caratteristiche migliorate utilizzando formulazioni adatte ai trattamenti a caldo. Il processo consiste nel riempimento della bottiglia ad una temperatura tra gli 80°/85°C, successivo al quale vi è l’iniezione di azoto al fine di evitare l’implosione durante il raffreddamento fino a temperatura ambiente. Questo settore del mercato è in forte crescita, molte bevande infatti hanno la necessità di un contenitore asettico; il processo di NHF ha il vantaggio di utilizzare il calore del prodotto stesso al fine di rendere la bottiglia sterile. Da qui nascono le criticità legate al processo, occorre prendere diversi accorgimenti al fine di rendere processabile in questo modo una bottiglia, infatti l’aumento di pressione interna dovuto all’iniezione di azoto si accompagna una temperatura vicina alla temperatura di transizione vetrosa. La nostra attività di ricerca ha focalizzato la propria attenzione sul design della bottiglia, sul processo di stiro-soffiaggio, sull’influenza dell’umidità assorbita nel PET, sul materiale utilizzato e su altri parametri di processo al fine di produrre contenitori in grado di resistere al riempimento NHF.
Resumo:
Il caso studio del vestibolo ottagonale di Villa Adriana ha dato la possibilità di applicare ad un edificio di notevole valore storico e artistico tecniche di restituzione digitale e di modellazione tridimensionale basate su applicativi di modellazione geometrica, con lo scopo di generarne il modello 3D digitale fotorealistico e polifunzionale. Nel caso specifico del vestibolo, un modello tridimensionale di questo tipo risulta utile a fini documentativi, a sostegno di ipotesi costruttive e come strumento per la valutazione di interventi di restauro. Il percorso intrapreso ha permesso di valutare le criticità nelle tecniche di acquisizione, modellazione e foto-modellazione tridimensionale applicate in ambito archeologico, tecniche usate abitualmente anche in settori quali l’architettura, il design industriale ma anche nel cinema (effetti speciali e film d’animazione) e in ambito videoludico, con obiettivi differenti: nel settore del design e della progettazione industriale il Reverse Modeling viene impiegato per eseguire controlli di qualità e rispetto delle tolleranze sul prodotto finale, mentre in ambito cinematografico e videoludico (in combinazione con altri software) permette la creazione di modelli realistici da inserire all’interno di film o videogiochi, (modelli non solo di oggetti ma anche di persone). La generazione di un modello tridimensionale ottenuto tramite Reverse Modeling è frutto di un processo opposto alla progettazione e può avvenire secondo diverse strategie, ognuna delle quali presenta vantaggi e svantaggi specifici che la rendono più indicata in alcuni casi piuttosto che in altri. In questo studio sono state analizzate acquisizioni tridimensionali effettuate tramite Laser Scan e tramite applicazioni Structure from Motion/Dense Stereo View.
Il modello di argomentazione di Toulmin nell’attivitá matematica degli studenti di scuola secondaria
Resumo:
Lo studio decritto in questo progetto di tesi ha avuto origine dalla volontà di analizzare l’atteggiamento di studenti di scuola superiore di I e II grado rispetto alla richiesta di fornire argomentazioni, di giustificare affermazioni o risultati ottenuti in ambito matematico. L’analisi quantitativa dei dati ottenuti sottoponendo gli studenti ad un questionario costituito da quesiti scelti in ambiti differenti tra le prove Invalsi ha evidenziato che solo una parte (36% per le superiori di I grado, 59% per le superiori di II grado) degli studenti che hanno risposto correttamente ai quesiti, è stata in grado di argomentare la risposta. L’analisi è stata a questo punto approfondita sulla base del modello di Toulmin e delle componenti del processo di argomentazione da lui descritte. Si è valutato per ogni argomentazione in quale o quali delle componenti toulminiane si sia concentrato l’errore. Ogni argomentazione considerata errata può infatti contenere errori differenti che possono riguardare una soltanto, diverse o tutte e quattro le componenti di Backing, Warrant, Data e Conclusion. L’informazione che ne è emersa è che nella maggioranza dei casi il fatto che uno studente di scuola superiore non riesca ad argomentare adeguatamente un’affermazione dipende dal richiamo errato di conoscenze sull'oggetto dell'argomentazione stessa ("Warrant" e "Backing"), conoscenze che dovrebbero supportare i passi di ragionamento. Si è infine condotta un’indagine sul terreno logico e linguistico dei passi di ragionamento degli studenti e della loro concatenazione, in modo particolare attraverso l’analisi dell’uso dei connettivi linguistici che esprimono e permettono le inferenze, e della padronanza logica delle concatenazioni linguistiche. Si è osservato per quanto riguarda le scuole superiori di I grado, che le difficoltà di argomentazione dovute anche a scarsa padronanza del linguaggio sono circa l’8% del totale; per le scuole superiori di II grado questa percentuale scende al 6%.
Resumo:
In questa tesi descriviamo due teorie, la MOND e la TeVeS, che si pongono come alternativa all’ipotesi dell’esistenza della materia oscura. Seguendo l’ordine storico degli eventi, nel primo capitolo presentiamo i dati sperimentali e le considerazioni teoriche che hanno convinto gli scienziati del ’900 che la massa osservata nell’Universo sia minore della massa dinamica inferita dalla fisica newtoniana e dalla Relatività Generale. Il primo tentativo di risolvere questo problema è consistito nell’ipotizzare l’esistenza di una materia non ancora osservata, divenuta nota come “materia oscura”. Affrontando le questioni sollevate dalle curve di rotazione delle galassie a spirale, dalla relazione di Tully-Fisher, dalla legge di Freeman e dalle fluttuazioni della radiazione cosmica di fondo, vedremo come questa ipotesi si sia evoluta per tenere conto dei risultati sperimentali, a partire dal modello della sfera isoterma fino al modello ΛCDM, e i problemi che essa non risolve. Nel secondo capitolo descriviamo la MOND, una modifica della dinamica newtoniana nata con l’obiettivo di ridurre la quantità di materia oscura necessaria per descrivere l’Universo. Il problema della massa nascosta può, infatti, essere dovuto a un’incompleta comprensione delle leggi della fisica e, confrontando la MOND con i dati sperimentali presentati nel primo capitolo, vedremo come essa riesca a descrivere la dinamica su scale galattiche ed extragalattiche. Concluderemo il capitolo mostrando una densità di lagrangiana capace di riprodurre la formula fenomenologica della MOND. Per affrontare le questioni cosmologiche è necessario disporre di una teoria relativistica che recuperi la MOND nel limite di campo debole. Nel terzo capitolo trattiamo quindi la TeVeS, riportando le azioni che permettono di derivare le equazioni dei campi di tale teoria. Dopo averne studiato i limiti relativistici e non relativistici, accenneremo a come essa permetta di estendere il paradigma MOND in campo cosmologico.
Resumo:
La citofluorimetria è una tecnica applicata per misurare le caratteristiche fisiche, morfologiche e fisiologiche di cellule microbiche ed ha il pregio di generare un dato per ogni singola particella (cellula) analizzata. Poiché è noto che l’assenza di sviluppo in piastra non implica necessariamente l’assenza di forme microbiche vitali, questa tecnica ha un grande potenziale nello studio dei trattamenti termici che mirano alla stabilizzazione ed alla sicurezza igienico-sanitaria dei prodotti alimentari. Infatti, nel contesto industriale la tendenza è quella di ridurre l’entità di questi trattamenti (tempi/temperature). Ciò può avvenire anche grazie all’utilizzo di composti d’aroma, la cui attività antimicrobica è ben documentata, poiché il trattamento termico, incrementando la tensione di vapore di queste sostanze, ne potenzia l’attività antimicrobica. Questa tesi è incentrata su due aspetti: da una parte, l’effetto dell’esposizione di L. monocytogenes a diverse concentrazioni di timolo e carvacrolo (terpenoidi prevalenti in oli essenziali di Labiatae tra cui timo e origano), dall’altra la valutazione degli effetti di trattamenti termici subletali (45, 50, 55°C), anche in presenza di composti d’aroma, sulla disattivazione e sul successivo recupero di L. monocytogenes. I risultati hanno confermato la forte sinergia tra trattamento termico e presenza di sostanze terpeniche. È stato inoltre dimostrato che la presenza di tali composti incide drasticamente sulle potenzialità di recupero degli eventuali sopravvissuti dopo il trattamento termico. I risultati a volte discordanti tra l’analisi citofluorimetrica (focalizzata sull’integrità della membrana) e i conteggi in piastra hanno evidenziato come i due approcci debbano essere utilizzanti in modo complementare. L’utilizzo di altri coloranti legati ad altre funzioni biologiche e metaboliche permetterà l’ottenimento di informazioni aggiuntive circa la risposta fisiologica di questo microrganismo.
Resumo:
L’oggetto di studio di questa tesi consiste nel primo approccio di sperimentazione dell’utilizzo di tecnologia UAV (Unmanned aerial vehicle, cioè velivoli senza pilota), per fotogrammetria ai fini di una valutazione di eventuali danni ad edifici, a seguito di un evento straordinario o disastri naturali. Uno degli aspetti più onerosi in termini di tempo e costi di esecuzione, nel processamento di voli fotogrammetrici per usi cartografici è dovuto alla necessità di un appoggio topografico a terra. Nella presente tesi è stata valutata la possibilità di effettuare un posizionamento di precisione della camera da presa al momento dello scatto, in modo da ridurre significativamente la necessità di Punti Fotografici di Appoggio (PFA) rilevati per via topografica a terra. In particolare si è voluto sperimentare l’impiego di stazioni totali robotiche per l’inseguimento e il posizionamento del velivolo durante le acquisizioni, in modo da simulare la presenza di ricevitori geodetici RTK installati a bordo. Al tempo stesso tale metodologia permetterebbe il posizionamento di precisione del velivolo anche in condizioni “indoor” o di scarsa ricezione dei segnali satellitari, quali ad esempio quelle riscontrabili nelle attività di volo entro canyon urbani o nel rilievo dei prospetti di edifici. Nell’ambito della tesi è stata, quindi, effettuata una analisi di un blocco fotogrammetrico in presenza del posizionamento di precisione della camera all’istante dello scatto, confrontando poi i risultati ottenuti con quelli desumibili attraverso un tradizionale appoggio topografico a terra. È stato quindi possibile valutare le potenzialità del rilievo fotogrammetrico da drone in condizioni vicine a quelle tipiche della fotogrammetria diretta. In questo caso non sono stati misurati però gli angoli di assetto della camera all’istante dello scatto, ma si è proceduto alla loro stima per via fotogrammetrica.
Resumo:
Il tempio di Baalshamin si trovava nell’antica città di Palmira, in Siria. Risalente al II secolo d.C. era l’edificio meglio conservato dell’intero sito archeologico. Il 23 agosto 2015 i miliziani dell’Isis, dopo averlo dichiarato profano, lo hanno fatto esplodere. Questa tesi tratta di geomatica e anastilosi applicate al caso del tempio di Baalshamin. L’obiettivo è ricostruire fotogrammetricamente il tempio di Baalshamin utilizzando foto turistiche trovate sul web. Si partirà da un inquadramento storico della città di Palmira, per poi passare ai nostri giorni e toccare argomenti di attualità. Dopodiché saranno illustrate brevemente le nozioni fondamentali della geomatica e si parlerà di anastilosi. Nella parte sperimentale della tesi verranno analizzati i prodotti ottenuti dal raddrizzamento fotografico e dalla ricostruzione fotogrammetrica. Si vuole dimostrare che anche da foto di bassa qualità è possibile ottenere risultati apprezzabili dal punto di vista geometrico. Si vuole inoltre sottolineare l’importanza del turismo e del mondo del web, senza i quali questa tesi non sarebbe stata realizzata.
Resumo:
La geolocalizzazione è l’insieme di metodi e tecniche che permette di mettere in relazione una certa informazione con un punto specifico della superficie terrestre. Il punto è generalmente indicato in maniera assoluta tramite coordinate latitudinali e longitudinali, oppure in maniera relativa ad altri punti noti. Nello specifico il concetto di geolocalizzazione enfatizza l’aspetto dinamico, riferendosi ad informazioni in tempo reale relative alla posizione, direzione e velocità del soggetto analizzato, e la conseguente analisi di percorso e comportamento. Tutto questo rende possibile la realizzazione di un sistema di localizzazione efficiente. La geolocalizzazione è considerata tra i più rivoluzionari campi di sviluppo in ambito sociale ed economico, pur avendo potenziali problemi legati alla privacy e libertà individuale di non semplice soluzione. In particolare è di interesse di ricerca e in ambito di commercio trovare un sistema di localizzazione adeguato non solo per l’esterno ma anche per situazioni indoor. In questa tesi verranno analizzati i vari metodi di posizionamento fino ad oggi studiati, sia indoor che outdoor per arrivare a proporre un sistema di localizzazione indoor basato su geomagnetismo dell’ambiente. Nel primo capitolo il documento presenta una riflessione storica sull’evoluzione del concetto di localizzazione, partendo dai primi tentativi di navigazione, fino ad arrivare ai più moderni sistemi tecnologici. Vedremo quindi nello specifico quali sono gli ultimi studi e tecnologie per un sistema di localizzazione indoor, concentrandosi sull’analisi dei vantaggi offerti da nuovi dispositivi con gli smartphones. Infine verrà descritto nel dettaglio il lavoro effettuato per la realizzazione di un prototipo di sistema di localizzazione indoor basato su geomagnetismo in sede aziendale GetConnected, dove si è svolta l’attività di tesi, e presso un grosso centro commerciale come caso d’uso pratico.
Resumo:
I frutti secchi ed i semi commestibili hanno comprovati benefici per la salute, essendo il loro consumo relazionato con la riduzione del rischio di malattie croniche. Tuttavia, questi alimenti hanno un elevato potenziale allergico per una parte della popolazione mondiale. A causa del fatto che le allergie alimentari sono in aumento, diventa importante conoscere tutti i componenti presenti in un alimento, anche se in tracce. Il Regolamento UE n°1169/2011 ha normalizzato le leggi sull’etichettatura delle sostanze che causano allergie ed intolleranze alimentari. Di conseguenza, vi è l'urgente necessità di metodi specifici e affidabili in grado di rilevare allergeni negli alimenti che permettano di garantire la sicurezza alimentare e la conformità delle etichette, migliorando così la vita dei consumatori allergici. Sebbene le tecniche immunologiche siano più specifiche per l’identificazione di proteine allergeniche, le tecniche basate sul DNA sono più adatte per matrici alimentari molto complesse o nel caso di alimenti che hanno subito numerosi processi di trasformazione, mostrandosi come metodi alternativi affidabili. L’obiettivo di questo lavoro di tesi è stato quello di sviluppare una metodica per il rilevamento di specie allergeniche vegetali (frutta a guscio e semi commestibili) in matrici alimentari usando la tecnica del DNA Barcoding e la tecnica della Real-Time PCR. I vantaggi di queste tecniche sono, oltre alla necessità di quantità minime di campione, la possibilità di identificare varie specie allergeniche in simultaneo, anche dopo che queste abbiano subito processi di lavorazione. Si è inoltre fatta un’analisi fingerprinting dei composti volatili su matrici alimentari attraverso il gascromatografo HERACLES II. Le metodiche sviluppate possono fungere come metodi di screening veloci ed affidabili nella riduzione di possibili contaminazioni dei prodotti alimentari, rilevando la presenza o confermando l'assenza di allergeni.
Resumo:
In questo lavoro di tesi si è voluta creare una metodologia solida per la generazione di geome-trie banchi di flussaggio stazionario, sia per Tumble che per Swirl, a varie alzate valvole (in questo caso solo aspirazione, ma estendibile anche a quelle di scarico), avvalendosi del soft-ware SALOME; seguite da creazione griglia di calcolo e infine simulazione in ambiente Open-FOAM. Per prima cosa si è importata la geometria creata in un CAD esterno e importata in SALOME in formato STEP. A seguito si sono posizionate le valvole all’alzata da simulare, insieme alla creazione del falso cilindro, diversificato tra il caso Tumble e Swirl. Si è importato il file del banco di flussaggio, in formato STL, in snappyHexMesh e generata la griglia; questa è stata utilizzata per la simulazione in ambiente OpenFOAM, utilizzando l’utility rhoPorousSimpleFoam. Infine, si sono estratti i dati per il calcolo di grandezze utili, coppia di Tumble/Swirl e portata in massa, oltre alla creazione di immagini di visualizzazione campi di moto, utilizzando il post processore ParaView. In parallelo si è sviluppata l’automatizzazione delle varie fasi servendosi sia di script scritti in python che in bash.
Resumo:
L’elaborazione di quantità di dati sempre crescente ed in tempi ragionevoli è una delle principali sfide tecnologiche del momento. La difficoltà non risiede esclusivamente nel disporre di motori di elaborazione efficienti e in grado di eseguire la computazione coordinata su un’enorme mole di dati, ma anche nel fornire agli sviluppatori di tali applicazioni strumenti di sviluppo che risultino intuitivi nell’utilizzo e facili nella messa in opera, con lo scopo di ridurre il tempo necessario a realizzare concretamente un’idea di applicazione e abbassare le barriere all’ingresso degli strumenti software disponibili. Questo lavoro di tesi prende in esame il progetto RAM3S, il cui intento è quello di semplificare la realizzazione di applicazioni di elaborazione dati basate su piattaforme di Stream Processing quali Spark, Storm, Flinke e Samza, e si occupa di esaudire il suo scopo originale fornendo un framework astratto ed estensibile per la definizione di applicazioni di stream processing, capaci di eseguire indistintamente sulle piattaforme disponibili sul mercato.
Resumo:
Il lavoro svolto in questa tesi si colloca nel contesto della riqualificazione di una struttura in muratura portante esistente tramite cappotto sismico. Ha come oggetto l’analisi della sua risposta meccanica, con particolare attenzione alla modellazione numerica. L’immobile oggetto di studio è edificato nella zona costiera del comune di San Benedetto del Tronto (AP). La prima fase di analisi consiste in un approfondito percorso di conoscenza della struttura, che riguarda un attento studio storico-critico dell’evoluzione strutturale seguito, poi, da un’indagine conoscitiva della geometria della struttura e delle caratteristiche meccaniche dei materiali costituenti. Per migliorare il comportamento dell’edificio sotto carichi sismici, si sceglie di intervenire tramite la realizzazione di un’epidermide sismo-resistente, che deve essere correttamente modellata congiuntamente alla muratura portante. Viene proposta una prima modellazione semplificata nella quale le pareti del cappotto vengono implementate mediante l’utilizzo di elementi bidimensionali, mentre la muratura esistente viene considerata solamente come massa sismica. Nella seconda strategia di modellazione, seppure si mantenga la stessa impostazione per la schematizzazione del cappotto sismico, si avanza l’ipotesi di discretizzare la struttura esistente mediante il metodo a telaio equivalente, per valutare così la ripartizione delle azioni sismiche tra cappotto e muratura. Vengono eseguite tutte le verifiche necessarie per la valutazione di fattibilità dell’opera, esaminando anche i livelli di sicurezza raggiunti per lo stato di progetto. Con entrambe le strategie si raggiunge un’ottima riqualificazione dell’immobile.
Resumo:
Nonostante l'utilizzo di strumenti informatici nella pratica didattica della matematica sia ormai ampiamente diffuso, l'insegnamento dei principi matematici dell'informatica è preso meno in considerazione anche a causa dei pochi punti di contatto nelle "Indicazioni Nazionali" tra le due materie, matematica e informatica, che sono invece intimamente correlate. Questa tesi descrive una attività didattica incentrata sul concetto di calcolabilità e computabilità e basata sul noto formalismo delle Macchine di Turing. É nostra opinione che coinvolgere gli studenti in tali tipologie di attività possa stimolare oltre all'apprendimento di competenze disciplinari, anche lo sviluppo di importanti competenze trasversali, in primis, il problem solving. L’attività proposta nella tesi è stata realizzata in una classe terza di un istituto tecnico economico dove, a seguito di una spiegazione dell’argomento, sono stati svolti due esercizi di gruppo, utilizzando il software \emph{Turing Machine Visualization}, che permette agli studenti e al docente di avere un supporto visuale al dialogo. Al termine dell’attività didattica è stato somministrato agli studenti un questionario che ha permesso di valutare le competenze acquisite da due prospettive distinte: soggettiva e oggettiva. I risultati del questionario sono ampliamente analizzati e discussi nella tesi.
Resumo:
Nel panorama videoludico, Final Fantasy IX occupa un posto d’onore. Nonostante conti più di vent’anni alle spalle, rimane in vetta alle classifiche dei titoli Final Fantasy più amati, soprattutto grazie al suo cast di personaggi. Il suo successo, tuttavia, non gli è valso una rivisitazione della sua localizzazione, la stessa dalla prima pubblicazione del gioco che continua a presentare imprecisioni, interpretazioni errate e scelte riguardanti la caratterizzazione dei personaggi che meriterebbero un aggiornamento secondo le linee guida e gli standard odierni. Questo elaborato ha come obiettivo una proposta di ritraduzione di Final Fantasy IX, per modernizzare la lingua non solo dal punto di vista dei dialetti, utilizzati nella versione originale e qui sostituiti da altre strategie, ma anche dell’aderenza al testo originale, restituendo ad alcuni personaggi la caratterizzazione che hanno nella versione giapponese del gioco. Si analizza il giapponese seguendo lo yakuwarigo (Kinsui, 2017), un particolare concetto della lingua giapponese secondo il quale a ogni personaggio viene assegnato un linguaggio mettendone in luce alcuni tratti del loro modo di essere. Si procede all’elaborazione di strategie di traduzione che colmino l’assenza di un concetto simile nella lingua italiana, giocando sui registri linguistici e scelte sintattiche e lessicali pensate appositamente per ogni personaggio. Si analizzano inoltre altri aspetti riguardanti nello specifico la lingua giapponese, come i diversi gradi di formalità e quale effetto abbiano sul testo. Un’analisi di questo tipo risulta funzionale alla resa in italiano di particolarità così legate alla lingua giapponese. Pur perdendo alcune sfumature nel passaggio tra una lingua e l’altra, si tratta pur sempre di un tentativo di aderenza al testo di partenza che permette ai giocatori di fruire di un’esperienza quanto più simile a quella del testo originale.
Resumo:
La pratica dell’appassimento fa parte della cultura mediterranea sin dall’era del Neolitico. Tale tecnica veniva praticata anche nell’Antica Grecia e successivamente nelle diverse regioni dell’Impero Romano. Il presente elaborato si propone, attraverso lo studio dello stato dell’arte relativamente ai vini passiti, di illustrare alcune tecniche di vinificazione, approfondire le caratteristiche salienti di questa tipologia di vino e delinearne il posizionamento sul mercato. In particolare, si sono prese in considerazione le tre tecniche di appassimento comunemente utilizzate: appassimento in campo, in fruttaio e in cella. Per quanto concerne l’appassimento in campo, si è fatto un approfondimento in merito agli effetti indotti dalla Botrytis cinerea, muffa nobile la cui presenza sulle uve permette di dar vita a vini botritizzati dalle caratteristiche distintive, come nel caso dell’Albana Passito di Romagna. I metodi di appassimento che prevedono l’utilizzo di un locale apposito (fruttaio e cella) si differenziano per il controllo della temperatura e dell’umidità e quindi il processo di disidratazione dell’acino avviene in tempi più rapidi e con minor rischio di sviluppo di patogeni. Lo sviluppo di queste tecniche come ha impattato sul consumo di vino passito? Negli ultimi anni il consumo di vino sta aumentando, e l’Italia è uno dei principali paesi produttori e consumatori. Il vino passito però, data la sua complessità e le particolari occasioni d’uso, occupa un piccolo spazio in questo scenario ed è caratterizzato da una concentrazione nel consumo delle produzioni locali, faticando a occupare un posto di rilievo sul mercato. Nonostante ciò, vi sono anche casi di successo, come quello dell’Amarone della Valpolicella DOCG, che lasciano ben sperare in uno sviluppo futuro.