687 resultados para gruppi di isometrie dei fregi cristallografici piani Escher
Resumo:
I cammelli sono tipicamente allevati in paesi con vaste aree desertiche e possono essere impiegati per diversi scopi, tra i quali la produzione di latte, carne, lana, utilizzati nel trasporto, nella corsa, nel turismo, in lavori agricoli o nel mercato della cosmesi. Per quanto riguarda la produzione di latte di cammello, i paesi africani rappresentano circa il 90% dell'intera produzione mondiale, seguiti dai paesi Asiatici. Il latte di cammello (LC), in termini di valori nutritivi, è superiore al latte bovino e piuttosto vicino al latte umano, esso contiene, infatti, alte concentrazioni di composti bioattivi essenziali per la salute umana. Tuttavia, i prodotti alimentari ottenuti dal LC sono ancora molto limitati rispetto a quelli di latte bovino, nonostante essi apportino numerosi benefici sia nutrizionali che per la salute. Le differenze nella composizione, rispetto al latte vaccino, rendono i processi di produzione dei prodotti a base di latte bovino inadatti alla produzione di derivati a base di latte di cammello. Pertanto, una comprensione completa della composizione, dei composti bioattivi e della stabilità al calore è essenziale per preservarne il valore nutritivo intrinseco, ottenendo nel contempo le caratteristiche desiderabili nei prodotti finali. L'attuale utilizzo di LC è molto al di sotto del suo potenziale, questo perché la produzione di prodotti alimentari è molto impegnativa e presenta molti elementi critici. Questa relazione, si concentrerà sulla descrizione della possibile produzione di prodotti alimentari derivati da LC, compreso latte pastorizzato/sterilizzato, agente schiumogeno, polvere, gelato, formaggio, burro e yogurt. Considerando le difficoltà e le conoscenze necessarie per la produzione di prodotti di LC, verranno analizzate le sue proprietà intrinseche: la composizione, il suo valore nutritivo, le funzionalità e la stabilità durante il trattamento termico.
Resumo:
Il telerilevamento satellitare costituisce una delle tecniche di osservazione maggiormente efficace nel monitoraggio e nello studio dell'estensione del manto nevoso. Il manto ricopre un ruolo di estrema importanza quale risorsa idrica per gli ecosistemi e per le applicazioni agricole e industriali. Inoltre, è un indicatore climatologico in un contesto di cambiamenti climatici regionali e globali. In questo senso, la copertura nevosa è da considerarsi come una importante risorsa economica e sociale. Lo scopo della presente tesi è di produrre mappe di copertura nevosa giornaliere per la stima dell'estensione del manto nevoso della regione Emilia-Romagna e di analizzare la sua variabilità spazio-temporale nel periodo 2000-2020. Le mappe sono state sviluppate sulla base dei prodotti di neve, M*D10A1, del sensore MODIS, che consistono in mappe di classificazione della copertura in funzione dell'indice NDSI. Inizialmente, è stato costruito un albero decisionale con criteri a soglia multipla in grado di rielaborare la classificazione della superficie del sensore e produrre mappe di copertura nevosa sulla base di tre classi: neve, no-neve e nube. L'accuratezza delle mappe è stata validata tramite test statistici effettuati confrontandole con i dati di altezza del manto nevoso in situ di 24 stazioni meteorologiche, per il periodo di compresenza dei dati 2000-2012. I risultati della procedura di validazione hanno mostrato come, in generale, vi sia buon accordo tra il dato satellitare e la rispettiva osservazione al suolo, soprattutto nei pressi di stazioni lontane da vegetazione sempreverde e/o di ambiente urbano. Infine, è stata valutata la variabilità climatologica dell'estensione del manto nevoso tramite l'elaborazione degli indici di neve SCF, SCD e diversi indici SCA. L'attenzione è stata particolarmente focalizzata sugli indici di massima estensione invernale del manto, del valore mediano e del numero di giorni con estensione superiore al 39.5% della regione.
Resumo:
Il presente lavoro vuole studiare la produzione cinematografica degli anni ’50, per molti versi peculiare, dal punto di vista della sceneggiatura e degli sceneggiatori. Il cinema negli anni’50 è stato a lungo considerato transitorio: separava il quinquennio neorealista (del quale viene considerato il traditore dei valori fondanti) dal cinema degli anni Sessanta. Sono gli anni della ricerca di un cinema che possa raggiungere un pubblico di massa e per questo motivo di profonda sperimentazione, sia sul piano cinematografico-narrativo sia nei modi di produzione. Già durante gli anni del Neorealismo, ma in maniera ancora più evidente durante gli anni ’50, si afferma il modello di scrittura che Villa chiama “botteghe di scrittura”, sottolineando al contempo il lavoro artigianale e collettivo al tavolo di elaborazione delle sceneggiature. Infatti, è riscontrabile dai lunghi elenchi di nomi nei credits come il lavoro di scrittura si creava attraverso la relazione fra gruppi di individui che condividevano (nei limiti del possibile) idee politiche e idee di cinema, facendo della discussione l’elemento fondante della creazione. Il lavoro vuole concentrarsi essenzialmente sui film a episodi. In particolare, il case study sarà Altri Tempi (1952) di Alessandro Blasetti. Il film verrà analizzato attraverso le fonti di archivio contenute nel Fondo Blasetti, scandagliando i documenti essenziali che ricostruiscono la genesi e lo sviluppo dal punto di vista della scrittura scenica. Si prediligeranno appunti del regista sulla sceneggiatura e corrispondenze con gli addetti ai lavori dei due film, ricercando se possibile di ricostruire l’apporto degli sceneggiatori all’interno dei singoli episodi e in relazione al regista. Faremo riferimento anche alle relazioni degli sceneggiatori presenti nel fondo e si procederà verso una mappatura quanto più accurata del lavoro di scrittura che ha avuto luogo.
Resumo:
Il problema inverso di Galois classico consiste nel chiedersi se, dato un gruppo finito G, esista una estensione di Galois del campo dei numeri razionali che abbia come gruppo di Galois il gruppo G. Una volta verificata l'esistenza di una tale estensione poi, si cercano polinomi a coefficienti razionali il cui gruppo di Galois sia G stesso. Noto dall'inizio del diciannovesimo secolo, il problema è tuttora in generale irrisolto, nonostante nel corso degli anni siano stati fatti notevoli progressi. In questa tesi il problema viene affrontato e risolto in alcuni casi particolari: viene mostrata la realizzazione dei gruppi ciclici, dei gruppi abeliani e dei gruppi simmetrici come gruppi di Galois sul campo dei razionali, e vengono dati alcuni esempi di polinomi con tali gruppi di Galois.
Resumo:
La maggior parte della rete viaria nazionale ha superato i 50 anni di vita, essendo stata progettata tra il dopo guerra e i primi anni ’70. Di conseguenza, le infrastrutture come ad esempio ponti e viadotti sono caratterizzate da un generalizzato stato di degrado. Nell’ottica delle verifiche di sicurezza delle opere in C.A.P. esistenti, quindi, conoscere la precompressione residua di un determinato elemento, con un certo grado di affidabilità, permette di valutare la necessità di intervento o meno sullo stesso. Tra le tecniche diagnostiche in maggior diffusione vi è quella del rilascio tensionale, che consiste nello stimare l’attuale stato di precompressione agente su specifiche sezioni di elementi precompressi a partire dal rilascio di deformazione di precompressione, agente sul calcestruzzo, isolandone una porzione tramite una serie di tagli fino al raggiungimento del completo rilascio. Esistono varie tecniche di rilascio tensionale ma nella letteratura scientifica non esiste ancora una robusta validazione di questi metodi dal punto di vista dell’affidabilità e dell’accuratezza. In questo lavoro di tesi sono state affrontate due tecniche, riconducibili a due macrogruppi di metodi di misura: metodo tramite la realizzazione di tagli inclinati o perpendicolari rispetto alla superficie del manufatto in calcestruzzo, al fine di estrarre un provino tronco piramidale; metodo tramite l’estrazione di una carota perpendicolare alla superficie del manufatto in calcestruzzo. L’obiettivo prefissato era la valutazione delle prove in termini di attendibilità dei risultati con, inoltre, una particolare attenzione all’invasività nei confronti della struttura e alla ripetibilità in situ. Per il lavoro di tesi sono state realizzate 10 colonne in cemento armato (C.A.) a cui, al fine di simulare uno stato di precompressione, è stata applicata una tensione nota di compressione per poi procedere con le prove di rilascio tensionale tramite i metodi considerati.
Resumo:
Il Ground Penetrating Radar (GPR) è una tecnica di indagine non distruttiva che si basa sulla teoria della propagazione delle onde elettromagnetiche. Questa tecnologia venne inizialmente utilizzata per indagini geologiche, ma più recentemente è stata introdotta anche per lo studio di altri materiali quali calcestruzzo, legno e asfalto. Questa tecnologia investigativa può essere utilizzata per varie problematiche : • Localizzazione di oggetti all’interno del materiale inglobante • Determinazione dello spessore dello strato del materiale oggetto di studio (calcestruzzo, asfalto, terreno, legno) • Proprietà del materiale, inclusa umidità ed eventuale presenza di vuoti Nella fase iniziale di questo lavoro di tesi sono stati studiati i principi fisici di funzionamento, la metodologia di elaborazione dei dati restituiti dallo strumento e di interpretazione dei risultati. Successivamente, è stato posto l’obbiettivo di verificare l’applicabilità del georadar nel rintracciare i ferri di armatura nelle travi da ponte. Quest’ultime sono spesso realizzate tramite l’impiego della precompressione con cavi post-tesi che implica la presenza di guaine con all’interno i relativi trefoli di tensionamento. Per simulare tali condizioni sono state realizzate in laboratorio delle “travi campione” con guaine in differente materiale, con differente posizionamento e con differente tecnologia di posa, in modo tale da permettere di studiare diversi scenari. Di seguito le differenti tipologie di travi : - Trave con guaine metalliche ; - Trave con guaine plastiche ; - Trave con interruzioni in polistirolo lungo le guaine (per simulare la corrosione delle stesse); - Travi con trefoli inseriti all’interno delle guaine (per studiarne l’influenza sul segnale).
Resumo:
DUNE (Deep Underground Neutrino Experiment) è un esperimento internazionale attualmente in costruzione al laboratorio Fermilab in Illinois, Stati Uniti. Il suo scopo sarà quello di studiare alcuni dei fenomeni e quesiti aperti che riguardano i neutrini: particelle debolmente interagenti facenti parte del Modello Standard. In particolare DUNE intende studiare il fenomeno dell'oscillazione di sapore dei neutrini, osservare neutrini provenienti da supernove e stelle di neutroni per studiarne la formazione e ricercare l'eventuale decadimento dei protoni. L'esperimento sarà formato da due siti sperimentali distanti circa 1300 km tra loro: il Near Detector situato a Fermilab ed il Far Detector, situato al Sanford Underground Research Facility (SURF) in South Dakota. Questa tesi è rivolta in particolare al sistema di fotorivelazione del Far Detector, che utilizza fotomoltiplicatori al silicio (Silicon Photomultipliers, o SiPM). Questi dispositivi dovranno funzionare in condizioni criogeniche in argon liquido, perciò è stata avviata un'intensiva campagna di test volta alla caratterizzazione e validazione dei sensori che saranno montati nell'apparato. La sezione INFN di Bologna è coinvolta in questa campagna e dovrà testare una parte dei SiPM destinati all'impiego in DUNE. A tale scopo è stato realizzato, nei laboratori INFN, un sistema per il test di tali dispositivi in criogenia su larga scala. L'attività di tesi ha previsto la caratterizzazione di diversi SiPM sia a temperatura ambiente sia in criogenia e l'analisi delle distribuzioni statistiche dei parametri di diversi campioni di SiPM.
Resumo:
La tesi si pone l’obiettivo di indagare quelli che sono gli avvenimenti successivi all’unità d’Italia in uno dei simboli più importanti per la città di bologna, la Basilica di San Petronio. Lo studio si colloca come proseguimento e completamento di due tesi precedentemente compilate, andando ad approfondire sia il cambiamento dal punto di vista legislativo ma anche le azioni restaurative compiute nel periodo di riferimento preso in analisi. La prima fase di lavoro è stata caratterizzata dalla ricerca dei cambiamenti legislativi e normativi avvenuti dal 1860 che accompagnano la creazione della legge di tutela dei monumenti, varata agli inizi del ’900. La seconda fase è iniziata con una significativa ricerca archivistica e con una successiva analisi dei documenti che ha portato ad evidenziare i lavori di restauro sia all’esterno della basilica e che all’interno. Successivamente è stato svolto un approfondimento sui dibattiti relativi al completamento della facciata caratteristici di fine ‘800 e inizi ‘900, andando ad analizzare nei rispettivi concorsi, i principi e modalità di analisi e scelta della soluzione più adeguata. La terza fase ha riguardato il progetto per l’allestimento di una sala museale, che va a creare un proseguimento con quelle che sono le due sale museali già esistenti, ma non adeguate a creare un percorso tale da raccontare gli avvenimenti più recenti della fabbrica. Quindi con il progetto in esame si propone di aumentare lo spazio di allestimento, dedicando l’area interessata alla storia della basilica, ai restauri ottocenteschi, ai progetti per il completamento della facciata e ai recenti restauri eseguiti, lasciando il museo attuale alla conservazione degli oggetti sacri ed ecclesiastici. Inoltre, si è posto l’obiettivo di illuminare efficacemente l’intero ambiente, di conseguenza è stato progettato un impianto d’illuminazione tale da aumentare il confort visivo e permettere una semplice lettura e visualizzazione dei materiali esposti.
Resumo:
Il seguente elaborato di tesi prevede la simulazione del comportamento di quattro diversi layout di magazzino contenenti lo stesso numero di vani, ipotizzando uno stoccaggio della merce secondo il criterio delle classi. Inoltre è stata analizzata l’influenza della variabile altezza sul tempo di ciclo dei singoli magazzini. I quattro layout analizzati sono stati: il layout tradizionale, il layout diagonal cross aisle, il layout fishbone e il layout leaf. Il primo è un magazzino “convenzionale”, nel quale l’intersezione dei corridoi genera sempre angoli retti, i restanti tre sono magazzini “non convenzionali”, ovvero l’intersezione dei corridoi genera angoli particolari. Per ciascun magazzino è stato realizzato un modello matematico discreto in grado di determinare la posizione di ogni singolo vano, la sua distanza dal punto I/O e la sua altezza da terra. Il modello matematico e la tipologia di gestione del magazzino sono stati successivamente implementati in un programma scritto su Microsoft Excel, mediante il linguaggio integrato VBA (Visual Basic for Application). Questo ha permesso di determinare i tempi di ciclo medi per ciascun magazzino, facendo il rapporto tra le distanze precedentemente calcolate e le velocità di traslazione e sollevamento del carrello elevatore. Per ottenere dalla simulazioni dei valori il più possibile prossimi alla realtà è stata adottata la metodologia di Simulazione Monte Carlo e un numero di estrazioni pari a 1000. Dai risultati ottenuti è emerso che il magazzino fishbone è in grado di garantire i miglior tempo di ciclo e che i tempi di ciclo più bassi si ottengono, a parità di vani presenti in un magazzino, aumentando le dimensioni in pianta piuttosto che aumentando l’altezza del magazzino.
Resumo:
La colonna vertebrale è comunemente affetta da metastasi, che possono alterare le normali proprietà meccaniche dell’osso. Indagare gli effetti delle metastasi a livello nanostrutturale e comprendere la relazione tra quantità dell’osso, qualità dell’osso e proprietà meccaniche può migliorare la previsione della comparsa di fratture dovute alle metastasi. Lo scopo di questo lavoro è stato quello di valutare le proprietà meccaniche, come durezza, modulo elastico, lavoro totale, lavoro elastico e lavoro dissipato del tessuto blastico. In questo lavoro, tredici provini dal nucleo di vertebre lombari affette da metastasi blastiche sono stati preparati e sono state effettuate nanoindentazioni su differenti gruppi di provini (tessuto trabecolare lamellare, tessuto blastico lamellare, tessuto blastico non organizzato) per indagare le potenziali differenze tra quelli con un’apparenza sana e quelli con un’apparenza metastatica. I risultati ottenuti dall’analisi statistica hanno mostrato che durezza e modulo elastico risultavano inferiori (4.1% e 3.5% rispettivamente) nei provini blastici non organizzati quando questi sono stati messi a confronto con provini lamellari. Similarmente, la durezza è risultata inferiore (4.1%) nei provini blastici non organizzati quando questi sono stati messi a confronto con quelli blastici lamellari. Inoltre, mediante un’analisi di correlazione, è stata trovata una relazione significativa tra il modulo elastico e la durezza nel caso dei provini blastici lamellari e blastici non organizzati. Infine, il lavoro totale è risultato maggiore (2.8%) nei provini blastici non organizzati quando questi sono stati messi a confronto con quelli trabecolari lamellari. In conclusione, i risultati di questo studio evidenziano l’importanza di indagare le proprietà meccaniche locali del tessuto blastico per valutare la competenza meccanica delle vertebre metastatiche a livello nanostrutturale.
Resumo:
L'elaborato riguarda l'analisi tra lo stato as-is e lo stato to-be in riferimento ai processi interni ad un'organizzazione. Il focus del trattato è la descrizione delle fasi di lavoro che si susseguono nella ricostruzione di un processo, in questo caso specifico la rintracciabilità del flusso materiali inerenti al caso di Rosetti Marino Sp.a (Ravenna, Italia), nell'evidenziare quali sono le criticità attuali e le risorse coinvolte nel processo. Una volta individuati i punti critici, si passa all'analisi del to-be, ovvero allo studio delle possibili aree ed opportunità di miglioramento sia in termini di processo che di attori coinvolti. E' di fondamentale importanza comprendere nella fase finale momenti di formazione dei propri dipendenti con la sponsorship dei prorpi responsabili di funzione. In conclusione, l'elaborato attraversa sia le fasi operative del processo, di costruzione del nuovo flusso di attività ottimizzato, ma pone l'attenzione anche sulle fasi di formazione e di coinvolgimento di tutti i partecipanti necessari, affinchè il processo sia compreso, metabolizzato e messo a frutto.
Resumo:
L’obiettivo della tesi è quello di realizzare un progetto basato sull’interazione tra Raspberry Pi e NanoVNA, allo scopo di rendere automatico il processo di acquisizione dei dati di questo strumento di misura. A tal fine è stato sviluppato un programma in linguaggio Python, eseguibile dal terminale del Raspberry Pi, che permette all’utente di inserire agevolmente i parametri essenziali, come l’orario di inizio e termine delle misurazioni e l'intervallo di tempo tra una rilevazione e l’altra.
Resumo:
Il problema dello smaltimento delle plastiche tradizionali di origine petrolchimica ha stimolato l’interesse verso i materiali plastici bio-based biodegradabili come i PHB che, al contrario, possono essere degradati facilmente e in tempi rapidi dai batteri naturalmente presenti nell’ecosistema. Uno dei principali campi di applicazione dei PHA è quello del food packaging. L’uso di imballaggi attivi dove un antiossidante, disperso nella matrice polimerica, migra dall’imballaggio al cibo può essere utile per aumentare la shelf life degli alimenti ma anche per introdurre con la dieta fonti antiossidanti esogene che neutralizzano gli effetti dannosi dei radicali liberi, normalmente prodotti dai processi biologici. I tannini sono antiossidanti naturali che agiscono da riducenti, donano un idrogeno ai radicali liberi stabilizzandoli (free radical scavengers). Si può quindi usare il tannino estratto dal legno come bioadditivo per matrici biopolimeriche (PHB). Recuperando questo prodotto di scarto dell’industria agro-alimentare, si riesce ad abbassare il costo del prodotto finale che risulterà inoltre 100% biodegradabile e con capacità antiossidanti, quindi particolarmente adatto per il food packaging monouso. La bioplastica finale è stata ottenuta “melt mixando” il tannino in polvere, il PHB in pellets e il catalizzatore Ti(OBu)4 liquido in un mescolatore interno Brabender. Sono stati creati 4 campioni a percentuale crescente di tannino e catalizzatore. Sono state effettuate: - Prove di estrazione in acqua per capire quanto tannino non si fosse legato alla matrice biopolimerica. - Analisi FTIR per capire se fosse avvenuto un legame di transesterificazione tra matrice e tannino usando il Ti(OBu)4. - Prove di radical scavenging activity attraverso la spettroscopia uv-visibile per quantificare il potere antiossidante del tannino. - Analisi GPC, DSC e prove di trazione per confrontare le proprietà meccaniche e termiche dei campioni con quelle del PHB puro.
Resumo:
L’attività di tirocinio è iniziata con lo studio dei sottomarini e dei loro apparati. Una volta individuate le criticità del caso di studio è stata avviata una fase di ricerca bibliografica sui materiali e sui relativi processi tribologici coinvolti nello strisciamento tra vite e madrevite. La ricerca si è poi concentrata sui fenomeni di corrosione e sui materiali adatti a contrastarla; in base ai dati raccolti ne è stata selezionata una coppia per vite e madrevite. A questo punto è stata effettuata la modellazione CAD 3D del sistema di sollevamento, modellando i principali elementi del meccanismo, cioè la vite, la madrevite e i componenti che ospitano cuscinetti e guarnizioni. Contemporaneamente alla fase di disegno è stato effettuato il dimensionamento del sistema vite-madrevite e dei dispositivi necessari al suo funzionamento. Durante questa fase è stata progettata una legge di moto della vite tale da consentire prestazioni equivalenti o migliori del sistema idraulico da sostituire. Per la vite, oltre alle verifiche statiche e a fatica, è stato necessario effettuare le verifiche a carico di punta e di velocità critica. Durante i calcoli riguardanti la fatica, sono stati valutati gli effetti dovuti alla presenza della filettatura, calcolando i coefficienti di concentrazione delle tensioni grazie ad apposite simulazioni FEM. Inoltre, è stato dimensionato il collegamento tramite linguetta al motoriduttore. Dopo aver effettuato il dimensionamento statico della madrevite ed eseguito una verifica dei parametri che ne determinano l’usura, sono stati scelti i componenti commerciali come cuscinetti, guarnizioni e tenute. Terminata la fase di dimensionamento dei componenti è stato effettuato un approfondimento relativo al gruppo motoriduttore e al meccanismo frenante. Nei capitoli conclusivi sono stati valutati aspetti come la gestione dei carichi radiali, i test necessari ad ultimare la progettazione e i possibili sviluppi futuri.
Resumo:
Le recenti analisi dei dati raccolti ad ALICE dimostrano che la nostra comprensione dei fenomeni di adronizzazione dei sapori pesanti è ancora incompleta, perché le misure effettuate su collisioni pp, p-Pb e Pb-Pb non sono riproducibili da modelli teorici basati su altre tipologie di collisione come e+e−. In particolare, i risultati sembrano indicare che il principio di universalità, che assume che le funzioni di frammentazione di quark e gluoni siano indipendenti dal tipo di sistema interagente, non sia valido. Per questo motivo sono stati sviluppati nuovi modelli teorici e fenomenologici, capaci di riprodurre in modo più o meno accurato i dati sperimentali. Questi modelli differiscono tra di loro soprattutto a bassi valori di impulso trasverso pT . L’analisi dati a basso pT si rivela dunque di fondamentale importanza, in quanto permette di discriminare, tra i vari modelli, quelli che sono realmente in grado di riprodurre i dati sperimentali e quelli che non lo sono. Inoltre può fornire una conferma sperimentale dei fenomeni fisici su cui tale modello si basa. In questa tesi è stato estratto il numero di barioni Λ+c (yield ) prodotto in collisioni pp a √s = 13 TeV , nel range di impulso trasverso 0 < pT (Λ+c ) < 1 GeV/c. É stato fatto uso di una tecnica di machine learning che sfrutta un algoritmo di tipo Boosted Decision Trees (BDT) implementato dal pacchetto TMVA, al fine di identificare ed eliminare una grossa parte del fondo statistico e semplificare notevolmente l’analisi vera e propria. Il grado di attendibilità della misura è stata verificata eseguendo l’estrazione dello yield con due approcci diversi: il primo, modellando il fondo combinatoriale con una funzione analitica; successivamente con la creazione di un template statistico creato ad hoc con la tecnica delle track rotations.