763 resultados para Scorrimenti traslativi, Marnoso Arenacea, analisi a ritroso, analisi di stabilità
Resumo:
Questa tesi di laurea si colloca all'interno del progetto Erasmus + IDENTITIES, il cui obiettivo è sviluppare materiali didattici interdisciplinari per la formazione iniziale degli insegnanti. Nello specifico, si dà seguito ad una ricerca condotta da Lorenzo Miani, finalizzata a mettere in evidenza come la Teoria della Relatività Speciale (STR) sia storicamente nata da una speciale interazione tra matematica e fisica. Tale co-evoluzione è stata cercata, e messa in evidenza, attraverso l’analisi dei quattro articoli fondativi della STR scritti da Lorentz (1904), Poincaré (1906), Einstein (1905) e Minkowski (1908). Per l’analisi di questi articoli abbiamo utilizzato la metafora del “confine”, esposta nella metateoria di Akkerman e Bakker (2011), riferendosi al confine tra Matematica e Fisica. È stato sviluppato uno strumento operativo di analisi di articoli originali per estrarne il rapporto tra le due discipline. Un’analisi di questo tipo può portare un contributo considerevole al Justification Problem, intercettando la possibilità di indagare sull’identità della Matematica, intesa come disciplina. Questo tipo di analisi ha permesso di comprendere gli “stili al confine” di ogni autore, e la natura delle Trasformazioni di Lorentz in quanto oggetto di confine. È inoltre illustrata la progettazione di un’attività per la formazione iniziale degli insegnanti. Questa si configura come un tutorial per lavori di gruppo, ed è stata sperimentata nel corso di Didattica della Fisica dell’Università di Bologna, tenuto dalla Professoressa Olivia Levrini. Grazie all’attività, è stato possibile riflettere sulle identità disciplinari e sull’importanza di fare “esperienze di confine” per superare stereotipi. Lo strumento elaborato nella tesi si apre a sviluppi futuri, dal momento che si presta ad essere utilizzato per l’analisi di una grande varietà di testi e per la costruzione di “boundary zone”, sempre più auspicate e incentivate nei report europei.
Resumo:
Partendo dall'analisi del fenomeno della convergenza televisiva, ci soffermiamo sulle modalità di valorizzazione di programmi, serie tv, canali e piattaforme tramite l'uso delle metriche proposte da Auditel e da Netflix. Dopo l'analisi di macrofenomeni, spostiamo il nostro sguardo su casi particolari di serialità televisiva e testi cinematografici prodotti da Netflix. Con Squid Game ci soffermiamo sull'uso comunicativo dei dati e di come Netflix abbia sviluppato un nuovo paradigma nella valorizzazione dei propri contenuti. Mentre con E' stata la mano di Dio ci concetriamo sul ruolo distruttivo di Netflix nei confronti della sala come tradizionale luogo di prima definizione del valore economico di un film.
Resumo:
Background. Il recupero funzionale precoce dopo intervento di wedge resection polmonare non è studiato in maniera approfondita, in particolare, sono carenti i dati relativi al recupero postoperatorio precoce dei pazienti sottoposti a tele procedura chirurgica in seguito a metastasi polmonari per tumore osseo primitivo. Obiettivo. Lo scopo di questo studio osservazionale è quello di descrivere il percorso fisioterapico dopo intervento di wedge resection polmonare, evidenziando il possibile recupero funzionale nel breve termine e ricercandone i possibili fattori prognostici. Metodi. Per valutare il recupero funzionale si è utilizzato il 1 minute sit to stand test (1MSTS), che è stato somministrato in sesta giornata postoperatoria. Per descrivere l’andamento del recupero il test è stato somministrato in fase preoperatoria e in tutte le giornate postoperatorie. Sono state condotte analisi di univariata per valutare l’associazione delle variabili demografiche, anamnestiche e cliniche con l’outcome primario. Risultati. Sono stati reclutati 13 pazienti, per un totale di 17 osservazioni poiché alcuni pazienti hanno ripetuto l’operazione. Nella sesta giornata il 41,2% dei pazienti aveva eseguito lo stesso o un numero maggiore di verticalizzazioni del 1MSTS fatte nella fase preoperatoria. Nella sesta giornata postoperatoria il 100% dei pazienti era riuscito ad eseguire il 1MSTS almeno una volta dopo l’intervento. All’outcome primario risultavano associarsi con una significatività statistica il livello di autonomia, misurato con la TESS, (p=0,01) e il 1MSTS (p=0,001) misurati nella fase preoperatoria. Conclusioni. Il recupero funzionale postoperatorio è possibile fin dalle prime giornate postoperatorie per i pazienti sottoposti a wedge resection. Il livello di autonomia e il numero di verticalizzazioni del 1MSTS eseguite in fase preoperatoria sono possibili fattori prognostici del recupero funzionale postoperatorio.
Resumo:
La tesi descrive un modello AIMMS di ottimizzazione dei flussi di potenza tra gli utenti di una comunità energetica rinnovabile. Il modello considera la presenza nella stessa rete di distribuzione di più comunità energetiche. Ogni utente può scegliere un fornitore diverso dagli altri anche se partecipa ad una comunità. Sono considerati generatori fotovoltaici e sistemi di accumulo. Per i carichi sono stati generati profili tipici di utenze domestiche. Il modello è in grado di valutare i prezzi delle transazioni di energia interne a ciascuna comunità, in base alle tariffe orarie dei fornitori di energia. Per la rete di distribuzione test IEEE a 123 nodi, la tesi presenta una analisi di sensitività al variare della taglia dei sistemi di accumulo, della potenza di picco dei generatori fotovoltaici, della potenza richiesta dai carichi, del numero di comunità energetiche e dei fornitori.
Resumo:
Il presente lavoro di tesi si inserisce nell’ambito degli studi finalizzati al miglioramento delle condizioni di stabilità degli esoscheletri attivi per gli arti inferiori. L’obiettivo principale di questa tesi è la stima in tempo reale dell’orientamento degli arti superiori a partire dalle grandezze in uscita dall’esoscheletro e da un sistema di sensori inerziali indossabili. Il primo capitolo descrive lo stato dell’arte degli esoscheletri per gli arti inferiori seguita da una breve analisi degli studi compiuti dalla ricerca per il controllo dell’equilibrio del sistema uomo-macchina con l’impiego di metodi diversi. Nel secondo capitolo viene presentato il modello biomeccanico uomo-esoscheletro-stampelle, le strategie utilizzate per il controllo dell’equilibrio del sistema, ed i metodi impiegati per la stima dell’orientamento delle braccia del soggetto. Nel terzo capitolo vengono riportati e discussi i risultati dell’applicazione dei metodi di stima della cinematica degli arti superiori che vengono ripresi nelle conclusioni nel quarto capitolo.
Resumo:
Oggigiorno le aziende si trovano ad operare in mercati aventi caratteristiche comuni; le difficoltà presenti nelle catene del valore sono evidenti: risulta complicato non solo reperire la materia prima per realizzare il prodotto finito, ma anche l’energia necessaria per avviare i processi di trasformazione. Partendo da queste considerazioni, l’incremento dei costi aziendali risulta purtroppo scontato; è quindi necessario ricercare metodi per ridurli e per mantenere invariato il margine di contribuzione sul prodotto finito. Questo elaborato va ad esaminare le attività presenti all’interno del magazzino prodotti finiti di Marazzi Group, azienda leader nella produzione del grès porcellanato, cercando di proporre alcuni miglioramenti applicabili nella quotidianità. Nello specifico, tramite l’applicazione del principio di Pareto, siamo andati a suddividere gli articoli e le locazioni in classi cercando di determinare l’allocazione ottimale per ridurre al minimo le movimentazioni e i relativi sprechi. Una volta determinata la situazione attuale, abbiamo cercato di creare uno strumento che permettesse di monitorare in qualsiasi istante la gestione da parte del responsabile. Inoltre, considerando la saturazione delle varie locazioni, siamo andati a creare un file in grado di indirizzare il materiale in ingresso nella stiva più adeguata. L’introduzione di questi miglioramenti ha portato benefici sia da un punto di vista quantitativo sia qualitativo. A livello quantitativo è stato possibile osservare una riduzione dei costi collegati al personale, al carburante e alla manutenzione dei carrelli. D’altro canto, a livello qualitativo abbiamo riscontrato una riduzione nei tempi di preparazione e di spedizione, aumentando così la capacità produttiva del magazzino.
Resumo:
Quando si pensa alla figura di un medico, non lo si può immaginare senza uno stetoscopio alle sue spalle. Lo stetoscopio è uno strumento molto semplice ma molto importante, inventato in Francia nel 1816 da René Théophile Hyacinthe Laennec, permise di poter auscultare ed analizzare i rumori generati dai battiti cardiaci ottenendo suoni più puliti e rendendo meno invasiva la procedura, precedentemente svolta posizionando l'orecchio sul petto del paziente. Nel 1970 David Littman migliorò notevolmente la struttura dello stetoscopio precedente, creando lo strumento che noi tutti conosciamo. Grazie alla rapida evoluzione dell'elettronica negli ultimi anni si hanno oggi a disposizione una moltitudine di nuovi ed efficaci sensori, alcuni dei quali trovano impiego nell'ambito dell'ingegneria biomedica. In particolare, si è pensato di utilizzare queste nuove tecnologie per la progettazione e lo sviluppo di uno stetoscopio elettronico. Il forte vantaggio di uno stetoscopio elettronico, rispetto al classico biomeccanico, risiede nell'elaborazione, nel filtraggio e nell'amplificazione del segnale che si può applicare all'auscultazione, oltreché nella possibilità di poter registrare il segnale acquisito, rendendo questo dispositivo uno strumento potenzialmente efficace per la telemedicina. In questo elaborato verrà trattato lo sviluppo di uno stetoscopio elettronico, evidenziando tutti i problemi e le criticità riscontrate durante il progetto in ogni punto di vista, software, hardware e signal processing. Tutto ciò non prima di una consistente introduzione necessaria per comprendere la tipologia di segnale d'interesse e l'analisi di alcuni tipi di dispositivi presenti in commercio e non, da cui si è tratta ispirazione. Seguirà un analisi critica dei risultati ottenuti, confrontando i segnali ottenuti dal dispositivo progettato con quelli ottenuti in reparto utilizzando due dispositivi commerciali, analizzando le differenze, punti di forza e di debolezza.
Resumo:
La tesi in oggetto ha lo scopo di determinare l’effetto della sabbiatura sul comportamento a fatica della lega AlSi10Mg prodotta mediante Laser Powder Bed Fusion e trattata termicamente. I parametri di processo e di trattamento termico (T5 e T6) sono stati precedentemente ottimizzati. Al fine di determinare l’effetto della sabbiatura su topografia superficiale e microstruttura dei campioni, si sono condotte molteplici analisi avvalendosi di strumenti quali profilometria, microscopia ottica ed in scansione, analisi di tensioni residue con diffrazione a raggi X e prove di durezza. Attraverso prove di fatica per flessione rotante, eseguite secondo il metodo Stair-Case per la determinazione della resistenza a fatica, e successiva caratterizzazione delle superfici di frattura si vuole correlare il difetto killer, ossia quello responsabile del cedimento per fatica, alle caratteristiche morfologiche e microstrutturali. Il difetto killer viene caratterizzato in termini di dimensione e distanza dalla superficie e per mostrare la relazione fra la dimensione del difetto killer e la resistenza a fatica si adotta il diagramma di Kitagawa-Takahashi con modellazione di Murakami ed EL Haddad. Si è evidenziato che tutti i difetti killer sono riconducibili a lack-of-fusion con dimensione superiore ai 100 μm ad una profondità compresa fra i 150 e i 200 μm, indipendentemente dal trattamento termico o meccanico applicato. In termini di fatica si osserva che il trattamento T6 conferisce al materiale migliori proprietà rispetto a quello T5. Il processo di sabbiatura, confrontato con quello di lucidatura superficiale, ha portato a miglioramenti in termini di durezza e tensioni residue di compressione, ma si è rivelato quasi ininfluente sulla resistenza a fatica. Sulla base di quanto sopra, si conferma la possibilità di applicazione della sabbiatura in ambito industriale a componenti meccanici, anche in sostituzione della lucidatura, ottenendo un beneficio anche economico.
Resumo:
Molti degli studi oncologici partono dalla analisi di provini istologici, cioè campioni di tessuto prelevati dal paziente. Grazie a marcatori specifici, ovvero coloranti selettivi applicati alla sezione da analizzare, vengono studiate specifiche parti del campione. Spesso per raccogliere più informazioni del campione si utilizzano più marcatori. Tuttavia, questi non sempre possono essere applicati in parallelo e spesso vengono utilizzati in serie dopo un lavaggio del campione. Le immagini così ottenute devono quindi essere allineate per poter procedere con studi di colocalizzazione simulando una acquisizione in parallelo dei vari segnali. Tuttavia, non esiste una procedura standard per allineare le immagini così ottenute. L’allineamento manuale è tempo-dispendioso ed oggetto di possibili errori. Un software potrebbe rendere il tutto più rapido e affidabile. In particolare, DS4H Image Alignment è un plug-in open source implementato per ImageJ/Fiji per allineare immagini multimodali in toni di grigio. Una prima versione del software è stata utilizzata per allineare manualmente una serie di immagini, chiedendo all’utente di definire punti di riferimento comuni a tutte le immagini. In una versione successiva, è stata aggiunta la possibilità di effettuare un allineamento automatico. Tuttavia, questo non era ottimizzato e comportava una perdita di informazione nelle aree non sovrapposte all’immagine definita come riferimento. In questo lavoro, è stato sviluppato un modulo ottimizzato di registrazione automatica di immagini che non assume nessuna immagine di riferimento e preserva tutti i pixel delle immagini originali creando uno stack di dimensioni idonee a contenere il tutto. Inoltre, l’architettura dell’intero software è stata estesa per poter registrare anche immagini a colori.
Resumo:
La segmentazione prevede la partizione di un'immagine in aree strutturalmente o semanticamente coerenti. Nell'imaging medico, è utilizzata per identificare, contornandole, Regioni di Interesse (ROI) clinico, quali lesioni tumorali, oggetto di approfondimento tramite analisi semiautomatiche e automatiche, o bersaglio di trattamenti localizzati. La segmentazione di lesioni tumorali, assistita o automatica, consiste nell’individuazione di pixel o voxel, in immagini o volumi, appartenenti al tumore. La tecnica assistita prevede che il medico disegni la ROI, mentre quella automatica è svolta da software addestrati, tra cui i sistemi Computer Aided Detection (CAD). Mediante tecniche di visione artificiale, dalle ROI si estraggono caratteristiche numeriche, feature, con valore diagnostico, predittivo, o prognostico. L’obiettivo di questa Tesi è progettare e sviluppare un software di segmentazione assistita che permetta al medico di disegnare in modo semplice ed efficace una o più ROI in maniera organizzata e strutturata per futura elaborazione ed analisi, nonché visualizzazione. Partendo da Aliza, applicativo open-source, visualizzatore di esami radiologici in formato DICOM, è stata estesa l’interfaccia grafica per gestire disegno, organizzazione e memorizzazione automatica delle ROI. Inoltre, è stata implementata una procedura automatica di elaborazione ed analisi di ROI disegnate su lesioni tumorali prostatiche, per predire, di ognuna, la probabilità di cancro clinicamente non-significativo e significativo (con prognosi peggiore). Per tale scopo, è stato addestrato un classificatore lineare basato su Support Vector Machine, su una popolazione di 89 pazienti con 117 lesioni (56 clinicamente significative), ottenendo, in test, accuratezza = 77%, sensibilità = 86% e specificità = 69%. Il sistema sviluppato assiste il radiologo, fornendo una seconda opinione, non vincolante, adiuvante nella definizione del quadro clinico e della prognosi, nonché delle scelte terapeutiche.
Resumo:
Il Parmigiano Reggiano è un formaggio a Denominazione d’Origine Protetta (DOP), a pasta dura, cotta, granulosa, a lunga stagionatura, prodotto con latte crudo, parzialmente scremato, proveniente da vacche alimentate prevalentemente con foraggi della zona d’origine. La trasformazione del latte in questo formaggio DOP è ancora basata su una tecnologia artigianale legata all’esperienza empirica dei casari e tutelata dal Consorzio del Parmigiano Reggiano. L’obiettivo della tesi è stato quello di analizzare l’attività dell’acqua e la texture di 14 punte di formaggio “Parmigiano Reggiano”, provenienti da diverse realtà casearie nelle provincie di Parma, Reggio Emilia, Modena, Bologna alla sinistra del fiume Reno e Mantova, alla destra del fiume Po aderenti al consorzio di tutela; al fine di trarre conclusioni sulla struttura di tali campioni. In dettaglio, per valutare in modo sistematico e comprensivo la texture dei campioni è stata valutata mediante i test di Taglio, Texture Profile Analysis (TPA) e Three Point Bending. Al fine di valutare l’effetto della temperatura, le medesime analisi di texture sono state anche effettuate su alcuni campioni di formaggio condizionati alle temperature di 8, 20, 25 e 30°C. I campioni di Parmigiano Reggiano provenienti da diversi caseifici hanno presentato alcune differenze significative in termini di attività dell’acqua, durezza di taglio, elasticità, coesività, gommosità, forza massima, distanza lineare e fratturabilità. Queste variabilità potrebbero essere attribuite a diversità e peculiarità nel processo produttivo e nell’esperienza dei singoli caseari. Inoltre, è stato evidenziato un ruolo significativo delle temperature dei campioni alla quale si effettuano le analisi di texture. In particolare, i campioni condizionati a 8°C rispetto alle altre temperature hanno presentato differenze significative in tutti i parametri di texture analizzati eccetto che per quelli di elasticità e gommosità determinati con il test TPA.
Resumo:
La maggioranza degli applicativi che utilizziamo quotidianamente come siti di e-commerce e portali di home banking basano il proprio funzionamento su un’infrastruttura a microservizi, cioè un modello architetturale in cui un insieme di più sottocomponenti collabora scambiandosi dati per permettere agli utenti finali di fruire di un servizio. Questo pattern rappresenta lo standard adottato dagli applicativi moderni che ha ormai soppiantato il più datato modello monolitico in cui l’intero funzionamento veniva gestito in un’unica unità implementativa di grandi dimensioni, difficile da sviluppare e mantenere all’aumentare delle funzionalità richieste. Decomporre un unico software in più sottocomponenti permette di ridistribuirne la complessità totale richiedendo però un insieme di accortezze e di strumenti consoni per gestire tutte le entità da sviluppare. A tale scopo al giorno d’oggi è molto importante l’utilizzo della telemetria, cioè la tecnologia che consiste nella raccolta a distanza dei dati generati dai componenti a scopo di analisi di funzionamento e performance dell’intera piattaforma. L’adozione di questa tecnologia comporta numerosi benefici, sia a livello implementativo che dal punto di vista del mantenimento della piattaforma, che potrà essere monitorata anche dopo il rilascio. In questo elaborato di tesi sono stati implementati due use case realistici di piattaforme a microservizi che ricevono ed elaborano dati, alle quali sono state aggiunte nella fase di sviluppo software le funzionalità di due diversi strumenti di telemetria. L’obiettivo è permettere l’analisi dello storico delle elaborazioni eseguite per poter ricostruire il funzionamento dell’intero applicativo a scatola chiusa, analizzando le metriche generate nei log dei microservizi o in un’interfaccia grafica raggiungibile tramite browser. All’interno dell’elaborato verranno descritti tutti i dettagli implementativi, analizzando poi i benefici ottenuti dall’adozione di questi strumenti.
Resumo:
La seguente tesi è stata redatta con l’obbiettivo di implementare il piano di controllo della qualità dello stabilimento dell’azienda INALCA S.p.A, creando un HACCP specifico per il nuovo sistema di congelamento automatico della carne. In particolare, dopo un cenno storico al problema HACCP, si sono affrontati i principali aspetti del sistema HACCP, e dei regolamenti che ne conseguono per la sua creazione, attuazione e validazione. Obiettivo dell’azienda e del mio elaborato era quello di valutare la possibilità di congelare e raggiungere i -18°C al cuore in un tempo inferiore alle 24 ore, puntando alle 16 ore, per ottimizzare la fase di congelamento e velocizzare il processo per la futura vendita dei pallets di carne. A tal fine si è elaborato e successivamente validato il sistema di controllo che tiene conto di tutti gli aspetti generali, dall’entrata della materia prima e dalle sue caratteristiche intrinseche ed estrinseche, all’uscita del prodotto finito confezionato in pallet e trasferito in celle, congelato per il mantenimento della catena del freddo per poi essere spedite ai clienti. Si sono effettuate analisi di conferma per il corretto funzionamento e ottimizzazione dell’impianto medesimo, confrontando le tempistiche di congelamento nei diversi piani dell’impianto di congelamento automatico per il raggiungimento dei -18°C al cuore delle cassette contenenti polpa industriale, valore standard definito dall’azienda per la vendita e spedizione dei prodotti congelati.
Resumo:
In questo lavoro si è tentato di fornire un metodo per la calibrazione di modelli numerici in analisi dinamiche spettrali. Attraverso una serie di analisi time history non lineari sono stati ottenuti gli spostamenti relativi orizzontali che nascono, in corrispondenza della connessione trave-pilastro di tipo attritivo, quando una struttura prefabbricata monopiano viene investita dalla componente orizzontale e verticale del sisma. Con un procedimento iterativo su varie analisi spettrali sono state calibrate delle rigidezze equivalenti che hanno permesso di ottenere, con buona approssimazione, gli stessi risultati delle analisi time history. Tali rigidezze sono state poi restituite in forma grafica. Per riprodurre gli spostamenti relativi orizzontali con un’analisi dinamica spettrale è quindi possibile collegare le travi ai pilastri con degli elementi elastici aventi rigidezza Kcoll. I valori di rigidezza restituiti da questo studio valgono per un’ampia gamma di prefabbricati monopiano (periodo proprio 0.20s < T < 2.00s) e tre differenti livelli di intensità sismica; inoltre è stata data la possibilità di considerare la plasticizzazione alla base dei pilastri e di scegliere fra due diverse posizioni nei confronti della rottura di faglia (Near Fault System o Far Fault System). La diminuzione di forza d’attrito risultante (a seguito della variazione dell’accelerazione verticale indotta dal sisma) è stata presa in considerazione utilizzando un modello in cui fra trave e pilastro è posto un isolatore a pendolo inverso (opportunamente calibrato per funzionare come semplice appoggio ad attrito). Con i modelli lineari equivalenti si riescono ad ottenere buoni risultati in tempi relativamente ridotti: è possibile così compiere delle valutazioni approssimate sulla perdita di appoggio e sulle priorità d’intervento in una determinata zona sismica.
Resumo:
La tesi ha lo scopo di determinare una correlazione tra lo spostamento laterale e la riduzione di resistenza a trazione per le connessioni di tipo holdown per pareti in legno massiccio XLam. Per raggiungere questo obiettivo è stata condotta un’indagine sperimentale, nella quale sono state eseguite prove cicliche a trazione in controllo di spostamento assiale, con imposizione di uno spostamento a taglio iniziale. Sono state eseguite inoltre prove monotone combinate, caratterizzate da contemporaneo spostamento a taglio e assiale legati da rapporto diverso per ogni tipologia di prova. Si è ricavata una legge di danno che correla lo spostamento laterale alla riduzione di resistenza assiale: per scorrimenti entro 15 mm il danno è contenuto (10%), ma arrivando a 30-45mm la riduzione di resistenza è del 20%. Mettendo insieme invece le monotone ottenute variando il suddetto rapporto di velocità si è definito un dominio di resistenza. La seconda parte verte sulla modellazione numerica in OpenSEES delle connessioni come molle di un materiale isteretico, tarate sulla base delle curve sperimentali cicliche ottenute. Queste sono state poi utilizzate per la modellazione di una parete a molle disaccoppiate, che considera solo la resistenza a trazione per hold-down e a taglio per angolari (sottostima resistenza reale). Una seconda modellazione a molle accoppiate considera la resistenza in entrambe le direzioni: questo sovrastima la resistenza globale reale, poiché non tiene conto della contemporanea applicazione del carico nelle due direzioni. E’ stata quindi applicata la suddetta legge di danno attraverso un procedimento iterativo che in base agli spostamenti laterali riduce la resistenza assiale e riesegue l’analisi con i parametri corretti, per rivalutare spostamenti e resistenze: la progettazione attuale sovradimensiona gli angolari, il collasso della struttura avviene per rottura non bilanciata, con hold-down plasticizzati e angolari in campo elastico (meccanismo di rocking).