999 resultados para Bioingegneria, Modelli matematici, Volume del liquido interstiziale
Resumo:
Obiettivo di questo elaborato è fornire alle aziende operanti sul mercato nella realtà industriale, una trattazione dei temi relativi alla standardizzazione e ottimizzazione dei processi di produzione, didatticamente semplice e fortemente orientata all’applicazione, centrata sui criteri di ricerca della massima efficienza tecnica ed economica del prodotto. La trattazione, corredata, ovunque possibile, di approcci quantitativi supportati da idonei strumenti matematici, vuole offrire per ogni tipo di azienda che operi sul mercato una traccia semplice e chiara in merito ad un tema estremamente attuale, relativo all'ottimizzazione e standardizzazione del processo produttivo, per salvaguardare il proprio vantaggio competitivo e aumentare la robustezza e capacità di far fronte a ogni tipo di minaccia esterna e/o interna potenzialmente verificabile in futuro. Infatti, il prodotto finale di tale attività di analisi, volta alla riduzione degli sprechi, mantenendo fisso il prezzo di vendita si tramuta quindi in un incremento dei margini di ricavo su ogni unità di vendita. Da ultimo, con la parte finale dell’elaborato è mia intenzione veicolare e far comprendere l’importanza e i vantaggi connessi all'introduzione ponderata dell’automazione anche all'interno di un contesto aziendale con lavorazioni altamente specifiche e variegate. È fondamentale per la sopravvivenza delle aziende nel contesto competitivo globale automatizzare le lavorazioni ripetitive a bassa creazione di valore aggiunto, realizzando in questo modo economie di scala. La manodopera specializzata deve essere razionalizzata e utilizzata esclusivamente per le lavorazioni complesse, distintive e rappresentative della grande competenza e affidabilità proprie dell’industria italiana.
Resumo:
In questa tesi abbiamo presentato/analizzato metodi variazionali allo stato dell’arte per la ricostruzione – ovvero, rimozione di sfocamento e rumore - di una classe specifica di segnali/immagini caratterizzati dal fatto di essere costanti a tratti e bilivello. Tali metodi ottengono la ricostruzione tramite la minimizzazione di un funzionale formato da due parti: un termine di fedeltà ai dati, la cui forma dipende dal tipo di rumore considerato, e un termine di regolarizzazione che codifica l’informazione a priori disponibile sul segnale da ricostruire (ad esempio, la sua regolarità). Per segnali costanti a tratti, è ben noto che il regolarizzatore deve avere la proprietà di promuovere la sparsità delle derivate prime del segnale. In particolare, molte proposte allo stato dell’arte sfruttano la pseudo-norma l0 o la norma l1 del gradiente, ossia la Variazione Totale (TV). La prima scelta è ottimale in linea teorica poiché promuove al meglio la sparsità, ma il funzionale è fortemente non convesso e i metodi numerici di minimizzazione possono convergere a soluzioni locali. Nel caso di TV si ha invece un problema convesso che garantisce la convergenza a minimi globali ma la qualità della soluzione è sub-ottima. Motivati da vantaggi/svantaggi di l0 ed l1, in questa tesi si è deciso di investigare (teoricamente e sperimentalmente) l’uso di modelli variazionali di tipo Convesso-NonConvesso (CNC). Questi utilizzano particolari regolarizzatori non convessi e parametrici che consentono da un lato di sparsificare meglio di l1, dall’altro di mantenere la convessità del funzionale così da presentare un unico punto di minimo. Tra i metodi CNC investigati, quello denominato GME-TV basato sul concetto di inviluppo di Moreau generalizzato ha prodotto ricostruzioni di qualità sempre migliore di TV e a volte, diremmo sorprendentemente, anche di l0. Questo rappresenta un risultato di particolare rilevanza scientifica nel campo della ricostruzione di segnali/immagini.
Resumo:
Durante la sosta degli automezzi alimentati ad LNG, la pressione all'interno dei serbatoi criogenici aumenta a causa della formazione di gas al loro interno fino al raggiungimento di una pressione limite, superata la quale il gas metano generato, detto di boil-off, viene sfiatato in aria. Dato il forte impatto ambientale che ha il metano, si è valutato quali fossero le dinamiche legate alla sua produzione e al suo sfiato in funzione delle condizioni iniziali e delle condizioni ambientali esterne. Dopo aver allestito una stazione di prova per poter monitorare i valori di pressione interna del serbatoio, fino al raggiungimento della pressione di sfiato, e di massa del sistema nel tempo per valutare la portata di sfiato, sono state eseguite quattro prove con differenti valori iniziali di pressione interna e livello di riempimento di liquido. Terminate le prove sperimentali, è stato analizzato un sistema di recupero del gas altrimenti sfiatato da installare direttamente a bordo dell'automezzo. Grazie ai risultati delle prove effettuate, è stato poi possibile valutare il consumo energetico che tale recupero richiederebbe e i vantaggi che comporterebbe sia ambientali che economici. Ulteriori prove possono essere effettuate per analizzare le prestazioni del sistema di recupero, in particolare riguardo alle caratteristiche del compressore presente all'interno del sistema stesso che deve essere installato a bordo dell'automezzo.
Resumo:
Negli ultimi decenni nuove e sempre più restrittive normative antiinquinamento son state introdotte nei paesi maggiormente industrializzati dettando un aumento degli sforzi progettuali imposti all’industria automobilistica per cercare di contenere l’impatto ambientale esercitato dai motori a combustione interna. E’ evidente quindi l’importanza di possedere una profonda conoscenza dei fenomeni fisici e chimici che influenzano i processi di combustione così come avere a disposizione modelli quanto più accurati per la loro corretta rappresentazione tramite CFD. Per i motori ad accensione comandata gli studi si sono focalizzati sulla ricerca dell’efficienza evitando di incorrere in rischi di detonazione. Numerose sono le tecnologie che permettono di assolvere alle funzioni richieste, tra le più affermate vi sono i sistemi a fasatura variabile, in particolare le strategie che prendono il nome di ciclo Miller. Tale sistema, implementabile facilmente senza l’utilizzo di alcun sistema aggiuntivo, permette di ridurre sensibilmente temperature e pressioni in camera. Il seguente lavoro di tesi studierà, attraverso simulazione numerica tridimensionale condotta con software CONVERGE®, gli aspetti fisici e fluidodinamici indotti dalle diverse strategie REF, EIVC e LIVC applicate ad un motore GDI con tecnologia downsizing e turbocharging (modellato in ambiente CAD, tramite PTC CREO®). Successivamente, allo stesso motore, saranno apportate modifiche progettuali con lo scopo di comprendere in che modo un aumento di un punto del rapporto di compressione, che equivale a spostarsi verso zone a prestazioni più elevate, impatti sull’entità di pressione, temperatura e comportamento fluidodinamico e fisico a pari condizioni operative e di alzata. L’analisi ed il confronto con gli altri casi sancirà se questa nuova configurazione possa essere accettabile o rischiosa ai fini della detonazione.
Resumo:
La fibrillazione atriale (FA) è la forma di aritmia cardiaca più diffusa nella pratica clinica. Attualmente, sono più di 30 milioni le persone affette da FA e si prevede una forte crescita di tale numero, conseguentemente al progressivo invecchiamento della popolazione. Ad oggi, la terapia anticoagulante orale è la principale strategia impiegata per la prevenzione di ictus ischemico. Nonostante l’efficacia degli anticoagulanti, un numero rilevante di pazienti non possono assumerli, a causa di un aumentato rischio emorragico e della pericolosa interazione con altri farmaci. È stato dimostrato che nel 90% dei casi la formazione dei trombi intracardiaci in pazienti con FA avviene in un punto ben preciso dell’atrio sinistro, ossia nell’auricola. Ciò è dovuto al fatto che essa, avendo una particolare morfologia, in condizioni non fisiologiche (emodinamica rallentata), tende a favorire la stasi del sangue al suo interno. Di conseguenza, la chiusura meccanica dell’auricola è emersa come alternativa clinica alla prevenzione farmacologica. I risultati relativi a recenti trials hanno suggerito che la chiusura percutanea della LAA attraverso l’impianto di opportuni occlusori è una terapia sicura, con un’efficacia non inferiore alla terapia di anticoagulanti orali nella prevenzione dell’ictus. L’obiettivo di questo elaborato di tesi è valutare in simulazione l’effetto dell’occlusione dell’auricola sinistra e di un eventuale dislocazione del dispositivo sulla fluidodinamica atriale in pazienti affetti da FA. Sono stati realizzati modelli 3D che simulano sia il risultato della procedura di LAAO con i dispositivi Amulet e Watchman, sia l’effetto della dislocazione dell’occlusore. Successivamente, sono state effettuate le simulazioni fluidodinamiche CFD sui modelli di atrio intero, sui modelli occlusi (privi di auricola) e sui modelli parzialmente occlusi (dislocazione Amulet) per studiare e valutare i parametri fluidodinamici (velocità, vorticità e stasi).
Resumo:
Il seguente lavoro analizza l’influenza che il biochar ha nel ciclo dell’azoto nei suoli, in particolare in riferimento alla possibilità di diminuire il fenomeno di lisciviazione dei nitrati dato il continuo aumento in agricoltura dell’uso di fertilizzanti azotati. La scelta di questo tipo di ammendante è dovuta alle sue ampie potenzialità d’impiego e si pone in un percorso di economia circolare con la valorizzazione delle biomasse di scarto. Il lavoro si divide in un’approfondita ricerca bibliografica con elaborazione critica delle informazioni e una parte sperimentale. Si sono analizzate le interazioni che il biochar ha sui vari processi che compongono il ciclo dell’azoto. Sono stati riportati e discussi i principali metodi di determinazione delle capacità adsorbenti del biochar oltre ad un’analisi e una descrizione dei più comuni modelli di isoterme di adsorbimento. Si è testata la capacità adsorbente, tramite test di screening in batch, di sette tipi di biochar che presentavano origine e sintesi differenti. I biochar hanno presentato adsorbimenti molto modesti nei confronti dei nitrati evidenziando solo una diminuzione della quantità di nitrati rilasciati dal biochar stesso. Per quanto concerne l’ammonio, invece, i biochar hanno presentato percentuali di adsorbimento tra il 60-70% con un massimo del 80%.
Resumo:
In questa tesi si trattano lo studio e la sperimentazione di un modello generativo retrieval-augmented, basato su Transformers, per il task di Abstractive Summarization su lunghe sentenze legali. La sintesi automatica del testo (Automatic Text Summarization) è diventata un task di Natural Language Processing (NLP) molto importante oggigiorno, visto il grandissimo numero di dati provenienti dal web e banche dati. Inoltre, essa permette di automatizzare un processo molto oneroso per gli esperti, specialmente nel settore legale, in cui i documenti sono lunghi e complicati, per cui difficili e dispendiosi da riassumere. I modelli allo stato dell’arte dell’Automatic Text Summarization sono basati su soluzioni di Deep Learning, in particolare sui Transformers, che rappresentano l’architettura più consolidata per task di NLP. Il modello proposto in questa tesi rappresenta una soluzione per la Long Document Summarization, ossia per generare riassunti di lunghe sequenze testuali. In particolare, l’architettura si basa sul modello RAG (Retrieval-Augmented Generation), recentemente introdotto dal team di ricerca Facebook AI per il task di Question Answering. L’obiettivo consiste nel modificare l’architettura RAG al fine di renderla adatta al task di Abstractive Long Document Summarization. In dettaglio, si vuole sfruttare e testare la memoria non parametrica del modello, con lo scopo di arricchire la rappresentazione del testo di input da riassumere. A tal fine, sono state sperimentate diverse configurazioni del modello su diverse tipologie di esperimenti e sono stati valutati i riassunti generati con diverse metriche automatiche.
Resumo:
A differenza di quanto avviene nel commercio tradizionale, in quello online il cliente non ha la possibilità di toccare con mano o provare il prodotto. La decisione di acquisto viene maturata in base ai dati messi a disposizione dal venditore attraverso titolo, descrizioni, immagini e alle recensioni di clienti precedenti. É quindi possibile prevedere quanto un prodotto venderà sulla base di queste informazioni. La maggior parte delle soluzioni attualmente presenti in letteratura effettua previsioni basandosi sulle recensioni, oppure analizzando il linguaggio usato nelle descrizioni per capire come questo influenzi le vendite. Le recensioni, tuttavia, non sono informazioni note ai venditori prima della commercializzazione del prodotto; usando solo dati testuali, inoltre, si tralascia l’influenza delle immagini. L'obiettivo di questa tesi è usare modelli di machine learning per prevedere il successo di vendita di un prodotto a partire dalle informazioni disponibili al venditore prima della commercializzazione. Si fa questo introducendo un modello cross-modale basato su Vision-Language Transformer in grado di effettuare classificazione. Un modello di questo tipo può aiutare i venditori a massimizzare il successo di vendita dei prodotti. A causa della mancanza, in letteratura, di dataset contenenti informazioni relative a prodotti venduti online che includono l’indicazione del successo di vendita, il lavoro svolto comprende la realizzazione di un dataset adatto a testare la soluzione sviluppata. Il dataset contiene un elenco di 78300 prodotti di Moda venduti su Amazon, per ognuno dei quali vengono riportate le principali informazioni messe a disposizione dal venditore e una misura di successo sul mercato. Questa viene ricavata a partire dal gradimento espresso dagli acquirenti e dal posizionamento del prodotto in una graduatoria basata sul numero di esemplari venduti.
Resumo:
L’elaborato affronta il tema della massiccia diffusione di disinformazione tramite internet sotto il profilo del diritto costituzionale, nell’ottica di indagare se le dimensioni del fenomeno richiedano l’elaborazione di principi e soluzioni nuove ovvero se i paradigmi costituzionali enucleati dalla tradizione costituzionalistica con riferimento alla libertà d’espressione forniscano gli strumenti sufficienti per un intervento efficace. In tale ottica, il lavoro premette una ricostruzione del fenomeno della disinformazione nel tentativo di individuare il perimetro socio-cognitivo e tecnologico entro cui la medesima prolifera, descrivendo gli elementi che distinguono l’informazione diffusa dai nuovi media rispetto a quella veicolata dai media mainstream. Ciò premesso, lo studio passa a delineare lo “statuto costituzionale” del falso, indagando la rilevanza che la menzogna assume sotto il profilo costituzionale nel suo rapporto con la libertà di manifestazione del pensiero negli ordinamenti interno, europeo e statunitense. L’analisi prosegue poi con l’esame delle politiche di contrasto alla disinformazione introdotte da singoli Stati (prevalentemente Germania, Francia e Italia), Unione europea, e piattaforme, con l’obiettivo di mettere in luce vantaggi e limiti dei modelli di eteroregolamentazione, coregolamentazione e autoregolamentazione. Da ultimo, l’elaborato scompone alcune delle azioni e misure passate in rassegna e le analizza con la lente d’ingrandimento della libertà di manifestazione del pensiero, ordinandone i contenuti secondo la specifica propensione a comprimere la libertà d’espressione. L’indagine si conclude con alcuni brevi spunti conclusivi che evidenziano l’esigenza, in base ai principi costituzionali analizzati, che eventuali interventi normativi siano se del caso volti alla regolazione delle piattaforme, ovvero dei “contenitori”, lasciano i contenuti al libero scambio delle idee.
Resumo:
Il termine go-tv fa riferimento a i sistemi di videocomunicazione collocati a bordo di mezzi di trasporto e in ambienti collegati, ad alto transito di passeggeri. Limitando l’analisi al territorio italiano, la ricerca intende ricostruire le coordinate storiche del suo sviluppo, inquadrandolo entro il più ampio contesto dei media contemporanei. Da un punto di vista teorico, sono considerati sia il legame del mezzo con l’ambiente urbano, sia le interconnessioni tra comunicazione, mobilità e trasporti, riflesse nel particolare statuto sociale e topologico chiamato in causa dai suoi luoghi di consumo. Dall’approvvigionamento alla messa in onda dei contenuti, cardine speculativo del lavoro è la disamina, su base esplorativa, delle consuetudini commerciali e professionali sottese a questo speciale canale di distribuzione audiovisiva, nel quadro di apposite pratiche d’azienda, campionate nel solco degli studi sulla produzione mediale. Tre sono gli snodi principali del progetto: la proposta di una definizione univoca del fenomeno, condivisibile dai diversi attori coinvolti nella filiera, una prima modellizzazione del suo profilo mediale e una mappatura dei principali casi di go-tv rinvenibili a livello nazionale, arricchita da una serie di studi di caso.
Resumo:
La segregazione nel mercato del lavoro ha dimostrato di essere un fenomeno molto regolare. Osservando i principali indicatori sintetici, troveremo che circa la metà della forza lavoro femminile dovrebbe cambiare lavoro per potersi distribuire fra le professioni nello stesso modo degli uomini, un dato che negli ultimi decenni non sembra essere cambiato. La ricerca si è concentrata sulla socializzazione e come le strutture influenzano l'agency quando le persone pianificano le loro carriere. Tuttavia, riteniamo sia stato ignorato il ruolo della classe occupazionale d'impiego nel dare forma alla segregazione. Facendo riferimento a Bourdieu, la tesi svolge un'analisi empirica su cinque classi occupazionali: dirigenti, professioni intellettuali, tecnici, colletti blu, e professioni non qualificate e dei servizi, stimando modelli logit per calcolare le probabilità delle donne di accedere alle professioni male-dominated, dove gli uomini sono più dei due terzi della forza lavoro. Di particolare interesse è il ruolo della scelta di perseguire un'istruzione STEM e come il campo di studio moderi la relazione fra genere e probabilità di accedere ad una professione male-dominated. I risultati mostrano differenze rilevanti fra le classi occupazionali, e anche fra diversi tipi di campi di studio STEM, suggerendo che la segregazione sia un fenomeno a geometrie variabili che può essere "spezzata" più facilmente in alcune classi rispetto ad altre.
Resumo:
I sistemi sanitari sono messi sotto stress da fattori diversi che possono essere sintetizzati schematizzando il problema in pressioni sistemiche e pressioni pandemiche leggendole secondo due vettori paralleli: fattori modificabili e fattori non modificabili. I fattori non modificabili sono legati alla condizione socio-demografica di una popolazione (reddito pro-capite, livello di istruzione) e alle caratteristiche individuali dei pazienti che accedono ai servizi (condizioni di moltimorbidità, fragilità, età, sesso) mentre i fattori modificabili sono legati al modello organizzativo del servizio regionale e Aziendale. I fattori modificabili sono quelli che leggendo i fattori non modificabili possono adattarsi al contesto specifico e con gradi di flessibilità variabile rispondere alle domande emergenti. Il tradizionale approccio ospedaliero, ancora in gran parte basato su modelli organizzativi funzionalmente e strutturalmente chiusi, costruiti attorno alle singole discipline, non si è rivelato in grado di rispondere adeguatamente da solo a questi bisogni di salute complessi che necessitano di una presa in carico multidisciplinare e coordinata tra diversi setting assistenziali. La pandemia che ha portato in Italia ad avere più di 8 milioni di contagiati ha esacerbato problemi storici dei sistemi sanitari. Le Regioni e le Aziende hanno fronteggiato un doppio binario di attività vedendo ridursi l’erogazione di servizi per i pazienti non Covid per far fronte all’incremento di ricoveri di pazienti Covid. Il Policlinico S. Orsola ha in questa congiuntura storica sviluppato un progetto di miglioramento del percorso del paziente urgente coinvolgendo i professionisti e dando loro strumenti operativi di analisi del problema e metodi per identificare risposte efficaci. Riprendendo infine la distinzione tra pressioni modificabili e non modificabili il lavoro mostra che dall’analisi delle cause profonde dei nodi critici del percorso del paziente si possono identificare soluzioni che impattino sugli aspetti organizzativi (modificabili) personalizzando l’approccio per il singolo paziente (non modificabile) in un’ottica patient centred.
Resumo:
Scopo Confrontare il trattamento transcatetere (TAVI) balloon-expandable con il trattamento chirurgico di sostituzione valvolare aortica (AVR) della stenosi valvolare aortica severa (SVAS) nella pratica clinica real world. Materiali e metodi Nel decennio 2010-2020, 1486 pazienti con SVAS isolata sono stati sottoposti a AVR (n=1049) o TAVI balloon-expandable (n=437) presso Hesperia Hospital Modena. Sono stati analizzati la Mortality nell’intera popolazione e gli episodi di ricovero cardiovascolare nei 5 anni precedenti e durante il follow-up nella popolazione residente in Emilia Romagna (n=1196) al momento della procedura (AVR n=879, TAVI balloon-expandable n=317). Risultati La popolazione TAVI è risultata mediamente più anziana di quella AVR (età media 82.2 vs. 72.7 anni) e maggiormente gravata da comorbidità. L’In-hospital mortality è stata del 1.4% nella AVR e 2.1% nella TAVI (pNS). La sopravvivenza a 5 anni è stata del 85.74% nella AVR e del 59.45% nella TAVI, con la TAVI come fattore predittivo di All-cause mortality (HR 1.44 95%CI 1.14-1.82). La riospedalizzazione per Heart Failure a 5 anni è stata del 20.6% per AVR e 51.3% per TAVI, con dialisi preoperatoria (HR 5.67 95%CI 3.06-10.49) come principale fattore predittivo. Il tasso di All Stroke a 5 anni è stato del 3.7% nella AVR e del 7.5% nella TAVI, con fibrillazione atriale preoperatoria come principale fattore predittivo (HR 1.91 95%CI 1.06-3.45). Il tasso di angioplastica coronarica percutanea (PCI) a 5 anni è stato del 3.1% sia nella AVR che nella TAVI, con previous PCI come principale fattore predittivo (HR 4.86 95%CI 2.57-9.21). L’impianto di pacemaker a 30 giorni è stato del 2.9% nella AVR e 3.4% nella TAVI (pNS). Conclusioni Nella pratica clinica real-world 2010-2020 di un centro cardiochirurgico a medio volume, la TAVI balloon-expandable ha mostrato una eccellente performance a 30 giorni in confronto con la AVR, che invece ha evidenziato una migliore performance durante follow-up.
Resumo:
Il patrimonio residenziale italiano ammonta a 12,2 milioni di edifici, di cui il 57,5% ha più di 50 anni ed è stato costruito in assenza di normative specifiche, in termini di sicurezza sismica, resistenza al fuoco, efficienza energetica e accessibilità, e manifesta un’avanzata obsolescenza. Agire su questo patrimonio significa operare tramite le due macro categorie di intervento: demolizione/ricostruzione o riqualificazione energetica. Questa ricerca dottorale vuole indagare la demolizione/ricostruzione di comparti urbani periferici, costruiti tra 1945-1965, quale strategia di rigenerazione urbana, integrandola in un modello edilizio basato sui criteri dell’economia circolare. Vengono definite le caratteristiche costruttive e i principi di questo modello di progettazione ecosistemica, denominato Integrho, che coniuga i criteri di ecodesign nel ciclo di vita (Building in Layers, Design for Disassembly e il Design out Waste) con quelli di bioclimaticità e di adattabilità funzionale. Il lavoro è stato improntato secondo due livelli gerarchici, scala urbana e scala edilizia, tra loro correlate mediante quella intermedia dell’isolato, al fine di ottenere un obiettivo di natura metodologica: definire uno strumento di supporto decisionale, capace di indirizzare tra le categorie di intervento attraverso parametri oggettivi, valutati con analisi comparative speditive. Tale metodologia viene applicata al contesto di Bologna, e si fonda sulla creazione di un’approfondita base conoscitiva attraverso la catalogazione delle 8.209 pratiche edilizie di nuova costruzione presentate tra 1945 e il 1965. Tale strumento georeferenziato, contenente informazioni tipologiche, costruttive ecc., è impiegato per valutare in modo quantitativo e speditivo i consumi energetici, i materiali incorporati, gli impatti ambientali e i costi economici dei differenti scenari di intervento nel ciclo di vita. Infine, l’applicazione del modello edilizio Integrho e del paradigma Ri-Costruire per Ri-Generare ad uno degli isolati periferici selezionati, è impiegata come esemplificazione dell’intero processo, dalla fase conoscitiva a quella strumentale, al fine di verificarne l’attendibilità e l’applicabilità su larga scala.
Resumo:
La ricerca si pone l’obiettivo di comprendere in che modo sia strutturato lo stardom italiano della Generazione Z e quale ruolo svolgano i media nei processi di celebrification delle figure attoriali in esame, nonché l'impatto che queste hanno sulla società stessa. Si intende fornire una maggiore comprensione dei meccanismi alla base del funzionamento dello star system in un contesto storico, culturale e generazionale specifico. Inoltre, il confronto tra il panorama italiano e il landscape internazionale contribuisce a una maggiore comprensione dell’evoluzione e della trasformazione del concetto di celebrità nel contesto globale, oltre che delle modalità attraverso le quali la dimensione italiana si inserisce in questa evoluzione.