998 resultados para 620.4 Ingegneria per specifici tipi di ambiente geografico
Resumo:
Il cancro è una delle principali cause di morte al mondo. Nel 2019, solo negli Stati Uniti, i nuovi casi di cancro sono stati 1.762.450 con 606.880 decessi. Ad oggi, sono numerosi gli studi interdisciplinari in atto aventi come fine ultimo quello di trovare una cura per il cancro più efficiente ed efficace di quelle tradizionali. La seguente trattazione descrive una soluzione che coniuga le conoscenze mediche del campo immuno-terapico con quelle ingegneristiche del settore dei biomateriali. Nello specifico, vengono analizzati scaffold e nanoparticelle biomateriali utilizzati per la somministrazione di vaccini contro il cancro. Gli obiettivi principali, infatti, risultano essere il raggiungimento di una memoria immunitaria, per contrastare metastasi e ricadute, e la diminuzione degli effetti collaterali che i pazienti oncologici sono costretti a sopportare sottoponendosi alle terapie convenzionali. I risultati mostrano dati molto promettenti, poiché l’utilizzo combinato dei biomateriali con fattori caratterizzanti il sistema immunitario permette di ottenere vaccini somministrabili in maniera sicura, seppur le indagini cliniche per molte tipologie di cancro siano ancora in atto.
Resumo:
Una delle principali caratteristiche dei trasduttori per energy harvesting piezoelettrici è il fatto che la loro impedenza d'uscita è principalmente capacitiva. Questo consente di elaborare schemi di conversione dell'energia basati su circuiti risonanti attivati in modo sincrono con le vibrazioni, che risultano in grado di aumentare notevolmente la potenza di uscita rispetto alle comuni interfacce passive. Questa tesi si è posta come obiettivo la progettazione e implementazione di un circuito per energy harvesting da vibrazioni basato sulla tecnica Synchronized Switch Harvesting on Inductor (SSHI) che garantisse un'elevata efficienza di conversione. Dovendo gestire potenze in ingresso tipicamente di debole entità, l'architettura proposta è stata ottimizzata per minimizzare la dissipazione di potenza interna al convertitore. Il circuito proposto è stato infine validato sperimentalmente tramite allestimento di un setup di misura dedicato.
Resumo:
Trattamento dati, modellazione e calibrazione di un motore da competizione
Resumo:
Le fratture fragili del collo del femore rappresentano un grave problema sociosanitario, in via di aggravamento a causa dell’aumento dell’età media e dell’aspettativa di vita. Il verificarsi di tale evento dipende da più fattori: la frequenza con la quale si verificano cadute, la gravità delle stesse e lo stato di salute del paziente, in particolare la resistenza meccanica delle sue ossa e il suo grado di controllo neuro-motorio. Negli ultimi anni gli strumenti di analisi e stima della resistenza meccanica del femore basati su modelli agli elementi finiti hanno raggiunto un tale livello di maturità da prospettarne l’utilizzo nel contesto di “in silico trials”, ovvero la simulazione virtuale di sperimentazioni cliniche e precliniche. In questo studio si è sviluppato un modello stocastico in grado di simulare la sperimentazione clinica di nuovi trattamenti per l’osteoporosi. Questo comprende più sotto modelli in grado di simulare il processo di invecchiamento, determinare stocasticamente le cadute che si verificano in una certa popolazione in un determinato orizzonte temporale e l’entità delle forze che agiscono sul grande trocantere. In particolare, le cadute sono state generate a partire da una distribuzione di Poisson e le forze sono state stimate attraverso un modello stocastico multiscala. La tesi si è concentrata su aspetti metodologici e procedurali, nell’ottica di sviluppare un modello che permettesse agevolmente la variazione dei parametri associati alla caduta, dotato di buone robustezza ed applicabilità. È stato verificato come la discretizzazione nel dominio del tempo del rimodellamento osseo non influisca significativamente nella determinazione delle fratture; inoltre, il modello si è dimostrato capace di fornire risultati stabili in modo computazionalmente efficiente. La validazione dei risultati del modello, invece, ha dato risultati non soddisfacenti, per cui sarà necessario procedere in futuro a un’attenta calibrazione dei parametri del modello.
Resumo:
Il lavoro svolto in questa tesi si colloca nel contesto della riqualificazione di una struttura in muratura portante esistente tramite cappotto sismico. Ha come oggetto l’analisi della sua risposta meccanica, con particolare attenzione alla modellazione numerica. L’immobile oggetto di studio è edificato nella zona costiera del comune di San Benedetto del Tronto (AP). La prima fase di analisi consiste in un approfondito percorso di conoscenza della struttura, che riguarda un attento studio storico-critico dell’evoluzione strutturale seguito, poi, da un’indagine conoscitiva della geometria della struttura e delle caratteristiche meccaniche dei materiali costituenti. Per migliorare il comportamento dell’edificio sotto carichi sismici, si sceglie di intervenire tramite la realizzazione di un’epidermide sismo-resistente, che deve essere correttamente modellata congiuntamente alla muratura portante. Viene proposta una prima modellazione semplificata nella quale le pareti del cappotto vengono implementate mediante l’utilizzo di elementi bidimensionali, mentre la muratura esistente viene considerata solamente come massa sismica. Nella seconda strategia di modellazione, seppure si mantenga la stessa impostazione per la schematizzazione del cappotto sismico, si avanza l’ipotesi di discretizzare la struttura esistente mediante il metodo a telaio equivalente, per valutare così la ripartizione delle azioni sismiche tra cappotto e muratura. Vengono eseguite tutte le verifiche necessarie per la valutazione di fattibilità dell’opera, esaminando anche i livelli di sicurezza raggiunti per lo stato di progetto. Con entrambe le strategie si raggiunge un’ottima riqualificazione dell’immobile.
Resumo:
Per comprende più a fondo il problema che le aziende affrontare per formare le persone in grado di gestire processi di innovazione, in particolare di Open Innovation (OI), è stato realizzato nel 2021 uno studio di caso multiplo di un percorso di educazione non formale all’OI realizzato dalla società consortile ART-ER e rivolto ai dottorandi degli atenei emiliano-romagnoli. Nella seconda fase di tale percorso formativo, per rispondere alle sfide di OI lanciate dalle aziende, sono stati costituiti 4 tavoli di lavoro. A ciascun tavolo di lavoro hanno preso parte 3/4 dottorandi, due referenti aziendali, un consulente e un operatore di ART-ER. Il campione complessivo era costituito da 14 dottorandi; 8 referenti aziendali di quattro aziende; 4 membri di una società di consulenza e 4 operatori della società consortile ART-ER. Il seguente interrogativo di ricerca ha guidato l’indagine: l’interazione tra i soggetti coinvolti in ciascun tavolo di lavoro – considerato un singolo caso - si configura come una Comunità di Pratica in grado di favorire lo sviluppo di apprendimenti individuali funzionali a gestire i processi di OI attivati nelle imprese? I dati sono stati raccolti attraverso una ricerca documentale a tavolino, focus group, interviste semistrutturate e un questionario semistrutturato online. L’analisi dei dati è stata effettuata mediante un’analisi qualitativa del contenuto in più fasi con l’ausilio del software MAXQDA. I risultati dimostrano che in tre casi su quattro, i tavoli di lavoro si sono configurati come una Comunità di Pratica. In questi tre tavoli inoltre è emerso lo sviluppo di alcune aree di competenza funzionali alla gestione dei processi di OI. Nella conclusione sono state presentate alcune proposte per la riprogettazione delle future edizioni del percorso formativo.
Resumo:
Introduzione: La malattia policistica autosomica dominante (ADPKD) è una causa comune di malattia renale terminale (ESKD). È caratterizzata dallo sviluppo di cisti renali bilaterali che aumentano progressivamente di volume. Il Tolvaptan viene prescritto in base a 3 criteri: volume renale totale (HtTKV) e Mayo Clinic Imaging Class (MCIC), tasso di declino dell'eGFR e al Predicting Renal Outcome in Polycystic Kidney Disease (PROPKD), che combina variabili cliniche e genetiche. In questa coorte multicentrica retrospettiva, l'obiettivo era di valutare e migliorare la concordanza di sensibilità e specificità predittive di MCIC e PROPKD. Metodi: I dati di pazienti adulti affetti da ADPKD sono stati ottenuti da 2 centri di Bologna (B) e Dublino (D). Abbiamo definito RP un calo dell'eGFR ≥3 mL/min/1,73m2/anno su 4 anni (Clinical Score), o classi MCIC 1C-D-E, o punteggio PROPKD da 7 a 9. Per i parametri clinici sono state utilizzate statistiche descrittive. La concordanza tra i punteggi è stata valutata tramite la statistica Kappa. Nelle varianti missenso di PKD1, il punteggio REVEL è stato trattato come una variabile continua; (>0,65 patogeno'). Risultati: Abbiamo valutato 201 pazienti con ADPKD. Il Propkd e il MCIC erano rispettivamente: 90% specifico e 31,3% sensibile; 89,6% sensibile e 28,6% specifico per identificare il calo dell'eGFR. Kappa di Cohen era di 0,025. Il 47,9% (n=143) è risultato concorde. Il punteggio Revel applicato alle mutazioni PKD1NT identifica da 15 a 19 pazienti che potrebbero avere una RP. L'analisi multivariata mostra dati statisticamente significativi per HB (p:0,016), eventi urologici (p: 0,005) e MCIC (p: 0,074). Conclusioni: La concordanza tra i punteggi risulta bassa. Il PROPKD è più selettivo rispetto al Mayo. Tuttavia, il PROPKD permette di identificare alcune RP escluse dall'uso del solo MCIC. L'uso combinato dei punteggi può aumentare la capacità di identificare le RP. Il punteggio REVEL potrebbe migliorare questa concordanza
Resumo:
Nel seguente documento di tesi lo scopo della tecnologia blockchain è quello di creare un’architettura sicura per gli scambi di utility token basata su un sistema distribuito, ovvero un insieme eterogeneo formato da più calcolatori che appare all’utilizzatore come un unico dispositivo. Questa tesi descrive la progettazione e realizzazione di una rete blockchain Stellar permissioned capace di gestire transazioni di token applicabile a innumerevoli contesti all’interno di un ecosistema di pagamenti e di servizi. La tecnologia blockchain offre molteplici vantaggi tra cui la possibilità di diminuire le commissioni delle transazioni rispetto agli attuali sistemi di pagamento. L’architettura dell’infrastruttura di rete progettata prevede, oltre ai nodi della rete blockchain vera e propria, altri server che si occupano in particolare di offrire un servizio di database di custodia delle chiavi, un servizio di load balancing ed un servizio di accesso ai dati presenti nella rete tramite chiamate API fornite dai nodi Horizon. Oltre a questi è stato creato un elemento ad-hoc, ovvero il software BTKL, utilizzato per semplificare la comunicazione con la blockchain e per incrementare la sicurezza di comunicazione con il database di custodia.
Resumo:
Oggigiorno l'individuazione diagnostica precoce della SARS-CoV-2 attraverso tamponi molecolari è fondamentale per interrompere la trasmissione del virus. Tuttavia, il monitoraggio della diffusione virale attraverso il test standard di RT-qPCR individuale comporta un elevato costo per ciascun tampone nasofaringeo analizzato e i reagenti chimici per l’estrazione dell’RNA virale sono sempre meno disponibili. Per ovviare a tali ostacoli, è stata ripresa la tecnica di group testing, sviluppata per la prima volta da Dorfman nel 1943 per individuare i soggetti affetti da sifilide prima del loro arruolamento. Questa strategia minimizza il numero di test condotti su un insieme di campioni: se un gruppo di n campioni risulta negativo, allora la condizione di ciascuno di essi è stata determinata mediante un solo test invece che con n test individuali. Negli ultimi due anni sono state sviluppate strategie in grado di migliorare le prestazioni del test di gruppo: per scenari a bassa prevalenza l’algoritmo dell’ipercubo rileva un singolo campione positivo in pool con dimensioni fino a 100 campioni attraverso due o più turni di test; invece, il P-BEST utilizza un solo turno di analisi, ma le dimensioni massime dei pool sono più ridotte. Per scenari ad alta prevalenza (10%) il team italiano dell’Università di Bologna ha progettato un metodo che identifica e rileva i membri infetti con un solo turno di test. Tuttavia, affinché il group testing sia efficace come l’analisi individuale dei tamponi molecolari, è necessario minimizzare l’effetto di diluizione, correlato alla dimensione del pool e causa di insorgenza di falsi negativi, nonché di un calo nella sensibilità nei test. I dati ottenuti da questi studi hanno dimostrato che questa strategia offre grandi potenzialità. Essa è essenziale per le indagini di routine della popolazione e concede vantaggi amplificati soprattutto se vengono testati soggetti quotidianamente in contatto tra loro, come famiglie o colleghi di lavoro.
Resumo:
Pacchetto R per il supporto dell'analisi di dati spazio temporali. Il pacchetto fornisce due funzioni, le quali permettono di avviare due applicazioni web, sviluppate con il framework shiny, per la visualizzazione di dati con connotazione spaziale di tipo areale o puntuale. Le applicazioni generano, a partire dai dati caricati dall'utente, due grafici interattivi per la visualizzazione della distribuzione temporale e spaziale del fenomeno che i dati descrivono. Sono previsti, all'interno dell'interfaccia utente delle applicazioni, una serie di componenti che permettono di personalizzare i grafici prodotti.
Resumo:
La popolazione mondiale aumenterà fino a 9.9 miliardi entro il 2050, soprattutto nei paesi in via di sviluppo. Per far fronte a questo incremento risulta necessaria la disponibilità di fonti proteiche accessibili e sicure per nutrire la popolazione in crescita; pertanto, la produzione globale di carne dovrà aumentare di circa 200 milioni di tonnellate annue. Tuttavia, per raggiungere gli obiettivi di sviluppo sostenibile fissati dall’Agenda 2030 dell’ONU, aumentare la produzione di carne per sopperire alla questione dell’approvvigionamento proteico non risulta essere una soluzione congrua in quanto alimenterebbe l’impatto delle attività industriali sull’inquinamento ambientale e sul riscaldamento globale. Tutte le varie fasi di macellazione e lavorazione portano inevitabilmente alla produzione di sottoprodotti di lavorazione che possono essere edibili o non edibili. Questi sottoprodotti contengono ancora sostanze che possono essere valorizzate in molecole ad alto valore aggiunto attraverso processi di trasformazione o biotrasformazione e stabilizzazione per essere poi utilizzati come ingredienti negli alimenti, ma non solo. Lo scopo di questa tesi è stato quello di esaminare l’effettiva problematica della valorizzazione dei sottoprodotti dell’industria alimentare, in modo particolare quella della carne, ponendo particolare attenzione all’utilizzo delle biotecnologie, che prevedono l’utilizzo di microrganismi veri e propri o molecole da essi prodotte, come gli enzimi. Seppur, in generale, la ricerca in questo ambito non è ancora molto sviluppata rispetto ad altri settori, la selezione di microorganismi ed enzimi specifici per valorizzare scarti e sottoprodotti ottenuti dall’industria della carne e l’ottimizzazione di processi biotecnologici “su misura” per ottenere composti ad alto valore aggiunto rappresentano una sfida importante per questo settore che ha ancora molte potenzialità di espansione.
Resumo:
La presente tesi tratta lo studio di fattibilità di un impianto automatico per l’assemblaggio di stampati in materiale plastico. Lo sviluppo della tesi si è basato sulla riproduzione a computer (utilizzando il software AutoMod) del layout futuro, delle movimentazioni di materiale e dell’analisi dei flussi che servono all’impianto e l’utilizzo del personale a bordo dello stesso. Successivamente, sviluppato il modello, si è andati a calcolare quale potesse essere il lotto ottimale di produzione che fosse in grado di individuare una produzione efficiente. Infine, è stata fatta l’analisi dell’investimento tramite foglio di calcolo Excel riportando i dati uscenti dal modello di simulazione insieme ad altri dati stimati e rilevati sul campo. Il programma ha come obiettivo l’analisi di fattibilità e la successiva decisione estratta dai dati sulla vantaggiosità o meno dell’investimento ed in quanto tempo l’azienda potrà rientrare economicamente.
Resumo:
La crescente disponibilità di scanner 3D ha reso più semplice l’acquisizione di modelli 3D dall’ambiente. A causa delle inevitabili imperfezioni ed errori che possono avvenire durante la fase di scansione, i modelli acquisiti possono risultare a volte inutilizzabili ed affetti da rumore. Le tecniche di denoising hanno come obiettivo quello di rimuovere dalla superficie della mesh 3D scannerizzata i disturbi provocati dal rumore, ristabilendo le caratteristiche originali della superficie senza introdurre false informazioni. Per risolvere questo problema, un approccio innovativo è quello di utilizzare il Geometric Deep Learning per addestrare una Rete Neurale in maniera da renderla in grado di eseguire efficacemente il denoising di mesh. L’obiettivo di questa tesi è descrivere il Geometric Deep Learning nell’ambito del problema sotto esame.
Resumo:
I notevoli sviluppi tecnologici che hanno caratterizzato l’ultimo decennio hanno portato con sé alcune minacce alla sicurezza. In questa tesi, completamento di un progetto di tirocinio svolto presso il CINECA, ci si concentra sulla realizzazione di una baseline dinamica in grado di apprendere il comportamento degli utenti. Grazie ad essa e con l’aiuto di uno script Python, è possibile rilevare i comportamenti anomali e segnalarli agli interessati. Il focus principale del progetto riguarda il possibile esaurimento di sessioni in applicazioni web e la conseguente negazione del servizio. La raccolta dei dati dai vari applicativi è stata possibile utilizzando il SIEM QRadar di IBM, le funzionalità in esso presenti e le API che hanno consentito un agevole interfacciamento con gli script esterni.
Resumo:
L’elaborato si pone l’obiettivo di realizzare e validare dei campioni in resina epossidica per la rilevazione di attività di scariche parziali interne. Nella prima fase dell’attività di ricerca, sono definite le linee progettuali riguardanti la scelta dei materiali da utilizzare, al fine di creare degli stampi per poter ottenere dei campioni di forma idonea e, successivamente, si procede alla scelta del tipo di resina e degli elettrodi da adoperare. All’interno dei provini, viene iniettata, con una siringa di precisione dotata di un ago sottile, una cavità di aria indicante un eventuale difetto nella matrice polimerica dell’isolante, se sottoposto a un determinato tipo di stress (elettrico, termico, meccanico). I provini sono testati in un circuito di prova ad alto voltaggio per la misura della tensione di innesco alla quale si verificano le scariche; attraverso l’utilizzo di un software specifico, viene poi ricavato il PD pattern utile per l’approccio all’identificazione della tipologia di scarica. Inoltre, sono effettuate delle simulazioni con l’ambiente di calcolo Comsol ottenendo il valore del campo elettrico all’interno della cavità di aria. Il PD pattern viene, in seguito, analizzato estrapolando dei marker statistici di interesse per l’applicazione della fuzzy logic. Questa tipologia di logica prevede la verifica di regole linguistiche per la corretta identificazione del tipo di scarica, individuata dal pattern in esame (interna, superficiale o corona). A seconda dei valori ricavati dai marker, vengono applicate le regole della fuzzy logic per poter classificare, nei campioni esaminati, l’attività di scarica parziale come interna.