999 resultados para 004.072 Elaborazione dei dati, Scienza degli elaboratori, Informatica - Attività di ricerca
Specifiche generali dei biomateriali di interesse per l'ingegneria dei tessuti del distretto uterino
Resumo:
Lo scopo di questa trattazione è quello di fornire una panoramica sui metodi di ingegnerizzazione dell’utero ad oggi sperimentati. L’obiettivo degli studi qui analizzati è quello di creare in vitro uno scaffold per l’utero umano con adeguate caratteristiche strutturali e determinati componenti al fine di permettere ai tessuti vicini di rigenerarsi e per poterne studiare le proprietà in vivo. Gli scaffold analizzati sono a base di collagene, fatti di materiali sintetici o costituiti dalle dECM. Per effettuare la decellularizzazione delle ECM sono stati impiegati detergenti come SDS e Triton X-100 o alta pressione idrostatica. Le impalcature realizzate sono state poi valutate per quanto riguarda le proprietà istologiche, IHC, strutturali e meccaniche e tramite angiografia è stata esaminata la conservazione delle reti vascolari negli scaffold dECM. I risultati hanno confermato l'efficacia del protocollo di decellularizzazione tramite HHP o l’utilizzo combinato di SDS e Triton X-100 per fornire scaffold dell’utero con caratteristiche e componenti della ECM simili all'utero nativo. Per quanto riguarda i materiali sintetici, i polimeri sono risultati particolarmente idonei date le loro caratteristiche, quali elevata porosità e proprietà biomeccaniche regolabili; per i materiali naturali invece, il collagene è stato quello più utilizzato e che ha portato ad ottimi risultati, anche in quanto componente principale dell’ECM. Gli studi in vivo hanno poi dimostrato la biocompatibilità e il potenziale rigenerativo degli scaffold e hanno suggerito un percorso di segnalazione come meccanismo di base per il processo rigenerativo. Tra i vari studi è stato analizzato anche il primo protocollo di decellularizzazione efficiente basato sulla perfusione per ottenere scaffold dell’intero utero umano. I risultati raccolti potrebbero essere impiegati in futuri studi di ingegneria del tessuto uterino umano che potrebbero portare allo sviluppo di nuovi trattamenti per pazienti sterili.
Resumo:
Lo scopo del presente lavoro di tesi sperimentale è stato quello di caratterizzare il controllo motorio di bambini affetti da scoliosi idiopatica e di valutarne le alterazioni rispetto ad una popolazione a sviluppo tipico dello stesso range di età. La caratterizzazione è avvenuta grazie ad un approccio basato su sensori indossabili, che ha consentito di estrarre e quantificare un gruppo di metriche che includono parametri temporali del cammino, la loro variabilità e le metriche non lineari (RQA, MSE, HR). Queste ultime sono state estrapolate mediante l'elaborazione dei segnali provenienti dai sensori applicati su caviglie e tronco dei singoli soggetti. L'implementazione degli script utili è avvenuta mediante il software Matlab. I risultati suggeriscono che la scoliosi idiopatica influisca sul controllo motorio dei pazienti scoliotici e ciò si traduce in un cammino più lento, meno stabile e meno maturo, denotato da un’asimmetria temporale ma anche da un’asimmetria con pendolazione destrutturata.
Resumo:
Negli ultimi anni, grazie al progresso tecnologico e ad una sempre maggior disponibilità di grosse moli di dati, l'Intelligenza Artificiale è letteralmente esplosa, arrivando ad abbracciare diversi domini, tra cui quello delle Neuroscienze. In questa tesi si illustra quindi quale sia l'attuale ruolo che l'Intelligenza Artificiale (IA) assume nelle Neuroscienze. La tesi inizia con un capitolo introduttivo volto a fornire delle nozioni di base relative all'IA, utili per comprendere al meglio i successivi capitoli. Nel secondo capitolo vengono forniti degli esempi sugli ambiti di utilizzo dell'IA nelle Neuroscienze: in ogni esempio vi è una parte introduttiva, volta a descrivere il contesto, seguita da una parte in cui, riportando uno o più recenti articoli scientifici, si descrivono i benefici che quell'ambito può trarre dall'utilizzo dell'IA. Infine, nel terzo capitolo, seguendo lo stesso schema degli esempi del secondo capitolo, si approfondisce il ruolo dell'IA nella Salute Mentale, concentrandosi principalmente sull'aspetto patologico e, più precisamente, sui vantaggi che l'IA può apportare nella prevenzione, diagnosi e trattamento del Disturbo Depressivo Maggiore (DDM) e dei Disturbo dello Spettro Autistico (DSA).
Resumo:
I notevoli sviluppi tecnologici che hanno caratterizzato l’ultimo decennio hanno portato con sé alcune minacce alla sicurezza. In questa tesi, completamento di un progetto di tirocinio svolto presso il CINECA, ci si concentra sulla realizzazione di una baseline dinamica in grado di apprendere il comportamento degli utenti. Grazie ad essa e con l’aiuto di uno script Python, è possibile rilevare i comportamenti anomali e segnalarli agli interessati. Il focus principale del progetto riguarda il possibile esaurimento di sessioni in applicazioni web e la conseguente negazione del servizio. La raccolta dei dati dai vari applicativi è stata possibile utilizzando il SIEM QRadar di IBM, le funzionalità in esso presenti e le API che hanno consentito un agevole interfacciamento con gli script esterni.
Resumo:
Il problema dello smaltimento delle plastiche tradizionali di origine petrolchimica ha stimolato l’interesse verso i materiali plastici bio-based biodegradabili come i PHB che, al contrario, possono essere degradati facilmente e in tempi rapidi dai batteri naturalmente presenti nell’ecosistema. Uno dei principali campi di applicazione dei PHA è quello del food packaging. L’uso di imballaggi attivi dove un antiossidante, disperso nella matrice polimerica, migra dall’imballaggio al cibo può essere utile per aumentare la shelf life degli alimenti ma anche per introdurre con la dieta fonti antiossidanti esogene che neutralizzano gli effetti dannosi dei radicali liberi, normalmente prodotti dai processi biologici. I tannini sono antiossidanti naturali che agiscono da riducenti, donano un idrogeno ai radicali liberi stabilizzandoli (free radical scavengers). Si può quindi usare il tannino estratto dal legno come bioadditivo per matrici biopolimeriche (PHB). Recuperando questo prodotto di scarto dell’industria agro-alimentare, si riesce ad abbassare il costo del prodotto finale che risulterà inoltre 100% biodegradabile e con capacità antiossidanti, quindi particolarmente adatto per il food packaging monouso. La bioplastica finale è stata ottenuta “melt mixando” il tannino in polvere, il PHB in pellets e il catalizzatore Ti(OBu)4 liquido in un mescolatore interno Brabender. Sono stati creati 4 campioni a percentuale crescente di tannino e catalizzatore. Sono state effettuate: - Prove di estrazione in acqua per capire quanto tannino non si fosse legato alla matrice biopolimerica. - Analisi FTIR per capire se fosse avvenuto un legame di transesterificazione tra matrice e tannino usando il Ti(OBu)4. - Prove di radical scavenging activity attraverso la spettroscopia uv-visibile per quantificare il potere antiossidante del tannino. - Analisi GPC, DSC e prove di trazione per confrontare le proprietà meccaniche e termiche dei campioni con quelle del PHB puro.
Resumo:
Il lavoro di tesi proposto è volto allo studio delle architetture Serverless, strutture che permettono agli sviluppatori di comporre facilmente applicazioni distribuite su molti servizi all’interno di un cloud, senza la necessità di gestire il server. Più nello specifico sono state studiate le FaaS (Function-as-a-Service), un modello di elaborazione cloud basato su eventi in cui il codice viene distribuito in container gestiti dalla piattaforma, e successivamente eseguito on-demand. A seguito di una prima parte di ricerca dello stato dell'arte, l'attenzione si è spostata sulla ricerca di vulnerabilità nel contesto del servizio OpenFaaS, un framework open-source che permette agli sviluppatori di distribuire facilmente funzioni e microservizi. Il deployment è stato fatto faasd, quest’ultimo è una semplificazione di OpenFaaS, usa le stesse componenti e lo stesso ecosistema di OpenFaaS ma usa Containerd al posto di Kubernetes. Dopo una prima fase di installazione e log-in il lavoro si è concentrato nelle varie metodologie di penetration test, nonché di ricerca delle vulnerabilità di sicurezza associate a tale paradigma. In informatica, il penetration test è il processo operativo di analisi o valutazione della sicurezza di un sistema o di una rete, simulando l'attacco di un potenziale utente malintenzionato. Nell'ultima fase sono stati condotti vari tentativi di attacco al sistema OpenFaaS tramite l'ausilio di alcuni tool. Inizialmente è stata fatta un'analisi della rete e del traffico tramite tool quali NMAP e Wireshark, per comprenderne meglio la struttura e come faasd creasse le funzioni a partire dai container. Infine, tramite OpenFaaS sono state create delle funzioni per testare la sicurezza e l'affidabilità di quest'ultima. In particolare, le funzioni indagano all'interno dei container al fine di comprendere la possibilità di eseguire code injection e rilevare possibili dati sensibili nel filesystem dell'immagine Docker così come nelle variabili d'ambiente.
Resumo:
Il lavoro di tesi presentato ha come obiettivo la valutazione delle potenzialità del metodo di risk assessment per la stima dei rischi nel campo della progettazione geotecnica. In particolare, è stata approfondita l’applicazione dei metodi di trattamento dell’incertezza alla modellazione numerica di terreni caratterizzati da alcune tipologie di argille, il cui comportamento, al variare del grado di saturazione, può oscillare tra ritiro e rigonfiamento, provocando dissesti alle strutture sovrastanti. Ai modelli numerici creati sono stati associati dei modelli probabilistici sui quali sono state eseguite delle analisi di affidabilità associate a parametri del terreno opportunamente scelti in funzione dell’influenza sul meccanismo espansivo del suolo. È stata scelta come soglia, e dunque come stato limite, per il calcolo della probabilità di fallimento, il movimento massimo caratteristico del terreno ottenuto applicando il metodo di Mitchell per i due fenomeni. Questo metodo è adottato nelle Australian Standards, uno dei riferimenti scientifici più rilevanti per la progettazione su suoli espansivi, nonché normativa vigente in Australia, territorio ricco di argille attive. Le analisi hanno permesso di condurre alcune riflessioni circa la conservatività dei termini da normativa, fondati su approcci di carattere puramente deterministico, mostrando come a piccole variazioni plausibili degli input nel modello numerico, si possano ottenere variazioni discutibili nei risultati, illustrando così i vantaggi che comporta il trattamento dell’incertezza sui dati.
Resumo:
I mareografi sono strumenti che misurano il livello del mare in un punto della costa. Tuttavia, essendovi ancorati, essi sono soggetti al suo movimento. Inoltre, il livello del mare è fortemente influenzato da effetti locali. In una prima parte, si è quindi selezionato un insieme di questi in base alla completezza dei dati e a restrizioni geografiche, in modo che nel loro complesso fossero il più possibile rappresentativi della situazione media globale. Di ognuno di essi si sono studiati la monotonicità e l’andamento in due ventenni consecutivi, il primo dal 1980. In questo modo è stato possibile evidenziare, ove presenti, modifiche nel tasso di variazione annuale del livello del mare in ogni località nei due periodi. Studiati i singoli mareografi si è poi proceduto ad effettuarne uno stacking per ottenere una stima meno influenzata da effetti locali. Il test di monotonia identifica in entrambi i casi un chiaro trend crescente. Il risultato della regressione lineare sui due periodi ha fornito tassi pari rispettivamente a (2.1 ± 0.5)mm/yr e (4.7 ± 0.5)mm/yr. Per migliorare la significatività del test di monotonia, si sono poi rimossi i modi semi-periodici mediante il metodo di decomposizione EMD (Empirical Mode Decomposition). Ripetendo la regressione lineare si ottengono risultati simili ma con minore incertezza: (2.3 ± 0.2)mm/yr e (4.9 ± 0.2)mm/yr. Come approccio alternativo, per cercare di superare l’arbitrarietà della scelta dei due archi temporali, si è effettuato un fit quadratico sulle serie dati dal 1980 al 2020. In questi modo, è stato possibile identificare e raggruppare situazioni contraddistinte da andamenti generali simili. In seguito, si è mostrato come, in entrambi i periodi, ci sia una forte correlazione lineare fra i mareografi sulla costa occidentale degli Stati Uniti e fra i mareografi posti nel Mediterraneo. Infine, viene studiato il caso dei mareografi della Laguna Veneta e la loro correlazione con altri posizionati nell'Adriatico settentrionale.
Resumo:
Questa tesi intende approfondire da un punto di vista, sia teorico sia computazionale, le proprietà fondamentali dei fononi. A tal fine, sono presentati i modelli quantistici di Einstein e di Debye che permettono la derivazione analitica degli osservabili macroscopici principali di un solido, come l’energia media e la capacità termica. Ciò è possibile tramite una trattazione meccano-statistica basata sull’approssimazione armonica dei modi normali di vibrazione degli ioni reticolari. Quindi, all’inizio si mostrano brevemente i risultati principali riguardanti l’oscillatore armonico quantistico. Successivamente, si approfondiscono i temi della dispersione fononica e della densità degli stati vibrazionali per reticoli cristallini 1D e 3D. Si ottiene che la prima non può essere considerata lineare se non nel limite di alte lunghezze d’onda, e che la seconda può presentare punti di singolarità correlati alla forma della relazione di dispersione. Infine, sono state svolte alcune analisi computazionali ab initio relative alla dispersione fononica, la densità degli stati vibrazionali e la frequenza di Debye del Carbonio (diamante) tramite i programmi VASP e Phonopy, confrontando i risultati con dati sperimentali presenti in letteratura.
Resumo:
L'esperimento ATLAS, come gli altri esperimenti che operano al Large Hadron Collider, produce Petabytes di dati ogni anno, che devono poi essere archiviati ed elaborati. Inoltre gli esperimenti si sono proposti di rendere accessibili questi dati in tutto il mondo. In risposta a questi bisogni è stato progettato il Worldwide LHC Computing Grid che combina la potenza di calcolo e le capacità di archiviazione di più di 170 siti sparsi in tutto il mondo. Nella maggior parte dei siti del WLCG sono state sviluppate tecnologie per la gestione dello storage, che si occupano anche della gestione delle richieste da parte degli utenti e del trasferimento dei dati. Questi sistemi registrano le proprie attività in logfiles, ricchi di informazioni utili agli operatori per individuare un problema in caso di malfunzionamento del sistema. In previsione di un maggiore flusso di dati nei prossimi anni si sta lavorando per rendere questi siti ancora più affidabili e uno dei possibili modi per farlo è lo sviluppo di un sistema in grado di analizzare i file di log autonomamente e individuare le anomalie che preannunciano un malfunzionamento. Per arrivare a realizzare questo sistema si deve prima individuare il metodo più adatto per l'analisi dei file di log. In questa tesi viene studiato un approccio al problema che utilizza l'intelligenza artificiale per analizzare i logfiles, più nello specifico viene studiato l'approccio che utilizza dell'algoritmo di clustering K-means.
Resumo:
L'allungamento controllato monofocale viene eseguito nel caso di discrepanze della lunghezza degli arti. Il dispositivo Rekrea, ideato e realizzato dall'azienda Citieffe, viene utilizzato per lo svolgimento di tale trattamento. La stabilità del sistema di fissazione esterna è un fattore cruciale per il successo di un trattamento di allungamento osseo ma difficile da raggiungere in quanto dipendente da numerose variabili. Nello specifico, questo lavoro di tesi verte sullo studio del comportamento meccanico dei singoli morsetti Small e Standard e dell'innovativa configurazione Tandem impiegati in due contesti clinici particolari: i pazienti acondroplasici ed il trattamento di allungamento di tibia. A seguito di una iniziale ricerca bibliografica, sono state pianificate e svolte delle prove meccaniche di diverse configurazioni per caratterizzare il comportamento di tali dispositivi. Attraverso un'analisi dei risultati ottenuti è stato evidenziato quanto il singolo morsetto Small conferisca un'elevata rigidezza del costrutto e permetta di ridurre la distanza morsetto - analogo osseo. In più è stato evidenziato come la configurazione Tandem sia risultata un buon sostituto del morsetto Sandwich ed in particolare, come l'utilizzo di tre viti ossee conferisca una maggiore rigidezza del costrutto.
Resumo:
Ogni anno in Italia, migliaia di protesi convenzionali vengono impiantate con successo in pazienti affetti da artrosi alla spalla, tuttavia è stato dimostrato che questa tipologia di protesi non funziona in quei pazienti che soffrono contemporaneamente anche di grandi lesioni alla cuffia dei rotatori, ricorrendo successivamente a un impianto di protesi di spalla inversa. La scelta sul miglior tipo di protesi da parte del chirurgo è quindi fondamentale e necessaria per evitare futuri stress e operazioni al paziente. Nel corso degli anni si è fatto affidamento a protocolli che non considerano in maniera specifica la componente tissutale ossea. In questa tesi si cerca di dimostrare che attraverso l’utilizzo delle immagini mediche è possibile ricavare dati e grafici specifici sulla componente ossea del paziente per ottimizzare poi la scelta della protesi da parte del chirurgo e la fase pre/intra operatoria.
Resumo:
Il presente elaborato propone un progetto di digitalizzazione e ottimizzazione del flusso informativo a supporto della gestione dei ricambi dell'azienda IMA S.P.A. In particolare, l'obiettivo principale è quello di rendere più efficiente e priva di sprechi la modalità di richiesta del prelievo dei componenti commerciali, che ad oggi risulta essere troppo fragile e onerosa. Essa infatti, viene eseguita attraverso la stampa di un buono di prelievo cartaceo, che costituisce il supporto all’informazione e l’input per dare il via all’attività di prelievo. La proposta sviluppata in questa tesi è quella di attuare un processo di dematerializzazione, eliminando il cartaceo a favore di una completa gestione dei dati a sistema. Per farlo è stata pensata una modifica al flusso attualmente esistente, attraverso l’implementazione di una nuova transazione sul software gestionale SAP, che consenta la creazione di una lista di ricambi da prelevare. Questa lista sarà il nuovo input necessario all’attivazione del picking nel magazzino centralizzato.
Resumo:
Il presente lavoro di tesi si basa sull’esperienza di tirocinio effettuata presso un’Azienda italiana che opera nel settore della lavorazione plastica e produce contenitori. L’Azienda, a seguito di un’innovazione su tutta la linea di prodotto, ha da poco preso la decisione di investire nell’inserimento di due nuove presse per lo stampaggio e nella realizzazione di un nuovo impianto di assemblaggio automatizzato. Questi verranno inseriti all’interno dell’attuale stabilimento ed andranno ad aumentare la capacità produttiva. Se da un lato ci sono grandi vantaggi in ciò, dall’altro va analizzato il contorno. In particolare: Come va ad impattare l’inserimento di questi elementi nelle logiche aziendali? Come cambiano i flussi di materiale all’interno dello stabilimento? Sarà sufficiente lo spazio attuale per lo stoccaggio dei semilavorati? Poste queste domande, l’obiettivo dell’elaborato è di rispondervi, attraverso l’analisi delle principali attività logistiche dell’Azienda, focalizzando l’attenzione sul layout attuale del reparto magazzino semilavorati e dei flussi di materiale. L’analisi del magazzino nella situazione As Is evidenzia una serie di criticità. Il problema principale è di definire l’adeguato layout del magazzino, che consente un utilizzo ottimale della superficie a disposizione, in modo da garantire l’efficienza e l’efficacia delle operazioni che ivi si svolgono. L’analisi ha condotto alla progettazione di un nuovo layout e di una nuova politica di allocazione dei materiali. Infine, viene effettuata un’attenta analisi dei flussi logistici, ed in particolare delle movimentazioni di materiale, sviluppata attraverso il software simulativo AutoMod. Quindi, vengono simulati degli ipotetici scenari, successivi all’inserimento del nuovo impianto di assemblaggio, per valutare le criticità che potrebbe dover affrontare l’Azienda.
Resumo:
L’obiettivo del lavoro di tesi è stato quello di valutare la sensitività dell’analisi quantitativa del rischio (QRA, Quantitative Risk Analysis) alla frequenza di accadimento degli scenari di rilascio delle sostanze pericolose ovvero dei top-events. L’analisi di rischio è stata condotta applicando, ad uno stabilimento a rischio di incidente rilevante della Catalogna, i passaggi procedurali previsti dall’istruzione 14/2008 SIE vigente in quella regione. L’applicazione di questa procedura ha permesso di ottenere le curve isorischio, che collegano i punti attorno allo stabilimento aventi lo stesso valore del rischio locale. Le frequenze base dei top-events sono state prese innanzitutto dalla linea guida BEVI, e successivamente ai fini dell’analisi di sensitività, sono stati considerati sia i valori forniti da altre 3 autorevoli linee guida sia i valori ottenuti considerando incrementi delle frequenze base del 20%, 30%, 50%, 70%, 200%, 300%, 500%, 700%, 1000%, 2000%, 3000%, 4000%, 5000%. L’analisi delle conseguenze è stata condotta tramite i software EFFECTS ed ALOHA, mentre ai fini della ricomposizione del rischio è stato utilizzato il codice RISKCURVES. La sensitività alle frequenze dei top-events è stata valutata in termini di variazione del diametro massimo delle curve isorischio, con particolare attenzione a quella corrispondente a 10-6 ev/anno, che rappresenta il limite di accettabilità del rischio per la pianificazione territoriale nell’intorno dello stabilimento. E’ stato così dimostrato che l’estensione delle curve isorischio dipende in maniera molto forte dalla frequenza dei top-events e che l’utilizzo di dati di frequenza provenienti da linee guida diverse porta a curve isorischio di dimensioni molto differenti. E’ dunque confermato che la scelta delle frequenze degli scenari incidentali rappresenta, nella conduzione dell’analisi di rischio, un passaggio delicato e cruciale.