607 resultados para Chiloscyllium punctatum, Crescita, Sacco vitellino, Sviluppo embrionale, Illuminamento, Acquario
Resumo:
La Brain Computer Interface, con l’acronimo BCI, è un mezzo per la comunicazione tra cervello e macchina. La comunicazione si basa sulla emanazione di segnali elettrici del cervello che vengono rilevati da un dispositivo, il quale invia i segnali digitalizzati ad un elaboratore. I segnali elettrici, chiamati EEG, permettono al cervello di regolare la comunicazione tra le diverse cellule neurali. La BCI intercetta questi segnali e, previa elaborazione, permette di ottenere diversi diagrammi, detti metriche, per poter misurare, sotto svariati aspetti, il funzionamento del cervello. Le ricerche scientifiche sulle EEG hanno rilevato una correlazione tra i segnali elettrici nel cervello di un soggetto con il suo livello di performance e stato emotivo. È quindi possibile comprendere, tramite una serie di parametri, come la mente dei soggetti reagisce a stimoli esterni di svariata tipologia durante lo svolgimento di un’attività. L’elaboratore, che riceve il segnale dalla BCI, è il componente che si occupa di trasformare i segnali elettrici, generati dal cervello e digitalizzati, in risultati facilmente interpretabili dall’utente. Elaborare i segnali EEG in tempo reale porta a dover utilizzare algoritmi creati appositamente per questo scopo e specifici perle metriche preposte. Lo scopo di questa tesi è quello di presentare un progetto sullo sviluppo della fase di smistamento dei dati ricevuti dall’elaboratore. Nel contempo si fornirà una conoscenza scientifica minima per comprendere le scelte fatte. Tale progetto è stato reso possibile dalla collaborazione con l’azienda Vibre, che si dedica allo sviluppo di un sistema comprendente BCI ed elaboratore.
Resumo:
Il presente elaborato finale presenta lo sviluppo e la caratterizzazione di tessuti nanofibrosi in Nylon 66, ottenuti mediante elettrofilatura, da utilizzarsi per contrastare la delaminazione di compositi in fibra di carbonio (CFRP). Ottimizzati i parametri di processo, sono state preparate membrane di diverso spessore, poi integrate in laminati CFRP. Per consentire la reticolazione della resina e la corretta integrazione del rinforzo nanofibroso, è stato effettuato un processo di cura ottimizzato in autoclave. La tenacità a frattura interlaminare dei compositi nanomodificati risulta significativamente superiore al composito di riferimento.
Resumo:
Il progetto descritto in questo elaborato di tesi è stato svolto presso Il Centro Protesi INAIL (Vigorso di Budrio, BO). Il lavoro è stato realizzato a supporto di un progetto di ricerca, finanziato dal Dipartimento della Difesa USA, in collaborazione con la Northwestern University di Chicago e il Minneapolis Veteran Affairs Health Care Sytem. La ricerca ha lo scopo di determinare l’efficacia comparativa di metodi alternativi per realizzare il calco del moncone dell’amputato di arto inferiore e la successiva invasatura su misura. Il progetto di tesi nasce dall’assenza di un software commerciale in grado di analizzare come evolve la forma del moncone, dal calco all'invasatura finita, basandosi sulla digitalizzazione tridimensionale delle superfici. La libreria sviluppata è implementata in Python e utilizza algoritmi e strumenti di geometria computazionale al fine di supportare i processi di elaborazione dati. Il flusso di lavoro si sviluppa nelle seguenti fasi: • Acquisizione e pre-processing del dato; • Identificazione digitale dei punti di repere; • Allineamento dei modelli per orientarli in un sistema di riferimento globale secondo una logica comune; • Registrazione di due modelli per allinearli l’uno all’altro; • Generazione di outcome e parametri dimensionali, derivanti da mappe distanza, sezioni, cammini geodetici e regioni di interesse; • Estrazione di indicatori statistici riassuntivi delle differenze, correlate ad un insieme di scansioni tramite la PCA. Le funzionalità sono state validate tramite appositi test su dati clinici rilevati dallo studio o dati sintetici con caratteristiche note a priori. La libreria fornisce un insieme di interfacce che permette l’accesso anche a utenti non esperti ed è caratterizzata da modularità, semplicità di installazione ed estensibilità delle funzionalità. Tra gli sviluppi futuri si prevede l’identificazione di possibili ottimizzazioni individuate da un utilizzo degli strumenti esteso a più casi d’uso.
Resumo:
In questo lavoro, sono state valutate le prestazioni di quattro tipi di LDH (Co/Al e Co/Fe entrambe con e senza GO nella soluzione di elettrodeposizione) per l'applicazione in stoccaggio di energia, andando a confrontare le capacità specifiche calcolate da voltammetrie cicliche e curve galvanostatiche di carica/scarica. I risultati di tali analisi hanno mostrato come l’LDH a base di Al sia più adatto all’applicazione di accumulo di energia, rispetto a quello con il Fe. Ulteriori caratterizzazioni, come l’XRD ed il SEM accoppiato con l'EDX, hanno confermato la maggior applicabilità dei LDH di Co/Al rispetto a quelli di Co/Fe, in quanto i primi presentano: una struttura più cristallina, una morfologia più uniforme ed un’intercalazione dell’ERGO migliore. Dopo la fase di scelta dell’LDH più performante ci si è dedicati alla caratterizzazione di un capacitore ibrido operante in fase liquida. Concluse le analisi, si è notato come l’ERGO porti all'aumento delle prestazioni del sistema (risultato in linea con quello riscontrato tramite lo studio degli LDH come componenti catodici singoli). Grazie allo studio delle performance a lungo termine è stato possibile verificare come l’ERGO aumenti la stabilità del sistema quando si sottopone quest’ultimo a stress protratto nel tempo. Successivamente, si è proseguito con lo studio di un capacitore ibrido operante in fase solida. Come nel caso del sistema in fase liquida, si è riscontrato un aumento di performance dovuto alla presenza di ERGO nella struttura finale degli LDH.
Resumo:
Questo volume di tesi, dal titolo “Sviluppo di una piattaforma per fornire contenuti formativi sfruttando la gamification: un caso di studio aziendale”, tratta argomenti quali e-learning e game-based learning e come/quando questi possono essere applicati, presentando inoltre un esempio di prototipo di applicazione web che può fungere a questo scopo. Nello specifico, il primo capitolo si compone di tre sezioni principali: la prima introduce il concetto di e-learning e le molteplici declinazioni ad esso applicabili, oltre a presentare qualche cenno di carattere storico per individuare questo fenomeno nel tempo; la seconda tratta i campi d’applicazione e le tipologie di didattica inscrivibili nel termine “Game-based learning”. Nella terza sezione, “builder per esperienze gamificate”, infine, vengono presentate e analizzate due applicazioni web che possono concorrere alla creazione di un’esperienza di formazione gamificata in ambito scolastico e/o lavorativo. Il secondo e il terzo capitolo, rispettivamente con titoli “Tecnologie” e “Applicazione web: BKM – Learning Game”, sono fortemente correlati: vengono infatti presentate le tecnologie (nello specifico HTML, CSS, Javascript, NodeJs, VueJs e JSON) utilizzate per la creazione del progetto di tesi, poi viene descritto l’applicativo web risultante nel suo complesso. Il progetto è stato implementato durante il tirocinio in preparazione della prova finale, presso l’azienda Bookmark s.r.l.
Resumo:
L'elaborato di tesi si è posto l'obiettivo di studiare la sintesi e l'attività catalitica di diversi materiali compositi a base di Aquivion, resina pefluorosolfonica dalle caratteristiche superacide, e vari ossidi su una reazione di valorizzazione catalitica del furfuril alcol. I test catalitici sono stati inizialmente svolti allo scopo di determinare l'influenza delle caratteristiche del catalizzatore e delle condizioni operative. La comparazione dei risultati ottenuti ha successivamente permesso di trarre ulteriori informazioni interessanti sul meccanismo di reazione. In particolare, le proprietà superficiali degli ossidi indagati hanno giocato un ruolo determinante per la generazione di acqua a partire dal solvente alcolico, acqua che è risultata fondamentale per alcuni step della reazione.
Resumo:
Il seguente elaborato di tesi è finalizzato allo studio, alla preparazione e alla caratterizzazione di campioni geopolimerici sintetizzati in laboratorio. I geopolimeri sono materiali allumino silicatici a matrice polimerica ottenuti, attraverso un trattamento termico a bassa temperatura (generalmente inferiore ai 150-200°C), da una polvere reattiva a composizione prevalentemente allumino silicatica, e un attivatore alcalino, che può essere sotto forma di soluzione o di polvere. Questi materiali innovativi, presentano una versatilità notevole per quanto riguarda le applicazioni potenziali. Infatti, avendo proprietà termiche, meccaniche e chimico-fisiche ottimali possono essere impiegati in differenti settori produttivi e/o industriali, dal settore edile e delle grandi opere fino a quello aeronautico e automobilistico . I materiali geopolimerici sono utilizzati in molteplici campi d’applicazione perché risultano essere economicamente vantaggiosi e relativamente semplici da produrre. In questo lavoro di tesi sono stati prodotti differenti campioni a matrice geopolimerica, utilizzando diversi materiali come precursori e due tipologie di attivatore alcalino. Sui campioni geopolimerici realizzati sono state effettuate numerose analisi: XRD, SEM, analisi dell'andamento interno della temperatura dei campioni durante il trattamento termico in incubatore a 80°C, e infine anche delle prove meccaniche preliminari di compressione verticale, investigando il comportamento di alcuni campioni geopolimerici rappresentativi una volta sottoposti a una pressione assiale di 30 MPa, 60 MPa e 90 MPa, per una durata compresa tra le 24 e le 48 ore, a carico costante.
Resumo:
L’Intelligenza Artificiale è un campo dell’informatica che da tempo si afferma come valido strumento alternativo per la risoluzione di problemi tipicamente riservati esclusivamente all’intelletto umano. Se in principio gli algoritmi sfruttati nel campo dell’Intelligenza Artificiale erano basati su insiemi di regole codificate da esperti del dominio di applicazione dell’algoritmo, con l’arrivo del secondo millennio questo approccio è stato superato in favore di algoritmi che sfruttano grandi quantità di dati ed elevata potenza di calcolo per fare scelte ottimali. Un esempio di questo approccio può essere Deep Blue, che nel 1996, anche grazie ad un database di 4mila aperture e un’architettura che permetteva 11 GFLOPS fu la prima macchina a vincere una partita a scacchi contro un grande maestro. Col passare degli anni, l’aumentare degli investimenti e della ricerca, questo approccio ha portato alla strutturazione del campo dell’Apprendimento Automatico (Machine Learning, in inglese) dal quale sono scaturiti numerosi avanzamenti che hanno influenzato una moltitudine di ambiti: dall’agricoltura di precisione alla traduzione automatica, dal riconoscimento di frodi con carte di credito alla farmaceutica, dal marketing alla visione artificiale e molti altri, inclusa la medicina. Questo lavoro si concentra su proprio questioni relative al campo della medicina. In particolare si occupa di provare a riconoscere se le stenosi coronariche di un paziente sono gravi o meno attraverso l’uso di angiografie coronariche invasive e tomografie coronariche angiografiche; in maniera da diminuire delle angiografie coronariche invasive effettuate su pazienti che non ne hanno davvero bisogno.
Resumo:
Il periodo in cui viviamo rappresenta la cuspide di una forte e rapida evoluzione nella comprensione del linguaggio naturale, raggiuntasi prevalentemente grazie allo sviluppo di modelli neurali. Nell'ambito dell'information extraction, tali progressi hanno recentemente consentito di riconoscere efficacemente relazioni semantiche complesse tra entità menzionate nel testo, quali proteine, sintomi e farmaci. Tale task -- reso possibile dalla modellazione ad eventi -- è fondamentale in biomedicina, dove la crescita esponenziale del numero di pubblicazioni scientifiche accresce ulteriormente il bisogno di sistemi per l'estrazione automatica delle interazioni racchiuse nei documenti testuali. La combinazione di AI simbolica e sub-simbolica può consentire l'introduzione di conoscenza strutturata nota all'interno di language model, rendendo quest'ultimi più robusti, fattuali e interpretabili. In tale contesto, la verbalizzazione di grafi è uno dei task su cui si riversano maggiori aspettative. Nonostante l'importanza di tali contributi (dallo sviluppo di chatbot alla formulazione di nuove ipotesi di ricerca), ad oggi, risultano assenti contributi capaci di verbalizzare gli eventi biomedici espressi in letteratura, apprendendo il legame tra le interazioni espresse in forma a grafo e la loro controparte testuale. La tesi propone il primo dataset altamente comprensivo su coppie evento-testo, includendo diverse sotto-aree biomediche, quali malattie infettive, ricerca oncologica e biologia molecolare. Il dataset introdotto viene usato come base per l'addestramento di modelli generativi allo stato dell'arte sul task di verbalizzazione, adottando un approccio text-to-text e illustrando una tecnica formale per la codifica di grafi evento mediante testo aumentato. Infine, si dimostra la validità degli eventi per il miglioramento delle capacità di comprensione dei modelli neurali su altri task NLP, focalizzandosi su single-document summarization e multi-task learning.
Resumo:
Per determinare lo stato di un satellite ad ogni istante è necessario un propagatore orbitale, cioè un algoritmo che, partendo da condizioni iniziali note, calcola la traiettoria di un corpo in un intervallo di tempo arbitrario. L’orbita ottenuta è tuttavia soggetta ad errori numerici (errori di propagazione) ed incertezze. Queste ultime derivano da condizioni iniziali non precise, in quanto ricavate da osservazioni, soggette ad errori di misurazione, o ipotesi sui parametri dell’orbita e del corpo. Per questo motivo è importante utilizzare il propagatore anche per verificare l’evoluzione di tali incertezze nel tempo tramite un processo noto come analisi della covarianza. Questo processo permette di valutare l’entità dell’incertezza calcolandone la variazione rispetto allo stato iniziale a cui è generata e la rispondenza ai requisiti di missione. Lo scopo della tesi è l’incremento di precisione del propagatore orbitale esistente e lo sviluppo di strumenti per il supporto della missione LICIACube (Light Italian Cubesat for Imaging of Asteroids). In particolare, saranno implementati effetti secondari nel modello di propagazione ed uno strumento per la propagazione e conversione della rappresentazione di incertezze delle effemeridi. Questo permetterà la valutazione della precisione dell’orbita di Didymos e di LICIACube, dal suo rilascio fino al flyby. Per l’esportazione della traiettoria calcolata viene presentata una funzione che, tramite interpolazione, rappresenti l’orbita generata utilizzando un limitato spazio di memoria.
Resumo:
Questa tesi di laurea si pone l’obiettivo di investigare alcune delle nuove frontiere offerte dalla crescita sincretica e multidisciplinare dei linguaggi digitali applicati all’architettura e ai beni culturali. Si approfondiranno i concetti teorici fondamentali dell’informazione digitale: il web semantico come ambiente di scambio, i metadata come informazioni sui dati, i LOD (Link Open Data) come standard e fine. Per l’ambito dei beni culturali verranno presentati i temi di ricerca e sviluppo nel campo della catalogazione e fruizione digitali: ontologie, dizionari normalizzati aperti, database (Catalogo Digitale), etc. Per l’ambito edilizio-architettonico verrà introdotto l’Heritage Building Information Modeling (HBIM) semantico come metodologia multidisciplinare focalizzata su rilievo geometrico, modellazione, archiviazione e scambio di tutte le informazioni utili alla conoscenza e conservazione dei beni storici. Il punto d’incontro tra i due mondi è individuato nella possibilità di arricchire le geometrie attraverso la definizione di una semantica (parametri-metadati) relazionata alle informazioni (valori-dati) presenti nei cataloghi digitali, creando di fatto un modello 3D per architetture storiche con funzione di database multidisciplinare. Sarà presentata la piattaforma web-based Inception, sviluppata dall’omonima startup incubata come spinoff dall’Università di Ferrara, che, tra le diverse applicazioni e potenzialità, verrà utilizzata come strumento per la condivisione e fruizione, garantendo la possibilità di interrogare geometrie e metadati in continuità con i principi LOD. Verrà definito un workflow generale (procedure Scan2BIM, modellazione geometrica, definizione script per l’estrazione automatica dei dati dal Catalogo Digitale, associazione dati-geometrie e caricamento in piattaforma) successivamente applicato e adattato alle precise necessità del caso studio: la Chiesa di S. Maria delle Vergini (MC), su commissione dell’ICCD referente al MiBACT.
Resumo:
La città di Ivrea è conosciuta principalmente come il luogo di nascita del pensiero olivettiano e come punto di partenza della sua produzione, che per anni ha dominato il mercato nell’ambito tecnologico. Tutte le ideologie introdotte prima da Camillo Olivetti e, successivamente, riprese dal figlio Adriano, trovano la loro origine e sperimentazione nella crescita della città. Infatti, il suo sviluppo urbanistico ha visto la sua massima espansione nel XX secolo, diventando un punto d’incontro degli architetti razionalisti di quegli anni, che lasciarono qui alcune tra le più importanti costruzioni del modernismo e del razionalismo italiano. Eppure, non ci fu solo Olivetti: il merito dell’evoluzione della città dipese anche da altre realtà industriali e aziendali più piccole, che difficilmente vengono ricordate, viste e che, spesso sono state anche rase al suolo per dare spazio ad altre costruzioni contemporanee. Infatti, Ivrea prima di essere “città industriale del XX secolo” era conosciuta come “città del tessile”, proprio grazie alla presenza di due importanti industrie del settore: la Soie de Chatillon e la Manifattura Rossari & Varzi. L’idea progettuale nasce, quindi, dall’intento di voler riportare alla luce lo stabilimento della Manifattura Rossari & Varzi, che non solo oggi è dimenticato, ma che nasconde al suo interno una parte della storia medievale della città, il Bastion Verde. L’intervento mira a cogliere le potenzialità del luogo, non solo concentrandosi su questa realtà industriale in maniera puntuale, ma inserendola all’interno di un sistema di collegamento tra il centro storico e la sponda a sud della Dora Baltea, in modo da colmare alcune lacune attualmente presenti che non lo rendono funzionale alla città.
Resumo:
Con il termine "crowdsensing" si intende una tecnica in cui un folto gruppo di individui aventi dispositivi mobili acquisiscono e condividono dati di natura diversa in maniera collettiva, al fine di estrarre informazioni utili. Il concetto di Mobile Crowdsensing è molto recente e derivante dalle ultime innovazioni tecnologiche in materia di connettività online e cattura di dati di vario genere; pertanto non si trova attualmente una vera e propria applicazione in campo reale, la modellazione solo teorica e fin troppo specifica pone un limite alla conoscenza di un ambito che può rivelarsi molto utile ai fini di ricerca. YouCrowd è un piattaforma web che va ad implementare un sistema di crowdsourcing completo, in grado di leggere dati dai numerosi sensori di uno smartphone e condividerli, al fine di ottenere una remunerazione per gli utenti che completano una campagna. La web application vede la sua implementazione di base supportata da NodeJS e si configura come una piattaforma dinamica che varia la propria interfaccia con l'utente in base alle richieste di dati da parte degli administrators. Il test di YouCrowd ha coinvolto un buon numero di partecipanti più o meno esperti nell'utilizzo degli strumenti informatici, rivelando delle buone prestazioni in relazione alla difficoltà del task e alle prestazioni del device in test.
Resumo:
Le fratture fragili del collo del femore rappresentano un grave problema sociosanitario, in via di aggravamento a causa dell’aumento dell’età media e dell’aspettativa di vita. Il verificarsi di tale evento dipende da più fattori: la frequenza con la quale si verificano cadute, la gravità delle stesse e lo stato di salute del paziente, in particolare la resistenza meccanica delle sue ossa e il suo grado di controllo neuro-motorio. Negli ultimi anni gli strumenti di analisi e stima della resistenza meccanica del femore basati su modelli agli elementi finiti hanno raggiunto un tale livello di maturità da prospettarne l’utilizzo nel contesto di “in silico trials”, ovvero la simulazione virtuale di sperimentazioni cliniche e precliniche. In questo studio si è sviluppato un modello stocastico in grado di simulare la sperimentazione clinica di nuovi trattamenti per l’osteoporosi. Questo comprende più sotto modelli in grado di simulare il processo di invecchiamento, determinare stocasticamente le cadute che si verificano in una certa popolazione in un determinato orizzonte temporale e l’entità delle forze che agiscono sul grande trocantere. In particolare, le cadute sono state generate a partire da una distribuzione di Poisson e le forze sono state stimate attraverso un modello stocastico multiscala. La tesi si è concentrata su aspetti metodologici e procedurali, nell’ottica di sviluppare un modello che permettesse agevolmente la variazione dei parametri associati alla caduta, dotato di buone robustezza ed applicabilità. È stato verificato come la discretizzazione nel dominio del tempo del rimodellamento osseo non influisca significativamente nella determinazione delle fratture; inoltre, il modello si è dimostrato capace di fornire risultati stabili in modo computazionalmente efficiente. La validazione dei risultati del modello, invece, ha dato risultati non soddisfacenti, per cui sarà necessario procedere in futuro a un’attenta calibrazione dei parametri del modello.
Resumo:
Il volume di tesi ha riguardato lo sviluppo di un'applicazione mobile che sfrutta la Realtà Aumentata e il Machine Learning nel contesto della biodiversità. Nello specifico si è realizzato un modello di AI che permetta la classificazione di immagini di fiori. Tale modello è stato poi integrato in Android, al fine della realizzazione di un'app che riesca a riconoscere specifiche specie di fiori, oltre a individuare gli insetti impollinatori attratti da essi e rappresentarli in Realtà Aumentata.