999 resultados para indirizzo :: 860 :: Curriculum: Costruzioni per il territorio


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca, di carattere esplorativo, prende spunto dal dibattito internazionale, sviluppatosi sul finire dello scorso secolo, sulla necessità di innovare il sistema educativo, in ottica di lifelong-learning, e favorire l’acquisizione delle competenze richieste nel XXI secolo. Le diverse indicazioni sollecitano una scuola intesa come Civic-center in grado di riconoscere gli apprendimenti extra-scolastici, con spazi di apprendimento innovativi funzionali a didattiche learner-centred. A circa trent’anni dalla Dichiarazione di Salamanca riteniamo necessario interrogarsi se queste innovazioni garantiscano l’inclusione e il successo formativo di tutti. La ricerca si articola in quattro studi di caso relativi a due scuole secondarie di secondo grado innovative italiane e due finlandesi. Si propone di comprendere sulla base delle percezioni di studenti, insegnanti, dirigenti se tale modello di scuola favorisca anche l’inclusione e il benessere di tutti gli studenti. Dall’analisi dei risultati sembra che, secondo le percezioni di coloro che hanno partecipato alla ricerca, le scuole siano riuscite a far coesistere innovazione e inclusione. In particolare, l’utilizzo di spazi di apprendimento innovativi e didattiche learner-centred all’interno di una scuola aperta al territorio in grado di riconoscere le competenze extra-scolastiche, sembrano favorire effettivamente l’inclusione di tutti gli studenti. Nonostante gli aspetti innovativi, restano tuttavia presenti all’interno delle scuole analizzate ancora diverse criticità che non consentono una piena inclusione for all

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di Tesi ha voluto fornire una panoramica sui dispositivi a rilascio controllato presenti nella letteratura scientifica, e dei materiali, in particolare poliesteri alifatici, principalmente impiegati a tale scopo. Particolare attenzione è stata dedicata anche alle tipologie di somministrazione e alle patologie che attualmente possono essere curate con tali dispositivi al fine di effettuare un rilascio di principio attivo in maniera mirata, controllata, e ottimizzata in relazione alla specifica terapia, al fine di migliorare quanto più possibile la compliance del paziente. In ultima istanza, sono stati riportati alcuni casi studio, relativi a sistemi copolimerici e materiali ibridi realizzati dal gruppo di ricerca della Prof.ssa Lotti, relatrice del presente elaborato, che da anni studia e realizza materiali polimerici innovativi per applicazioni biomedicali, quali ingegneria tissutale e rilascio controllato di farmaci.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'attività di tesi svolta presso l'azienda VRM spa è stata focalizzata sullo studio e sull’implementazione di un sistema di controllo elettronico per le sospensioni di un motociclo. Con questo obiettivo, sono state affrontate le fasi di analisi del sistema sospensioni della moto Benelli 752S, della modellazione multibody del veicolo e della modellazione matematica delle strategie Anti-Dive e Anti-Squat. Tali strategie di controllo sono volte a limitare rispettivamente la velocità di affondamento della forcella, in fase di frenata, e lo squat della moto sulla ruota posteriore, in accelerazione. Le considerazioni teoriche, alla base di questo studio, sono state supportate da una serie di simulazioni effettuate mediante il software Simulink di Matlab, che ha consentito di rappresentare il comportamento dinamico del sistema. A completamento della ricerca sopra citata, sono state condotte attività sperimentali volte a riprodurre le condizioni in cui le strategie di controllo vengono messe in atto e a validare la risposta ottenuta dal modello Simulink nei medesimi scenari operativi. Queste verifiche hanno dimostrato l'adeguatezza delle variabili individuate come input del controllo e la corrispondenza tra il comportamento del veicolo nei test su strada e i risultati ottenuti dal modello.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il diabete mellito è una delle malattie più diffuse al mondo ed i casi accertati aumentano ogni anno. Dai primi metodi di monitoraggio della glicemia attraverso ripetute punture, oggi si punta maggiormente su un monitoraggio continuo dei parametri di interesse. Sebbene le innovazioni tecnologiche legate al controllo del diabete si siano largamente fatte strada negli ultimi anni, spesso la praticità, i costi e la manutenzione di tali dispositivi non sono aspetti ottimali per gli individui che ne devono fare uso. L’obbiettivo tecnologico dei giorni d’oggi è quello di aumentare l’autonomia degli individui nell’utilizzo di dispositivi professionali per il miglioramento del proprio stile di vita, a maggior ragione in ambito medico-biologico. Questo elaborato analizza l’evoluzione dei metodi di rilevazione dei parametri legati alla malattia del diabete, con particolare attenzione sulle recenti proposte di innovazione tecnologica. Inoltre, si ripropone di evidenziare il metodo più efficace tra quelli esaminati: l’utilizzo di bioinchiostri come reagenti sottocutanei. Questa tecnica innovativa si ripromette di diminuire fortemente i costi e gli sprechi legati ai dispositivi monouso. Inoltre, permette una maggiore raccolta di informazioni continuative, attraverso la proposta di un accoppiamento con dispositivi mobili, largamente diffusi ai giorni d’oggi, da poter condividere facilmente e comodamente con il proprio gruppo di medici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggigiorno l'individuazione diagnostica precoce della SARS-CoV-2 attraverso tamponi molecolari è fondamentale per interrompere la trasmissione del virus. Tuttavia, il monitoraggio della diffusione virale attraverso il test standard di RT-qPCR individuale comporta un elevato costo per ciascun tampone nasofaringeo analizzato e i reagenti chimici per l’estrazione dell’RNA virale sono sempre meno disponibili. Per ovviare a tali ostacoli, è stata ripresa la tecnica di group testing, sviluppata per la prima volta da Dorfman nel 1943 per individuare i soggetti affetti da sifilide prima del loro arruolamento. Questa strategia minimizza il numero di test condotti su un insieme di campioni: se un gruppo di n campioni risulta negativo, allora la condizione di ciascuno di essi è stata determinata mediante un solo test invece che con n test individuali. Negli ultimi due anni sono state sviluppate strategie in grado di migliorare le prestazioni del test di gruppo: per scenari a bassa prevalenza l’algoritmo dell’ipercubo rileva un singolo campione positivo in pool con dimensioni fino a 100 campioni attraverso due o più turni di test; invece, il P-BEST utilizza un solo turno di analisi, ma le dimensioni massime dei pool sono più ridotte. Per scenari ad alta prevalenza (10%) il team italiano dell’Università di Bologna ha progettato un metodo che identifica e rileva i membri infetti con un solo turno di test. Tuttavia, affinché il group testing sia efficace come l’analisi individuale dei tamponi molecolari, è necessario minimizzare l’effetto di diluizione, correlato alla dimensione del pool e causa di insorgenza di falsi negativi, nonché di un calo nella sensibilità nei test. I dati ottenuti da questi studi hanno dimostrato che questa strategia offre grandi potenzialità. Essa è essenziale per le indagini di routine della popolazione e concede vantaggi amplificati soprattutto se vengono testati soggetti quotidianamente in contatto tra loro, come famiglie o colleghi di lavoro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è analizzare le API disponibili sul Web che forniscono dati meteorologici e in particolare analizzare i servizi che esse offrono. La tesi include la descrizione di confronti già presenti sul Web ed è seguita dalla definizione di una griglia di valutazione con cui sono state analizzate le API meteo e le varie funzionalità che esse offrono. Infine il lavoro si completa con lo sviluppo di un’applicazione mobile realizzata in React Native, in cui è possibile leggere e confrontare in modo interattivo i dati attuali e storici forniti dalle API, inoltre permette di filtrare le API meteo in base alle caratteristiche che si cercano.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

TARO (Tons of Articles Ready to Outline) è un progetto che ha come scopo quello di realizzare un sistema per la raccolta, l'analisi e il confronto di articoli di giornali online. Sono state scelte come fonti testate giornalistiche internazionali e i loro canali di pubblicazione, come ad esempio i Feed RSS e le Homepage. Gli articoli vengono quindi analizzati attraverso NER e Sentiment Analysis per poi individuare quali argomenti siano trattati da più testate e quali invece risultino esclusivi di una sola, sfruttando algoritmi di similarità. Il progetto è sviluppato in Python e sono utilizzate diverse librerie, tra cui Scrapy, per la raccolta di articoli, Argos, per la traduzione delle notizie al fine di allinearle linguisticamente, SpaCy, per le analisi semantiche, e Pandas per la visualizzazione dei risultati ottenuti. Uno degli obiettivi è sfruttare questa pipeline al fine di effettuare analisi socio-culturali interessanti utilizzando le informazioni date dagli articoli giornalistici stessi, oltre che osservare le potenzialità delle analisi semantiche fatte su notiziari.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il seguente elaborato affronta l'implementazione di un algoritmo che affronta un problema di controllo di processo in ambito industriale utilizzando algoritmi di object detection. Infatti, il progetto concordato con il professore Di Stefano si è svolto in collaborazione con l’azienda Pirelli, nell’ambito della produzione di pneumatici. Lo scopo dell'algoritmo implementato è di verificare il preciso orientamento di elementi grafici della copertura, utilizzati dalle case automobilistiche per equipaggiare correttamente le vetture. In particolare, si devono individuare delle scritte sul battistrada della copertura e identificarne la posizione rispetto ad altri elementi fissati su di essa. La tesi affronta questo task in due parti distinte: la prima consiste nel training di algoritmi di deep learning per il riconoscimento degli elementi grafici e del battistrada, la seconda è un decisore che opera a valle del primo sistema utilizzando gli output delle reti allenate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il ruolo dell’informatica è diventato chiave del funzionamento del mondo moderno, ormai sempre più in progressiva digitalizzazione di ogni singolo aspetto della vita dell’individuo. Con l’aumentare della complessità e delle dimensioni dei programmi, il rilevamento di errori diventa sempre di più un’attività difficile e che necessita l’impiego di tempo e risorse. Meccanismi di analisi del codice sorgente tradizionali sono esistiti fin dalla nascita dell’informatica stessa e il loro ruolo all’interno della catena produttiva di un team di programmatori non è mai stato cosi fondamentale come lo è tuttora. Questi meccanismi di analisi, però, non sono esenti da problematiche: il tempo di esecuzione su progetti di grandi dimensioni e la percentuale di falsi positivi possono, infatti, diventare un importante problema. Per questi motivi, meccanismi fondati su Machine Learning, e più in particolare Deep Learning, sono stati sviluppati negli ultimi anni. Questo lavoro di tesi si pone l’obbiettivo di esplorare e sviluppare un modello di Deep Learning per il riconoscimento di errori in un qualsiasi file sorgente scritto in linguaggio C e C++.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tomografia ad impedenza elettrica è un metodo di imaging relativamente nuovo che ha suscitato interesse in un ampia gamma di discipline, la sua portabilità, sicurezza e basso costo suggeriscono che potrebbe risolvere diversi problemi clinici. Matematicamente il problema dell'EIT può essere suddiviso in un problema in avanti e uno inverso. Il problema forward, si basa su un'equazione differenziale parziale ellittica, e definisce l'insieme delle tensioni misurate a partire da una distribuzione nota di conducibilità. Il problema inverso è modellato come un problema dei minimi quadrati non lineare, in cui si cerca di ridurre al minimo la differenza tra le tensioni misurate e quelle generate dalla conducibilità ricostruita. Il problema inverso è mal posto e porta ad una soluzione che non dipende con continuità dai dati e quindi le tecniche di ricostruzione richiedono l'introduzione di un termine di regolarizzazione. L'elaborato si concentra sulle strategie algoritmiche per il problema inverso e sulla realizzazione di un'interfaccia grafica in grado di settare i parametri e confrontare velocemente i metodi proposti. Il progetto nella sua visione più ampia vorrebbe utilizzare le strategie algoritmiche proposte per dati ottenuti dal sistema prodotto dall'Università di Bologna nel laboratorio di Ingegneria Cellulare e Molecolare (ICM) di Cesena. I risultati dei test consentono di delineare quali siano gli strumenti migliori per poter arrivare ad una corretta ricostruzione dell'immagine nonché suggerire possibili miglioramenti della configurazione hardware al fine arrivare a risultati sperimentali completi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

DUNE (Deep Underground Neutrino Experiment) è un esperimento internazionale attualmente in costruzione al laboratorio Fermilab in Illinois, Stati Uniti. Il suo scopo sarà quello di studiare alcuni dei fenomeni e quesiti aperti che riguardano i neutrini: particelle debolmente interagenti facenti parte del Modello Standard. In particolare DUNE intende studiare il fenomeno dell'oscillazione di sapore dei neutrini, osservare neutrini provenienti da supernove e stelle di neutroni per studiarne la formazione e ricercare l'eventuale decadimento dei protoni. L'esperimento sarà formato da due siti sperimentali distanti circa 1300 km tra loro: il Near Detector situato a Fermilab ed il Far Detector, situato al Sanford Underground Research Facility (SURF) in South Dakota. Questa tesi è rivolta in particolare al sistema di fotorivelazione del Far Detector, che utilizza fotomoltiplicatori al silicio (Silicon Photomultipliers, o SiPM). Questi dispositivi dovranno funzionare in condizioni criogeniche in argon liquido, perciò è stata avviata un'intensiva campagna di test volta alla caratterizzazione e validazione dei sensori che saranno montati nell'apparato. La sezione INFN di Bologna è coinvolta in questa campagna e dovrà testare una parte dei SiPM destinati all'impiego in DUNE. A tale scopo è stato realizzato, nei laboratori INFN, un sistema per il test di tali dispositivi in criogenia su larga scala. L'attività di tesi ha previsto la caratterizzazione di diversi SiPM sia a temperatura ambiente sia in criogenia e l'analisi delle distribuzioni statistiche dei parametri di diversi campioni di SiPM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La crescente disponibilità di scanner 3D ha reso più semplice l’acquisizione di modelli 3D dall’ambiente. A causa delle inevitabili imperfezioni ed errori che possono avvenire durante la fase di scansione, i modelli acquisiti possono risultare a volte inutilizzabili ed affetti da rumore. Le tecniche di denoising hanno come obiettivo quello di rimuovere dalla superficie della mesh 3D scannerizzata i disturbi provocati dal rumore, ristabilendo le caratteristiche originali della superficie senza introdurre false informazioni. Per risolvere questo problema, un approccio innovativo è quello di utilizzare il Geometric Deep Learning per addestrare una Rete Neurale in maniera da renderla in grado di eseguire efficacemente il denoising di mesh. L’obiettivo di questa tesi è descrivere il Geometric Deep Learning nell’ambito del problema sotto esame.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I notevoli sviluppi tecnologici che hanno caratterizzato l’ultimo decennio hanno portato con sé alcune minacce alla sicurezza. In questa tesi, completamento di un progetto di tirocinio svolto presso il CINECA, ci si concentra sulla realizzazione di una baseline dinamica in grado di apprendere il comportamento degli utenti. Grazie ad essa e con l’aiuto di uno script Python, è possibile rilevare i comportamenti anomali e segnalarli agli interessati. Il focus principale del progetto riguarda il possibile esaurimento di sessioni in applicazioni web e la conseguente negazione del servizio. La raccolta dei dati dai vari applicativi è stata possibile utilizzando il SIEM QRadar di IBM, le funzionalità in esso presenti e le API che hanno consentito un agevole interfacciamento con gli script esterni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo elaborato tratta lo studio e l'implementazione della modulazione Orthogonal Time Frequency Space (OTFS) in sistemi di tipo Joint Sensing and Communication (JSC), ossia sistemi in cui le funzionalità di comunicazione e "sensing" condividono lo stesso hardware e la stessa banda di frequenze. La modulazione OTFS è una recente tecnica di modulazione bidimensionale, progettata nel dominio delay-Doppler, che sta riscuotendo particolare interesse nel panorama delle telecomunicazioni in quanto portatrice di alcuni importanti vantaggi nei sistemi delle reti cellulari. Rispetto alle moderne modulazioni multi-portante, come l'OFDM, l'OTFS si dimostra essere in grado di offrire prestazioni migliori e più robuste in condizioni di connessioni ad alta velocità (High Mobility), con una maggiore efficienza spettrale, in quanto non prevede l'utilizzo di un prefisso ciclico per la gestione del problema dell'ISI. Un altro punto di forza importante della modulazione OTFS è quello di risultare particolarmente adatta e compatibile con le applicazioni di JSC, soprattutto grazie all'estrema robustezza a grandi spostamenti Doppler, e la possibilità di fare "sensing" raggiungendo distanze decisamente maggiori rispetto all'OFDM, grazie all'assenza del prefisso ciclico. Tutto questo però viene al costo di un notevole incremento del sistema, con tempi di esecuzione molto elevati. Dopo aver presentato il sistema OTFS in generale e in ambito JSC, in un particolare scenario, lo si è implementando in MATLAB sviluppando due versioni: una standard e una a complessità ridotta, in grado di raggiungere risoluzioni molto elevate in tempi di calcolo contenuti. Infine questo sistema, in grado di stimare i parametri radar di distanza e velocità radiale relativa, associati ad un certo target, è stato simulato e i risultati relativi alle performance sulla stima dei parametri, in termini di RMSE e CRLB, sono stati riportati e posti a confronto con quelli ottenuti nel caso OFDM, a parità di scenario.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato si propone il metodo di regolarizzazione mediante Variazione Totale per risolvere gli artefatti presenti nelle immagini di Risonanza Magnetica. Di particolare interesse sono gli artefatti di Gibbs, dovuti al troncamento dei dati, nel processo di acquisizione, e alla tecnica di ricostruzione basata sulla trasformata di Fourier. Il metodo proposto si fonda su un problema di minimo la cui funzione obiettivo è data dalla somma di un termine che garantisce la consistenza con i dati, e di un termine di penalizzazione, ovvero la Variazione Totale. Per la risoluzione di tale problema, si utilizza il metodo Alternating Direction Method of Multipliers (ADMM). In conclusione, si mostra l’efficacia del metodo descritto applicandolo ad alcuni problemi test con dati sintetici e reali.