943 resultados para malattia di Parkinson, analisi del cammino, biofeedback, riabilitazione, cadenza
Resumo:
La tesi riguarda la didattica della matematica e parla del modo di fare didattica negli istituti secondari di secondo grado attraverso l'analisi di un caso particolare: la didattica dei numeri complessi. La didattica verrà analizzata per prima cosa a livello generale attraverso l'esposizione dei punti principali della riforma Gelmini, e, successivamente, in particolare attraverso l'analisi della didattica dei numeri complessi nei licei scientifici. Di quest'ultima verranno presentati: gli strumenti con cui viene svolta, la modalità con cui vengono presentati i concetti, un nuovo metodo per migliorarla e, infine, il modo in cui i ragazzi la percepiscono. Questi elementi si traducono, rispettivamente, nell'analisi del libro `Matematica a colori', nell'esposizione di una lezione-tipo, nella proposta dell'utilizzo della storia della matematica e infine in un questionario posto agli alunni. Quanto emerso verrà confrontato con le indicazioni nazionali di alcuni stati esteri e il tutto verrà utilizzato per `leggere' i risultati del TIMMS ADVANCED 2008.
Resumo:
In questo elaborato tratterò il tema della comunicazione non verbale in ambito didattico. Nella prima parte parlerò della comunicazione non verbale e ne presenterò le diverse categorie. Nella seconda parte fornirò delle analisi del linguaggio non verbale della figura dell'insegnante, allo scopo di dimostrare come i codici non verbali incidano nella trasmissione del sapere e siano quindi uno strumento didattico molto importante. Infine tratterò la questione dell'apprendimento dei tratti non verbali tipici di una cultura da parte di studenti di lingua straniera.
Resumo:
Il lavoro svolto in questa tesi è volto alla descrizione dello sviluppo di un'applicazione mobile per Android legata al mondo della ristorazione. Viene descritta l'applicazione "Takeway", che svolge funzioni di presentazione di un ristorante e di gestione di ordini TakeAway. Viene inoltre proposta un'analisi del fenomeno di centralità del web/mobile nel quotidiano, delle tecnologie più recenti e dei limiti di queste piattaforme. Le sezioni più importanti riguardano la progettazione e l'implementazione del progetto, sono di carattere tecnico e analizzano le strutture utilizzate e gli strumenti impiegati nello sviluppo del software.
Resumo:
Nel presente lavoro di tesi ho sviluppato un metodo di analisi di dati di DW-MRI (Diffusion-Weighted Magnetic Resonance Imaging)cerebrale, tramite un algoritmo di trattografia, per la ricostruzione del tratto corticospinale, in un campione di 25 volontari sani. Il diffusion tensor imaging (DTI) sfrutta la capacità del tensore di diffusione D di misurare il processo di diffusione dell’acqua, per stimare quantitativamente l’anisotropia dei tessuti. In particolare, nella sostanza bianca cerebrale la diffusione delle molecole di acqua è direzionata preferenzialmente lungo le fibre, mentre è ostacolata perpendicolarmente ad esse. La trattografia utilizza le informazioni ottenute tramite il DW imaging per fornire una misura della connettività strutturale fra diverse regioni del cervello. Nel lavoro si è concentrata l’attenzione sul fascio corticospinale, che è coinvolto nella motricità volontaria, trasmettendo gli impulsi dalla corteccia motoria ai motoneuroni del midollo spinale. Il lavoro si è articolato in 3 fasi. Nella prima ho sviluppato il pre-processing di immagini DW acquisite con un gradiente di diffusione sia 25 che a 64 direzioni in ognuno dei 25 volontari sani. Si è messo a punto un metodo originale ed innovativo, basato su “Regions of Interest” (ROIs), ottenute attraverso la segmentazione automatizzata della sostanza grigia e ROIs definite manualmente su un template comune a tutti i soggetti in esame. Per ricostruire il fascio si è usato un algoritmo di trattografia probabilistica che stima la direzione più probabile delle fibre e, con un numero elevato di direzioni del gradiente, riesce ad individuare, se presente, più di una direzione dominante (seconda fibra). Nella seconda parte del lavoro, ciascun fascio è stato suddiviso in 100 segmenti (percentili). Sono stati stimati anisotropia frazionaria (FA), diffusività media, probabilità di connettività, volume del fascio e della seconda fibra con un’analisi quantitativa “along-tract”, per ottenere un confronto accurato dei rispettivi percentili dei fasci nei diversi soggetti. Nella terza parte dello studio è stato fatto il confronto dei dati ottenuti a 25 e 64 direzioni del gradiente ed il confronto del fascio fra entrambi i lati. Dall’analisi statistica dei dati inter-subject e intra-subject è emersa un’elevata variabilità tra soggetti, dimostrando l’importanza di parametrizzare il tratto. I risultati ottenuti confermano che il metodo di analisi trattografica del fascio cortico-spinale messo a punto è risultato affidabile e riproducibile. Inoltre, è risultato che un’acquisizione con 25 direzioni di DTI, meglio tollerata dal paziente per la minore durata dello scan, assicura risultati attendibili. La principale applicazione clinica riguarda patologie neurodegenerative con sintomi motori sia acquisite, quali sindromi parkinsoniane sia su base genetica o la valutazione di masse endocraniche, per la definizione del grado di contiguità del fascio. Infine, sono state poste le basi per la standardizzazione dell’analisi quantitativa di altri fasci di interesse in ambito clinico o di studi di ricerca fisiopatogenetica.
Resumo:
In recent years, Deep Learning techniques have shown to perform well on a large variety of problems both in Computer Vision and Natural Language Processing, reaching and often surpassing the state of the art on many tasks. The rise of deep learning is also revolutionizing the entire field of Machine Learning and Pattern Recognition pushing forward the concepts of automatic feature extraction and unsupervised learning in general. However, despite the strong success both in science and business, deep learning has its own limitations. It is often questioned if such techniques are only some kind of brute-force statistical approaches and if they can only work in the context of High Performance Computing with tons of data. Another important question is whether they are really biologically inspired, as claimed in certain cases, and if they can scale well in terms of "intelligence". The dissertation is focused on trying to answer these key questions in the context of Computer Vision and, in particular, Object Recognition, a task that has been heavily revolutionized by recent advances in the field. Practically speaking, these answers are based on an exhaustive comparison between two, very different, deep learning techniques on the aforementioned task: Convolutional Neural Network (CNN) and Hierarchical Temporal memory (HTM). They stand for two different approaches and points of view within the big hat of deep learning and are the best choices to understand and point out strengths and weaknesses of each of them. CNN is considered one of the most classic and powerful supervised methods used today in machine learning and pattern recognition, especially in object recognition. CNNs are well received and accepted by the scientific community and are already deployed in large corporation like Google and Facebook for solving face recognition and image auto-tagging problems. HTM, on the other hand, is known as a new emerging paradigm and a new meanly-unsupervised method, that is more biologically inspired. It tries to gain more insights from the computational neuroscience community in order to incorporate concepts like time, context and attention during the learning process which are typical of the human brain. In the end, the thesis is supposed to prove that in certain cases, with a lower quantity of data, HTM can outperform CNN.
Resumo:
Il tema del presente elaborato è la traduzione in ambito teatrale. Il lavoro si basa sulla proposta di traduzione dal tedesco all’italiano di un estratto del dramma Schlußchor di Botho Strauß. La prima parte della tesi si concentra sull’autore e sull’analisi del testo di partenza. La seconda parte contiene il commento alla traduzione in cui si individuano le caratteristiche del testo teatrale, i principi fondamentali che hanno determinato le scelte traduttive e le difficoltà incontrate nel tradurre il testo, con le rispettive strategie adottate. L’elaborato è preceduto da un’introduzione con le motivazioni della scelta dell’argomento e seguito dalle riflessioni finali inserite nella conclusione
Resumo:
In questa tesi sono stati descritti i principali metodi numerici per la risoluzione di sistemi non lineari. Tali metodi sono stati analizzati sia dal punto di vista teorico (analisi di convergenza locale) che pratico (algoritmo e implementazione).
Resumo:
Proposta di traduzione mirata del diario di gestazione Tiempo de Espera di Carme Riera partecipante al progetto Forlì FM per la creazione di un radiodramma.
Resumo:
Tesi sull'analisi del ruolo dell'interprete militare. Nel primo capitolo viene spiegato il modo di accesso all'Esercito Italiano e i requisiti richiesti. Nel secondo capitolo si parla delle organizzazioni a tutela degli interpreti e i loro progetti.
Resumo:
Da alcuni anni in ambito business ed enterprise si sta diffondendo l'utilizzo di dispositivi wearable al fine di rendere più efficiente ed efficace la gestione di molteplici attività e processi aziendali. I sistemi hand-held comunemente utilizzati in ambito lavorativo, tra cui smartphone e tablet, spesso non risultano idonei in contesti in cui un operatore debba interagire con il dispositivo mentre ha le proprie mani impegnate con attrezzature e strumenti di lavoro. I sistemi hands-free rimediano a tali problematiche supportando tecniche di interazione non convenzionali che consentono all'operatore di mantenere libere le proprie mani durante la consultazione del dispositivo e di rimanere concentrato sull'attività che sta svolgendo. I sistemi basati su smart-glass, oltre ad offrire funzionalità hands-free, presentano l'ulteriore vantaggio di poter presentare all'interno del campo visivo dell'utente importanti informazioni di supporto inerenti all'attività che sta svolgendo, avvalendosi anche dell'utilizzo di tecnologie di realtà aumentata. La sinergia tra dispositivi basati su smart-glass e tecniche di realtà aumentata sta destando un crescente interesse sia in ambito accademico che industriale; esiste la possibilità che in un prossimo futuro questa tipologia di sistemi divenga la nuova piattaforma computazionale enterprise di riferimento. L'obiettivo di questo lavoro di tesi è stato lo studio e la progettazione di una soluzione hands-free basata su smart-glass in grado di supportare alcune attività di customer care del Gruppo Loccioni, una società che si occupa dello sviluppo di sistemi automatici di misura e controllo per migliorare la qualità, l'efficienza e la sostenibilità di prodotti, processi ed edifici. In particolare, il sistema sviluppato ha consentito di migliorare la gestione dei processi di manutenzione e riparazione degli impianti energetici sostenibili che il Gruppo Loccioni installa presso le sedi di imprese clienti.
Resumo:
La rapida diffusione di Sistemi Aerei a Pilotaggio Remoto che si è verificata negli ultimi anni ha portato alla necessità di regolamentare ed armonizzare il loro utilizzo. I vari enti regolatori nazionali hanno dovuto trovare una soluzione a fronte di una serie di incidenti che hanno portato alla luce le lacune normative ed organizzative che ancora esistevano in materia. In Italia, in particolare, l’Ente Nazionale Aviazione Civile (ENAC) ha introdotto da fine 2013 un regolamento, più volte aggiornato e in parte ancora in fase di definizione, che impone delle rigide norme agli operatori dei mezzi a pilotaggio remoto. La presente attività riporta quindi lo sviluppo di un processo di certificazione di un Sistema Aereo a Pilotaggio Remoto ad ala fissa con peso massimo al decollo superiore a 25 kg, che si possa adattare alle più recenti norme presenti nel regolamento. Si presenta quindi lo sviluppo del Manuale di volo e del documento di Valutazione del rischio del mezzo, seguiti dallo studio del programma di attività sperimentale necessario per la certificazione. Infine, nella parte finale dell’elaborato si presentano dei test di volo effettuati seguendo il piano di sperimentazione strutturato e atti a dimostrare l’efficacia di tale pianificazione. Tali voli sono stati condotti infatti con un velivolo con caratteristiche similari a quelle del mezzo oggetto di studio, ma avente dimensioni e peso minori.
Resumo:
L’idrotermocarbonizzazione è un processo che permette di convertire un’elevata quantità di materie prime solide in carbone. Ciò viene realizzato inserendo come sostanza in input, oltre alla materia prima iniziale, acqua liquida e, successivamente, riscaldando fino a 180°C, temperatura alla quale inizia la reazione esotermica ed il processo diventa di tipo stand-alone. Tale reazione presenta un tempo di reazione variabile nel range di 4÷12 h. I prodotti in uscita sono costituiti da una sostanza solida che ha le caratteristiche del carbone marrone naturale e un’acqua di processo, la quale è altamente inquinata da composti organici. In questo elaborato viene illustrata una caratterizzazione dei prodotti in uscita da un impianto di idrotermo carbonizzazione da laboratorio, il quale utilizza in input pezzi di legno tagliati grossolanamente. Inizialmente tale impianto da laboratorio viene descritto nel dettaglio, dopodiché la caratterizzazione viene effettuata attraverso DTA-TGA dei materiali in ingresso ed uscita; inoltre altre sostanze vengono così analizzate, al fine di confrontarle col char ed i pezzi di legno. Quindi si riporta anche un’analisi calorimetrica, avente l’obiettivo di determinare il calore di combustione del char ottenuto; attraverso questo valore e il calore di combustione dei pezzi di legno è stato possibile calcolare l’efficienza di ritenzione energetica del processo considerato, così come la densificazione energetica riscontrata nel materiale in uscita. In aggiunta, è stata eseguita un’analisi delle specie chimiche elementari sul char ed il legno in modo da determinare i seguenti parametri: fattori di ritenzione e fattori di ritenzione pesati sulla massa in termini di concentrazione di C, H, N e S. I risultati ottenuti da tale analisi hanno permesso di effettuare una caratterizzazione del char. Un tentativo di attivazione del char viene riportato, descrivendo la procedura di attivazione seguita e la metodologia utilizzata per valutare il buon esito o meno di tale tentativo di attivazione. La metodologia consiste di uno studio isotermo dell’adsorbimento di acido acetico sul char “attivato” attraverso una titolazione. I risultati sperimentali sono stati fittati usando le isoterme di Langmuir e Freundlich e confrontati con le capacità di adsorbimento del semplice char e di un campione di carbone attivo preso da un’azienda esterna. Infine si è considerata l’acqua di processo, infatti un’analisi fotometrica ne ha evidenziato le concentrazioni di TOC, COD, ioni nitrato e ioni fosfato. Questi valori sono stati conseguentemente confrontati con i limiti italiani e tedeschi massimi ammissibili per acque potabili, dando quindi un’idea quantitativa della contaminazione di tale acqua di processo.
Resumo:
Il lavoro di questa tesi riguarda principalmente l'upgrade, la simulazione e il test di schede VME chiamate ReadOut Driver (ROD), che sono parte della catena di elaborazione ed acquisizione dati di IBL (Insertable B-Layer). IBL è il nuovo componente del Pixel Detector dell'esperimento ATLAS al Cern che è stato inserito nel detector durante lo shut down di LHC; fino al 2012 infatti il Pixel Detector era costituito da tre layer, chiamati (partendo dal più interno): Barrel Layer 0, Layer 1 e Layer 2. Tuttavia, l'aumento di luminosità di LHC, l'invecchiamento dei pixel e la richiesta di avere misure sempre più precise, portarono alla necessità di migliorare il rivelatore. Così, a partire dall'inizio del 2013, IBL (che fino a quel momento era stato un progetto sviluppato e finanziato separatamente dal Pixel Detector) è diventato parte del Pixel Detector di ATLAS ed è stato installato tra la beam-pipe e il layer B0. Questa tesi fornirà innanzitutto una panoramica generale dell'esperimento ATLAS al CERN, includendo aspetti sia fisici sia tecnici, poi tratterà in dettaglio le varie parti del rivelatore, con particolare attenzione su Insertable B-Layer. Su quest'ultimo punto la tesi si focalizzerà sui motivi che ne hanno portato alla costruzione, sugli aspetti di design, sulle tecnologie utilizzate (volte a rendere nel miglior modo possibile compatibili IBL e il resto del Pixel Detector) e sulle scelte di sviluppo e fabbricazione. La tesi tratterà poi la catena di read-out dei dati, descrivendo le tecniche di interfacciamento con i chip di front-end, ed in particolare si concentrerà sul lavoro svolto per l'upgrade e lo sviluppo delle schede ReadOut Drivers (ROD) introducendo le migliorie da me apportate, volte a eliminare eventuali difetti, migliorare le prestazioni ed a predisporre il sistema ad una analisi prestazionale del rivelatore. Allo stato attuale le schede sono state prodotte e montate e sono già parte del sistema di acquisizione dati del Pixel Detector di ATLAS, ma il firmware è in continuo aggiornamento. Il mio lavoro si è principalmente focalizzato sul debugging e il miglioramento delle schede ROD; in particolare ho aggiunto due features: - programmazione parallela delle FPGA} delle ROD via VME. IBL richiede l'utilizzo di 15 schede ROD e programmandole tutte insieme (invece che una alla volta) porta ad un sensibile guadagno nei tempi di programmazione. Questo è utile soprattutto in fase di test; - reset del Phase-Locked Loop (PLL)} tramite VME. Il PLL è un chip presente nelle ROD che distribuisce il clock a tutte le componenti della scheda. Avere la possibilità di resettare questo chip da remoto permette di risolvere problemi di sincronizzazione. Le ReadOut Driver saranno inoltre utilizzate da più layer del Pixel Detector. Infatti oltre ad IBL anche i dati provenienti dai layer 1 e 2 dei sensori a pixel dell’esperimento ATLAS verranno acquisiti sfruttando la catena hardware progettata, realizzata e testata a Bologna.
Resumo:
Situata nel comune di Corinaldo (AN), questa dimora signorile viene edificata su precedenti resti dal botanico Paolo Spadoni attorno alla metà del Settecento. Passata poi in mano a diversi proprietari, di cui l’ultimo risulta essere il Conte Giacomo Cesarini Romaldi, assume attorno agli inizi del novecento l’attuale aspetto. L’intero sistema si compone di diverse parti: la residenza del signore, la chiesa, la limonaia, la stalla, la rimessa delle carrozze e la casa del custode, connessi tra loro dal grande parco di circa due ettari di superficie, all’interno del quale sono disseminati innumerevoli manufatti, grotte e reperti archeologici. La presente tesi si pone come obiettivo quello di proporre un progetto di restauro che risponda alla richiesta del luogo di essere salvato; in esso sono stati riconosciuti dei valori che vanno necessariamente recuperati e trasmessi.
Resumo:
In questo lavoro viene presentato un modello matematico per l'aggregazione e la diffusione della beta-amiloide nel cervello umano affetto dalla malattia di Alzheimer, con la particolarità di considerare coefficienti di diffusione variabili e non costanti. Il modello è basato sull'equazione di Smoluchowski discreta per l'aggregazione, modificata in modo opportuno per considerare anche il fenomeno di diffusione.