858 resultados para Unité fondamentale
Resumo:
La catena respiratoria mitocondriale è principalmente costituita da proteine integrali della membrana interna, che hanno la capacità di accoppiare il flusso elettronico, dovuto alle reazioni redox che esse catalizzano, al trasporto di protoni dalla matrice del mitocondrio verso lo spazio intermembrana. Qui i protoni accumulati creano un gradiente elettrochimico utile per la sintesi di ATP ad opera dell’ATP sintasi. Nonostante i notevoli sviluppi della ricerca sulla struttura e sul meccanismo d’azione dei singoli enzimi della catena, la sua organizzazione sovramolecolare, e le implicazioni funzionali che ne derivano, rimangono ancora da chiarire in maniera completa. Da questa problematica trae scopo la presente tesi volta allo studio dell’organizzazione strutturale sovramolecolare della catena respiratoria mediante indagini sia cinetiche che strutturali. Il modello di catena respiratoria più accreditato fino a qualche anno fa si basava sulla teoria delle collisioni casuali (random collision model) che considera i complessi come unità disperse nel doppio strato lipidico, ma collegate funzionalmente tra loro da componenti a basso peso molecolare (Coenzima Q10 e citocromo c). Recenti studi favoriscono invece una organizzazione almeno in parte in stato solido, in cui gli enzimi respiratori si presentano sotto forma di supercomplessi (respirosoma) con indirizzamento diretto (channeling) degli elettroni tra tutti i costituenti, senza distinzione tra fissi e mobili. L’importanza della comprensione delle relazioni che si instaurano tra i complessi , deriva dal fatto che la catena respiratoria gioca un ruolo fondamentale nell’invecchiamento, e nello sviluppo di alcune malattie cronico degenerative attraverso la genesi di specie reattive dell’ossigeno (ROS). E’ noto, infatti, che i ROS aggrediscono, anche i complessi respiratori e che questi, danneggiati, producono più ROS per cui si instaura un circolo vizioso difficile da interrompere. La nostra ipotesi è che, oltre al danno a carico dei singoli complessi, esista una correlazione tra le modificazioni della struttura del supercomplesso, stress ossidativo e deficit energetico. Infatti, la dissociazione del supercomplesso può influenzare la stabilità del Complesso I ed avere ripercussioni sul trasferimento elettronico e protonico; per cui non si può escludere che ciò porti ad un’ulteriore produzione di specie reattive dell’ossigeno. I dati sperimentali prodotti a sostegno del modello del respirosoma si riferiscono principalmente a studi strutturali di elettroforesi su gel di poliacrilammide in condizioni non denaturanti (BN-PAGE) che, però, non danno alcuna informazione sulla funzionalità dei supercomplessi. Pertanto nel nostro laboratorio, abbiamo sviluppato una indagine di tipo cinetico, basata sull’analisi del controllo di flusso metabolico,in grado di distinguere, funzionalmente, tra supercomplessi e complessi respiratori separati. Ciò è possibile in quanto, secondo la teoria del controllo di flusso, in un percorso metabolico lineare composto da una serie di enzimi distinti e connessi da intermedi mobili, ciascun enzima esercita un controllo (percentuale) differente sull’intero flusso metabolico; tale controllo è definito dal coefficiente di controllo di flusso, e la somma di tutti i coefficienti è uguale a 1. In un supercomplesso, invece, gli enzimi sono organizzati come subunità di una entità singola. In questo modo, ognuno di essi controlla in maniera esclusiva l’intero flusso metabolico e mostra un coefficiente di controllo di flusso pari a 1 per cui la somma dei coefficienti di tutti gli elementi del supercomplesso sarà maggiore di 1. In questa tesi sono riportati i risultati dell’analisi cinetica condotta su mitocondri di fegato di ratto (RLM) sia disaccoppiati, che accoppiati in condizioni fosforilanti (stato 3) e non fosforilanti (stato 4). L’analisi ha evidenziato l’associazione preferenziale del Complesso I e Complesso III sia in mitocondri disaccoppiati che accoppiati in stato 3 di respirazione. Quest’ultimo risultato permette per la prima volta di affermare che il supercomplesso I+III è presente anche in mitocondri integri capaci della fosforilazione ossidativa e che il trasferimento elettronico tra i due complessi possa effettivamente realizzarsi anche in condizioni fisiologiche, attraverso un fenomeno di channeling del Coenzima Q10. Sugli stessi campioni è stata eseguita anche un analisi strutturale mediante gel-elettroforesi (2D BN/SDS-PAGE) ed immunoblotting che, oltre a supportare i dati cinetici sullo stato di aggregazione dei complessi respiratori, ci ha permesso di evidenziare il ruolo del citocromo c nel supercomplesso, in particolare per il Complesso IV e di avviare uno studio comparativo esteso ai mitocondri di cuore bovino (BHM), di tubero di patata (POM) e di S. cerevisiae.
Resumo:
In dieser Studie werden strukturgeologische, metamorphe und geochronologische Daten benutzt, um eine Quantifizierung tektonischer Prozesse vorzunehmen, die für die Exhumierung der Kykladischen Blauschiefereinheit in der Ägäis und der Westtürkei verantwortlich waren. Bei den beiden tektonischen Prozessen handelt es sich um: (1) Abschiebungstektonik und (2) vertikale duktile Ausdünnung. Eine finite Verformungsanalyse an Proben der Kykladischen Blauschiefereinheit ermöglicht eine Abschätzung des Beitrags von vertikaler duktiler Ausdünnung an der gesamten Exhumierung. Kalkulationen mit einem eindimensionalen, numerischen Model zeigt, daß vertikale duktile Ausdünnung nur ca. 10% an der gesamten Exhumierung ausmacht. Kinematische, metamorphe und geochronologische Daten erklären die tektonische Natur und die Evolution eines extensionalen Störungssystems auf der Insel Ikaria in der östlichen Ägäis. Thermobarometrische Daten lassen erkennen, daß das Liegende des Störungssystems aus ca. 15 km Tiefe exhumiert wurde. Sowohl Apatit- und Zirkonspaltspurenalter als auch Apatit (U-Th)/He-Alter zeigen, daß sich das extensionale Störungssystem zwischen 11-3 Ma mit einer Geschwindigkeit von ca. 7-8 km/Ma bewegte. Spät-Miozäne Abschiebungen trugen zur Exhumierung der letzten ~5-15 km der Hochdruckgesteine bei. Ein Großteil der Exhumierung der Kykladischen Blauschiefereinheit muß vor dem Miozän stattgefunden haben. Dies wird durch einen Extrusionskeil erklärt, der ca. 30-35 km der Kykladischen Blauschiefereinheit in der Westtürkei exhumierte. 40Ar/39Ar und 87Rb/86Sr Datierungen an Myloniten des oberen Abschiebungskontakts zwischen der Selçuk Decke und der darunterliegenden Ampelos/Dilek Decke der Kykladischen Blauschiefereinheit als auch des unteren Überschiebungskontakts zwischen der Ampelos/Dilek Decke und den darunterliegenden Menderes Decken zeigt, daß sich beide mylonitische Zonen um ca. ~35 Ma formten, was die Existenz eines Spät-Eozänen/Früh-Oligozänen Extrusionskeils beweist.
Resumo:
La contaminazione da fonti diffuse e locali può determinare perdite di funzionalità del suolo e ripercuotesi a cascata nelle catene alimentari, attraverso la contaminazione di falde e corpi d'acqua, l'assorbimento da parte dei vegetali e degli animali fino all'uomo. Industrializzazione, urbanizzazione e pratiche agricole sono le tre principali sorgenti di metalli nei suoli. In questo lavoro di tesi, che ha avuto come area oggetto di studio parte del territorio del Comune di Ravenna, sono stati analizzati gli arricchimenti di Cr, Ni, Cu, Zn e Pb applicando una metodica impostata sul confronto tra le concentrazioni totali rinvenute in superficie e in profondità mediante il calcolo dell'Indice di Geoaccumulo. La sola determinazione delle aliquote dei metalli negli orizzonti superficiali del suolo, non è, di per sé, in grado di fornire indicazioni esaustive circa lo stato di contaminazione dei suoli. Infatti, tale informazione, non permette la distinzione tra origine naturale o arricchimento determinato da attività antropica. In più lo studio ha valutato la possibile relazione con le caratteristiche del substrato (origine del sedimento) e l'uso del suolo. Alte concentrazioni di Cr e Ni, in corrispondenza della Pineta San Vitale (area naturale) non sono attribuibili a contaminazioni di natura antropica, bensì dipendono dal parent material. La distribuzione delle anomalie per Cu, Zn e Pb, invece, sembra dipendere invece dall'uso dei suoli presenti nell'area oggetto di studio. Il contenuto naturale di questi metalli può variare notevolmente a seconda del materiale su cui si è sviluppato il suolo e questo riflette i tenori di fondo per le diverse unità. I tenori di fondo del Cr calcolati per il deposito di cordone litorale (DCL), dove oggi è impostata la Pineta San Vitale (area naturale), sono maggiori rispetto ai limiti di concentrazione previsti dal Decreto Legislativo n°152 del 2006 per questa tipologia di aree. Cu, Zn e Pb, invece, presentano tenori di fondo bassi in corrispondenza del deposito del cordone litorale (DCL), costituito da materiale a granulometria grossolana. Per questi metalli è il fattore granulometria ad avere un ruolo fondamentale nello stabilire i valori di background negli altri depositi. In ultima analisi, per valutare gli effetti e i rischi associati in presenza di alte concentrazioni di Cr, Ni, Cu, Zn e Pb, è stata quantificata la frazione che può essere resa biodisponibile con DTPA. Le anomalie riscontrate sono state confrontate in primo luogo con alcuni campioni di controllo, coerenti con i valori di background per i cinque metalli. La bassa biodisponibilità osservata per Cr e Ni riflette il forte legame di questi metalli con la fase mineralogica, non rappresentando un pericolo per le piante e di conseguenza per gli animali superiori. Cu, Zn e Pb presentano, in alcuni casi, concentrazioni biodisponibili sia proporzionali all'entità dell'anomalia evidenziata con il calcolo dell'Indice di Geoaccumulo, sia maggiori rispetto a quelle dei campioni selezionati come controlli.
Resumo:
Microprocessori basati su singolo processore (CPU), hanno visto una rapida crescita di performances ed un abbattimento dei costi per circa venti anni. Questi microprocessori hanno portato una potenza di calcolo nell’ordine del GFLOPS (Giga Floating Point Operation per Second) sui PC Desktop e centinaia di GFLOPS su clusters di server. Questa ascesa ha portato nuove funzionalità nei programmi, migliori interfacce utente e tanti altri vantaggi. Tuttavia questa crescita ha subito un brusco rallentamento nel 2003 a causa di consumi energetici sempre più elevati e problemi di dissipazione termica, che hanno impedito incrementi di frequenza di clock. I limiti fisici del silicio erano sempre più vicini. Per ovviare al problema i produttori di CPU (Central Processing Unit) hanno iniziato a progettare microprocessori multicore, scelta che ha avuto un impatto notevole sulla comunità degli sviluppatori, abituati a considerare il software come una serie di comandi sequenziali. Quindi i programmi che avevano sempre giovato di miglioramenti di prestazioni ad ogni nuova generazione di CPU, non hanno avuto incrementi di performance, in quanto essendo eseguiti su un solo core, non beneficiavano dell’intera potenza della CPU. Per sfruttare appieno la potenza delle nuove CPU la programmazione concorrente, precedentemente utilizzata solo su sistemi costosi o supercomputers, è diventata una pratica sempre più utilizzata dagli sviluppatori. Allo stesso tempo, l’industria videoludica ha conquistato una fetta di mercato notevole: solo nel 2013 verranno spesi quasi 100 miliardi di dollari fra hardware e software dedicati al gaming. Le software houses impegnate nello sviluppo di videogames, per rendere i loro titoli più accattivanti, puntano su motori grafici sempre più potenti e spesso scarsamente ottimizzati, rendendoli estremamente esosi in termini di performance. Per questo motivo i produttori di GPU (Graphic Processing Unit), specialmente nell’ultimo decennio, hanno dato vita ad una vera e propria rincorsa alle performances che li ha portati ad ottenere dei prodotti con capacità di calcolo vertiginose. Ma al contrario delle CPU che agli inizi del 2000 intrapresero la strada del multicore per continuare a favorire programmi sequenziali, le GPU sono diventate manycore, ovvero con centinaia e centinaia di piccoli cores che eseguono calcoli in parallelo. Questa immensa capacità di calcolo può essere utilizzata in altri campi applicativi? La risposta è si e l’obiettivo di questa tesi è proprio quello di constatare allo stato attuale, in che modo e con quale efficienza pùo un software generico, avvalersi dell’utilizzo della GPU invece della CPU.
Resumo:
“ Per anni ho creduto essere cresciuto in una periferia di Buenos Aires, periferia di strade avventurose e di tramonti visibili. In realtà sono cresciuto in un giardino, dietro le lance di un cancellata, e in una biblioteca di infiniti volumi inglesi. Quel Palermo del coltello e la chitarra (mi assicurano) era agli angoli delle strade, ma chi popolava le mie mattine e procurava un gradevole orrore alle mie notti erano il bucaniere cieco di Stevenson, agonizzante sotto gli zoccoli dei cavalli, e il traditore che abbandonò l’amico sulla luna, e il viaggiatore del tempo che riportò dal futuro un fiore appassito, e il genio prigioniero per secoli nell’anfora salomonica, e il profeta velato del Khorasan, che dietro le gemme e la seta nascondeva la lebbra. Cosa succedeva, nel frattempo, oltre le lance della cancellata? Quali destini vernacoli e violenti andavano compiendosi a pochi passi da me, nella sordida bettola o nello spazio turbolento? Com’era quel Palermo o come sarebbe stato bello che fosse? A tali domande vuole rispondere questo libro, più d’immaginazione che documentato.” E’ così che Jorge Luis Borges apre il libro Evaristo Carriego, saggio biografico che passò quasi inosservato all’interno degli ambienti intellettuali della capitale dei quali faceva parte lo scrittore stesso. Il libro era dedicato alla figura, estranea a quegli ambienti, del poeta “bohemien, tisico ed anarchico” Evaristo Carriego, vissuto tra otto e novecento nel quartiere Palermo, in quei tempi periferia malfamata di Buenos Aires. Buenos Aires è la città borgesiana per eccellenza: priva di caratteristiche tipologiche precise, volubile allo sguardo, specchio e metafora di tutte le grandi città del mondo. Ma soprattutto Buenos Aires è una città “inventata” da Borges, che le ha dato un’immagine letteraria che si relaziona in maniera complessa con quella reale. Segnerà nell’immaginario di Borges l’inizio e la fine della sua vita, una sorta di centralità, unico stralcio di stabilità, al quale l’inquieta mente dell’argentino possa far ritorno.
Resumo:
Procedures for quantitative walking analysis include the assessment of body segment movements within defined gait cycles. Recently, methods to track human body motion using inertial measurement units have been suggested. It is not known if these techniques can be readily transferred to clinical measurement situations. This work investigates the aspects necessary for one inertial measurement unit mounted on the lower back to track orientation, and determine spatio-temporal features of gait outside the confines of a conventional gait laboratory. Apparent limitations of different inertial sensors can be overcome by fusing data using methods such as a Kalman filter. The benefits of optimizing such a filter for the type of motion are unknown. 3D accelerations and 3D angular velocities were collected for 18 healthy subjects while treadmill walking. Optimization of Kalman filter parameters improved pitch and roll angle estimates when compared to angles derived using stereophotogrammetry. A Weighted Fourier Linear Combiner method for estimating 3D orientation angles by constructing an analytical representation of angular velocities and allowing drift free integration is also presented. When tested this method provided accurate estimates of 3D orientation when compared to stereophotogrammetry. Methods to determine spatio-temporal features from lower trunk accelerations generally require knowledge of sensor alignment. A method was developed to estimate the instants of initial and final ground contact from accelerations measured by a waist mounted inertial device without rigorous alignment. A continuous wavelet transform method was used to filter and differentiate the signal and derive estimates of initial and final contact times. The technique was tested with data recorded for both healthy and pathologic (hemiplegia and Parkinson’s disease) subjects and validated using an instrumented mat. The results show that a single inertial measurement unit can assist whole body gait assessment however further investigation is required to understand altered gait timing in some pathological subjects.
Resumo:
L’elaborato finale presentato per la tesi di Dottorato analizza e riconduce a unitarietà, per quanto possibile, alcune delle attività di ricerca da me svolte durante questi tre anni, il cui filo conduttore è l'impatto ambientale delle attività umane e la promozione dello sviluppo sostenibile. Il mio filone di ricerca è stato improntato, dal punto di vista di politica economica, sull'analisi storica dello sviluppo del settore agricolo dall'Unità d'Italia ai giorni nostri e dei cambiamenti avvenuti in contemporanea nel contesto socio-economico e territoriale nazionale, facendo particolare riferimento alle tematiche legate ai consumi e alla dipendenza energetica ed all'impatto ambientale. Parte della mia ricerca è stata, infatti, incentrata sull'analisi dello sviluppo della Green Economy, in particolare per quanto riguarda il settore agroalimentare e la produzione di fonti di energia rinnovabile. Enfasi viene posta sia sulle politiche implementate a livello comunitario e nazionale, sia sul cambiamento dei consumi, in particolare per quanto riguarda gli acquisti di prodotti biologici. La Green Economy è vista come fattore di sviluppo e opportunità per uscire dall'attuale contesto di crisi economico-finanziaria. Crisi, che è strutturale e di carattere duraturo, affiancata da una crescente problematica ambientale dovuta all'attuale modello produttivo, fortemente dipendente dai combustibili fossili. Difatti la necessità di cambiare paradigma produttivo promuovendo la sostenibilità è visto anche in ottica di mitigazione del cambiamento climatico e dei suoi impatti socio-economici particolare dal punto di vista dei disastri ambientali. Questo punto è analizzato anche in termini di sicurezza internazionale e di emergenza umanitaria, con riferimento al possibile utilizzo da parte delle organizzazioni di intervento nei contesti di emergenza di tecnologie alimentate da energia rinnovabile. Dando così una risposta Green ad una problematica esacerbata dall'impatto dello sviluppo delle attività umane.
Resumo:
Il teorema della mappa di Riemann è un risultato fondamentale dell'analisi complessa che afferma l'esistenza di un biolomorfismo tra un qualsiasi dominio semplicemente connesso incluso strettamente nel piano ed il disco unità. Si tratta di un teorema di grande importanza e generalità, dato che non si fa alcuna ipotesi sul bordo del dominio considerato. Inoltre ha applicazioni in diverse aree della matematica, ad esempio nella topologia: può infatti essere usato per dimostrare che due domini semplicemente connessi del piano sono tra loro omeomorfi. Presentiamo in questa tesi due diverse dimostrazioni del teorema.
Resumo:
Il mantenimento delle condizioni termoigrometriche ottimali all’interno di edifici mediante l’uso di unità di trattamento dell'aria comporta generalmente consumi energetici notevoli. Ciò che determina il livello entalpico di immissione dell’aria è il fabbisogno energetico dell’involucro edilizio: la geometria, i materiali di costruzione, unitamente ai carichi interni, alle infiltrazioni d’aria indesiderate, e ovviamente, alla zona climatica in cui l’edificio sorge, giocano un ruolo fondamentale nel computo dei consumi energetici. Nella pratica, esistono diverse soluzioni tecniche volte alla riduzione dei consumi e quindi dei costi di gestione di queste tipologie di impianto. Tra queste, occorre senz’altro ricordare l’inserimento del “cappotto termico” e delle cosiddette facciate ventilate. Ciascuna di queste due soluzioni interviene direttamente sull’involucro edilizio, riducendone il fabbisogno energetico. Si trovano poi soluzioni che non interessano direttamente l’involucro, ma che sono inserite all’interno dell’impianto in modo da ridurne i consumi. E’ il caso dei recuperatori di calore, scambiatori di calore che utilizzano l’aria prelevata dal locale condizionato per preriscaldare o preraffreddare l’aria esterna. Lo scopo di questo elaborato è quello di analizzare le prestazioni energetiche di un impianto di condizionamento che utilizzi, combinandole, due di queste soluzioni: l’intercapedine ventilata, con convezione di tipo forzata, e il recuperatore di calore. In particolare, si è fatto in modo che la facciata ventilata sia una sorta di componente dell’impianto, che risulta quindi “integrato nell’involucro”: l’idea è quella di studiare l’effetto della frazione di portata elaborata dall’impianto che viene inviata alla parete sui consumi energetici. Si è posta l’attenzione principalmente sulla stagione estiva, nella quale l’impianto studiato fa anche uso della tecnica del cosiddetto mist cooling: umidificando la portata d’aria di ripresa sia a monte che all’interno dell’intercapedine ventilata, si abbatte la temperatura dell’aria, con un conseguente abbattimento della temperatura di parete e con un notevole miglioramento delle prestazioni del recuperatore di calore.
Resumo:
La rotazione dell’apice del cuore è una delle espressioni della complessa cinematica del miocardio e rappresenta un importante indice di funzionalità cardiaca. Disporre di un sensore impiantabile che permetta un monitoraggio continuo di tale parametro consentirebbe di individuare precocemente un deterioramento della performance cardiaca e di adattare tempestivamente la terapia. L’obiettivo del lavoro di tesi è la realizzazione di un sistema di acquisizione dati per segnali provenienti da un giroscopio MEMS triassiale da utilizzarsi per lo studio della cinematica cardiaca, in particolare della rotazione del cuore. Per leggere e decodificare i segnali digitali in uscita dal giroscopio MEMS triassiale utilizzato (CMR3100, VTI Technologies) è stata progettata e sviluppata un’unità di condizionamento composta da una board Arduino ADK, associata ad un adattatore di tensione PCA9306 e a 3 convertitori digitali/analogici MCP4921, che ha richiesto lo sviluppo di software per la gestione del protocollo di comunicazione e della decodifica del segnale digitale proveniente dal sensore. Per caratterizzare e validare il sistema realizzato sono state effettuate prove di laboratorio, che hanno permesso di individuare i parametri di lavoro ottimali del sensore. Una prima serie di prove ha dimostrato come l’unità di condizionamento realizzata consenta di acquisire i segnali con una velocità di processo elevata (1 kHz) che non comporta perdita di dati in uscita dal sensore. Successivamente, attraverso un banco prova di simulazione appositamente assemblato allo scopo di riprodurre rotazioni cicliche nel range dei valori fisio-patologici, è stato quantificato lo sfasamento temporale (St) tra il segnale rilevato dal CMR3100 e decodificato dall'unità di condizionamento e un segnale analogico in uscita da un giroscopio analogico, ottenendo un valore medio St=4 ms. Attraverso lo stesso banco di simulazione, è stata infine dimostrata una buona accuratezza (errore percentuale <10%) nella misura dell'angolo di rotazione derivato dal segnale di velocità angolare rilevato direttamente dal sensore CRM300.
Resumo:
Ormai da diversi anni vengono utilizzate tecnologie più o meno sofisticate in ambito riabilitativo, grazie alle conoscenze sviluppate nel campo della medicina riabilitativa e in altri ambiti tra i quali le neuroscienze, la neurofiiologia, la biomeccanica e l'imaging. La ricerca tecnologica più avanzata in questo settore coinvolge dispositivi robotici e realtà virtuale con lo scopo di arrivare ad ottenere tecniche sempre migliori. Questo approccio è anche la base di studi del movimento e l'interesse che si ha riguardo al modo in cui avvengono la pianificazione e l'esecuzione dell'atto motorio. Di particolare rilevanza sono i submovimenti, ovvero le frammentazioni che compongono un movimento continuo umano, i quali forniscono un'analisi compatta di codifica del moto e si rivelano i principali responsabili della caratteristica di smoothness delle traiettorie risultanti. Sotto l'ipotesi che esistano tali unità discrete, la capacità di isolarle e caratterizzarle accuratamente fornisce una descrizione dell'atto motorio, dunque un'analisi che può portare a nuove scoperte negli studi delle performance motorie, della riabilitazione e del sistema di controllo motorio nell'uomo. Il presente elaborato mostra una panoramica all'approccio dello studio del movimento e della sua decomposizione, partendo dal modo in cui viene generato e controllato all'interno del nostro organismo, fino alle tecniche computazionali sfruttate per modellare ciò che avviene nel sistema motorio. Il primo capitolo centra il problema nel suo contesto di utilizzo, ovvero quello della riabilitazione neuromotoria con la quale si cerca di sfruttare le tecniche più innovative per ottenere risultati più efficienti e soddisfacenti e sempre meno soggettivi. Il capitolo successivo fornisce la visione anatomo-fisiologica del problema, infatti si cerca di spiegare il funzionamento generale di produzione dei comandi motori a cui seguono la vera e propria attuazione e l'eventuale correzione; alla base di questo meccanismo sta anche la possibilità di rendere efficaci le suddette tecniche riabilitative. Sono, poi, introdotti i submovimenti e le conclusioni a cui si è arrivati nel corso degli anni grazie a varie ricerche di caratterizzazione della smoothness che mettono in relazione tale caratteristica con i submovimenti stessi. Nella terza parte si ha una visione d'insieme del modo in cui le tecnologie più recenti possono essere applicate nell'ambito di studio della tesi: la realtà virtuale, così come la robotica, giocano un ruolo fondamentale per la misurazione e la rilevazione della cinematica del corpo umano (nel caso specifico, la cinematica dell'arto superiore). Nel quarto capitolo vengono descritti alcuni modelli con cui si cerca di estrarre le proprietà del movimento per poterne comprendere al meglio la natura ed il modo in cui viene generato. Si conclude il lavoro spiegando come l'elaborato possa essere sfruttato quale base per costruire prove sperimentali e di come le tecniche presentate possano essere utilizzate in contesti ancora più innovativi.
Resumo:
Questa tesi ripercorre le tappe principali della storia della scuola secondaria italiana, soffermandosi su quelle che hanno caratterizzato l'insegnamento della matematica. Inoltre analizza le caratteristiche delle prove di matematica assegnate alla maturità scientifica fin dalla nascita dell'esame di Stato.