151 resultados para Memorie non volatili, Memorie magnetoresistive, Memorie ferroelettriche, Memorie a cambiamento di fase
Resumo:
La phytoremediation si colloca nel campo dei nuovi interventi di bonifica come una tecnica verde, sostenibile e a basso costo, che può sostituire le ordinarie tecniche ingegneristiche in condizioni di inquinamento da basso a moderato. Si basa sull'utilizzo di piante per contenere, rimuovere o degradare i contaminanti presenti in suolo, sedimenti e acque. In questo studio sono state valutate le capacità fitoestrattive della specie Dittrichia viscosa in suoli derivanti da attività mineraria. Il campionamento è stato realizzato in due siti minerari, il distretto minerario di Montevecchio (VS) e la miniera di Libiola (GE) ed in cinque siti non minerari utilizzati come riferimento e controllo. In ogni sito è stato campionato suolo rizosferico e campioni vegetali della specie D. viscosa. Lo studio si è focalizzato su cinque metalli pesanti molto diffusi e pericolosi: Cu, Ni, Pb, Zn e Cd. Per valutare a quale livello della pianta vengono accumulati, ogni campione vegetale è stato separato in tre porzioni, radici, fusto e foglie, che sono state analizzate separatamente; inoltre, sono state determinate le concentrazioni totali e biodisponibili dei cinque metalli nei suoli rizosferici campionati. Dallo studio è emerso che la specie D. viscosa tende ad accumulare i contaminanti indagati soprattutto a livello fogliare nonostante non sia sempre dimostrato nei campioni provenienti dal sito di Libiola. Grazie alle buone capacità che la pianta presenta nell'accumulare Ni e Zn nell'apparato radicale, e nel trasferire Zn, Pb e Cd nell'apparato fogliare, D. viscosa può essere considerata una buona candidata negli interventi di fitorimedio.
Resumo:
L’intelligenza artificiale, ovvero lo studio e la progettazione di sistemi intelligenti, mira a riprodurre alcuni aspetti dell’intelligenza umana, come il linguaggio e il ragionamento deduttivo, nei computer. La robotica, invece, cerca spesso di ricreare nei robot comportamenti adattativi, come l’abilità di manipolare oggetti o camminare, mediante l’utilizzo di algoritmi in grado di generare comportamenti desiderati. Una volta realizzato uno di questi algoritmi specificamente per una certa abilità, si auspica che tale algoritmo possa essere riutilizzato per generare comportamenti più complessi fino a che il comportamento adattativo del robot non si mostri ad un osservatore esterno come intelligente; purtroppo questo non risulta sempre possibile e talvolta per generare comportamenti di maggiore complessità è necessario riscrivere totalmente gli algoritmi. Appare quindi evidente come nel campo della robotica l’attenzione sia incentrata sul comportamento, perché le azioni di un robot generano nuove stimolazioni sensoriali, che a loro volta influiscono sulle sue azioni future. Questo tipo di intelligenza artificiale (chiamata propriamente embodied cognition) differisce da quella propriamente detta per il fatto che l’intelligenza non emerge dall’introspezione ma dalle interazioni via via più complesse che la macchina ha con l’ambiente circostante. Gli esseri viventi presenti in natura mostrano, infatti, alcuni fenomeni che non sono programmati a priori nei geni, bensì frutto dell’interazione che l’organismo ha con l’ambiente durante le varie fasi del suo sviluppo. Volendo creare una macchina che sia al contempo autonoma e adattativa, si devono affrontare due problemi: il primo è relativo alla difficoltà della progettazione di macchine autonome, il secondo agli ingenti costi di sviluppo dei robot. Alla fine degli anni ’80 nasce la robotica evolutiva che, traendo ispirazione dall’evoluzione biologica, si basa sull’utilizzo di software in grado di rappresentare popolazioni di robot virtuali e la capacità di farli evolvere all’interno di un simulatore, in grado di rappresentare le interazioni tra mente e corpo del robot e l’ambiente, per poi realizzare fisicamente solo i migliori. Si utilizzano algoritmi evolutivi per generare robot che si adattano, anche dal punto di vista della forma fisica, all’ambiente in cui sono immersi. Nel primo capitolo si tratterà di vita ed evoluzione artificiali, concetti che verranno ripresi nel secondo capitolo, dedicato alle motivazioni che hanno portato alla nascita della robotica evolutiva, agli strumenti dei quali si avvale e al rapporto che ha con la robotica tradizionale e le sue declinazioni. Nel terzo capitolo si presenteranno i tre formalismi mediante i quali si sta cercando di fornire un fondamento teorico a questa disciplina. Infine, nel quarto capitolo saranno mostrati i problemi che ancora oggi non hanno trovato soluzione e le sfide che si devono affrontare trattando di robotica evolutiva.
Resumo:
La sempre maggiore importanza data al luogo, soprattutto dalla normativa attraverso il codice dei Beni Culturali e del Paesaggio, obbliga i progettisti a prestare maggiore attenzione al contesto in cui operano. I luoghi non possono più essere concepiti come spazi neutri capaci di accogliere qualsiasi forma di progetto, ma devono essere studiati e compresi nella loro essenza più profonda. In aiuto viene il concetto di Genius loci che fin dall'epoca romana soprassedeva i luoghi obbligando l'uomo a scendere a patti con esso prima di qualsiasi pratica progettuale. Nel tempo questo concetto si è trasformato ed ha mutato di senso, andando a coincidere con l'identità propria di un determinato luogo. Per luogo si intende una somma complessa di più elementi non scindibili e in rapporto tra loro nel costruirne l'identità specifica. Capire e rispettare l'identità di un luogo significa capire e rispettare il Genius loci. Filo conduttore di questa disamina è il saggio di Christian Norberg-Schulz “Genius loci. Paesaggio ambiente architettura”, in cui i temi del luogo e dell‟identità vengono trattati principalmente in chiave architettonica. Partendo da questo ho cercato di mettere in evidenza questi concetti in tre progetti sviluppati a scale diverse, evidenziandone l‟applicazione e le problematiche in tre ambiti differenti. I progetti presi in esame sono: in ambito rurale, l‟ecovillaggio sviluppato a San Biagio; in ambito urbano, la riqualificazione di un‟area industriale a Forlimpopoli; in ambito metropolitano, il progetto di abitazioni collettive a Bogotá.
Resumo:
Questa tesi riguarda la formula di Eulero per i poliedri: F - S + V = 2 dove F indica il numero di facce, S il numero di spigoli e V quello dei vertici di un poliedro. Nel primo capitolo tratteremo i risultati ottenuti da Cartesio: egli fu il primo a considerare non solo le caratteristiche geometriche ma anche metriche di un solido. Partendo dall'analogia con le figure piane, riuscì a ricavare importanti relazioni nei solidi convessi, riguardanti il numero e la misura degli angoli piani, degli angoli solidi e delle facce. Non arrivò mai alla formulazione conosciuta oggi ma ne intuì le caratteristiche topologiche, che però non dimostrò mai. Nel secondo capitolo invece ci occuperemo di ciò che scoprì Eulero. Il manoscritto contenente i risultati di Cartesio era scomparso e quindi questi non erano più conosciuti dai matematici; Eulero, in accordo con quanto avviene per i poligoni, desiderava ottenere un metodo di classificazione per i poliedri e si mise a studiare le loro proprietà. Oltre alla sua formula, in un primo articolo ricavò importanti relazioni, e in un secondo lavoro ne propose una dimostrazione. Riportiamo in breve anche un confronto tra il lavoro di Cartesio e quello di Eulero. Il terzo capitolo invece riguarda il metodo e il rigore nella formulazione di teoremi e dimostrazioni: I. Lakatos ne fa un esame critico nel libro "Dimostrazioni e Confutazioni - la logica della scoperta matematica", simulando una lezione dove a tema compaiono la Formula di Eulero e le sue dimostrazioni. Noi cercheremo di analizzare questo suo lavoro. Su questi tre autori e i loro lavori riportiamo alcune considerazioni biografiche e storiche che possono offrire interessanti spunti didattici: infatti nel quarto e ultimo capitolo ci occuperemo di alcune considerazioni didattiche a proposito della Formula. La struttura sarà quella di un'ipotetica lezione a studenti di Scuola Media Inferiore e utilizzeremo i risultati ottenuti nei precedenti capitoli e una personale esperienza di tirocinio.
Resumo:
La cosmologia ha come scopo lo studio di origine ed evoluzione dell’Universo, per averne una comprensione generale attraverso le leggi fisiche conosciute. Il modello del Big Bang, di cui si dà la descrizione teorica nel capitolo 1, è una delle formulazioni più recenti di teoria che mira a spiegare l’inizio e la successiva evoluzione dell’Universo, fino ad avanzare anche ipotesi sul suo destino futuro; è inoltre il modello generalmente accettato dalla comunità scientifica in quanto, di tutti i modelli proposti nel corso degli anni, è quello con più riscontri sperimentali e che meglio si trova in accordo con le osservazioni. I principali successi del modello vengono trattati nel capitolo 2. In particolare: si tratterà di redshift e legge di Hubble, collegati all’espansione dell’Universo, importante prova dell’attendibilità del modello del Big Bang; della radiazione cosmica di fondo, scoperta negli anni ’60 quasi per caso e poi ricondotta a ipotesi teoriche già avanzate anni prima nelle prime formulazioni del modello; della nucleosintesi primordiale, che spiega l’abbondanza attuale dei principali costituenti dell’Universo, H ed He, cosa che altrimenti non sarebbe spiegabile se si considerasse soltanto la formazione di tali elementi nelle stelle. Ovviamente anche questo modello, come si vede nel capitolo 3, non manca di problemi, a cui si è trovata una risoluzione parziale o comunque non definitiva; in questa sede tuttavia, per ragioni di spazio, tali problemi e la loro soluzione verranno soltanto accennati. Si accennerà al problema dell’Universo piatto e al problema dell’orizzonte, e a come essi possano essere spiegati introducendo il concetto di inflazione. Infine, nel capitolo 4, si accenna anche alla materia oscura, soprattutto per quanto riguarda le evidenze sperimentali che ne hanno permesso la scoperta e le prove successive che ne confermano l’esistenza. Tuttora ne ignoriamo natura e composizione, visto che a differenza della materia ordinaria non emette radiazione elettromagnetica, ma i suoi effetti gravitazionali sono evidenti ed è estremamente difficile che la sua esistenza possa essere messa in discussione.
Resumo:
Questo progetto di tesi ha come obiettivo lo sviluppo di un algoritmo per la correzione e la calibrazione delle immagini in microscopia a fluorescenza e della sua implementazione come programma. Infatti, senza tale calibrazione le immagini di microscopia a fluorescenza sarebbero intrinsecamente affette da molteplici tipi di distorsioni ottiche. Questo limita fortemente la possibilità di effettuare analisi quantitative del livello di fluorescenza osservato. Il difetto sul quale ci siamo soffermati è la disomogeneità di campo, ossia una non uniforme fluorescenza causata dalla forma irregolare del fascio di eccitazione. Per conseguire l'obiettivo da noi proposto è necessaria l'acquisizione, in parallelo al campione in esame, di immagini di calibrazione contenenti sfere nanometriche a fluorescenza nota. A partire da queste, tramite procedure di image processing da noi implementate, abbiamo stimato la funzione di correzione della fluorescenza, localmente per ogni punto dell'immagine. Per la creazione di tale algoritmo abbiamo ipotizzato una possibile distribuzione dell'intensità dovuta alla non omogeneità del fascio ed abbiamo quindi stimato i parametri tramite un'apposita procedura di maximum likelihood. Tale stima è stata eseguita tenendo conto di possibili effetti dovuti alla luminosità di background, alla sovrapposizione di più nanosfere e ad effetti di bordo nel corso dell'elaborazione. Questa procedura è stata ripetuta su quattro diverse immagini di calibrazione, per valutarne la consistenza e la validità. Inoltre, per poter verificare che il software di elaborazione abbia le desiderate proprietà di linearità tra segnale misurato ed intensità nota, ci siamo serviti di un'ulteriore immagine di calibrazione contenente una mistura di sfere nanometriche con intensità variabili su due ordini di grandezza. Il risultato di questo lavoro di tesi verrà incluso in un programma per la calibrazione delle immagini in fluorescenza acquisite al laboratorio di biofisica del Dipartimento di Fisica ed Astronomia di Bologna.
Resumo:
In questo lavoro di Tesi viene studiata la realizzazione di un sistema per la generazione di seconda armonica di una luce laser infrarossa. Il lavoro è stato svolto presso l'Univerità di Firenze nell'ambito di un esperimento di fisica atomica, nel quale viene studiato il comportamento di una miscela di atomi freddi di Potassio-Rubidio. Per la realizzazione sperimentale è richiesto l'utilizzo di un fascio laser con luce verde a 532 nm. Per ottenere questo fascio si è ricorso alla generazione di seconda armonica di un laser con luce infrarossa a 1064 nm, sfruttando le proprietà dei cristalli non lineari. Il cristallo utilizzato è un cristallo periodically poled di Tantalato di Litio, che sfrutta la tecnica del Quasi-Phasematching per generare seconda armonica. L'obiettivo principale di questo lavoro è stato quello di caratterizzare il sistema di duplicazione per poter ottimizzare la produzione del fascio verde. Infatti la produzione di seconda armonica dipende da diversi fattori sperimentali, quali la temperatura alla quale si trova il cristallo e la posizione del fuoco del fascio incidente rispetto al cristallo. Per prima cosa si sono ottimizzati i parametri del fascio infrarosso, cercando quelli per i quali la produzione di seconda armonica è maggiormente efficiente. Questo è stato effettuato caratterizzando il fascio per trovarne la posizione del fuoco e la sua larghezza. Nella seconda parte si è studiata l'efficienza di produzione di seconda armonica. La temperatura del cristallo influenza notevolmente la produzione di seconda armonica, quindi si è cercata la temperatura ottimale a cui l'efficienza di duplicazione è massima. Inoltre si è anche calcolata l'ampiezza massima delle oscillazioni di temperatura a cui è possibile sottoporre il cristallo senza uscire dalla zona in cui la duplicazione è efficiente. Per trovare la temperatura ottimale si è studiato l'andamento dell'efficienza in funzione della temperatura del cristallo. Analizzando questo andamento si sono anche verificati i coefficienti non lineari del cristallo dichiarati dal produttore.
Resumo:
Con questa tesi ho voluto mettere insieme delle nozioni oggi basilari per chiunque voglia avere un quadro globale del geomagnetismo cercando di essere il più chiaro e esplicativo possibile nell'esposizione sia dal punto di vista matematico che linguistico. Non è stato, comunque, possibile affrontare in soli tre capitoli di tesi tutte le problematiche inerenti a una disciplina così ricca di informazioni e che si è evoluta in modo così rapido negli ultimi anni. La tesi inizia con un'introduzione storica sul magnetismo per passare, attraverso un quadro generale di elettromagnetismo e le equazioni fondamentali di Maxwell, a una descrizione del campo magnetico terrestre e delle sue variazioni spaziotemporali accompagnate da una descrizione dei fenomeni elettrici in atmosfera più importanti del nostro pianeta. Segue poi, nel secondo capitolo, una breve presentazione delle teorie sull'origine del campo e successivamente, tramite la magnetoidrodinamica, si passa alla teoria della dinamo ad autoeccitazione il cui funzionamento è preso come modello, fino ad oggi considerato il più valido, per spiegare le origini del campo magnetico terrestre. Infine, nel terzo ed ultimo capitolo, si parla del rapporto del campo magnetico terrestre con le rocce terrestri che introduce un approfondimento generale sul paleomagnetismo ossia del campo magnetico nel passato e che ruolo svolge nell'ambito della tettonica a placche.
Resumo:
Questo lavoro di tesi si occupa dello studio dei buchi neri e delle loro proprietà termodinamiche da un punto di vista teorico. Nella prima parte si affronta una analisi teorico-matematica che mostra la soluzione dell’equazione di Einstein in relatività generale per un problema a simmetria sferica. Da questa soluzione si osserva la possibile presenza nell’universo di oggetti ai quali nemmeno alla luce è data la possibilità di fuggire, chiamati buchi neri. Ad ogni buco nero è associato un orizzonte degli eventi che si comporta come una membrana a senso unico: materia e luce possono entrare ma niente può uscire. E` studiata inoltre la possibile formazione di questi oggetti, mostrando che se una stella supera un certo valore critico di massa, durante la fase finale della sua evoluzione avverrà un collasso gravitazionale che nessuna forza conosciuta sarà in grado di fermare, portando alla formazione di un buco nero. Nella seconda parte si studiano le leggi meccaniche dei buchi neri. Queste leggi descrivono l’evoluzione degli stessi attraverso parametri come l’area dell’orizzonte degli eventi, la massa e la gravità di superficie. Si delinea quindi una analogia formale tra queste leggi meccaniche e le quattro leggi della termodinamica, con l’area dell’orizzonte degli eventi che si comporta come l’entropia e la gravità di superficie come la temperatura. Nella terza parte, attraverso l’utilizzo della meccanica quantistica, si mostra che l’analogia non è solo formale. Ad un buco nero è associata l’emissione di uno spettro di radiazione che corrisponde proprio a quello di un corpo nero che ha una temperatura proporzionale alla gravità di superficie. Si osserva inoltre che l’area dell’orizzonte degli eventi può essere interpretata come una misura della informazione contenuta nel buco nero e di conseguenza della sua entropia.
Resumo:
Questo lavoro ha l’obbiettivo di analizzare i principi che stanno alla base della plasmonica, partendo dallo studio dei plasmoni di superficie fino ad arrivare alle loro applicazioni. La prima parte di questa tesi riguarda l’aspetto teorico. Essendo essenzialmente eccitazioni collettive degli elettroni nell'interfaccia fra un conduttore ed un isolante, descritti da onde elettromagnetiche evanescenti, questi plasmoni superficiali, o polaritoni plasmonici di superficie (SPP), vengono studiati partendo dalle equazioni di Maxwell. Viene spiegato come questi SPP nascano dall’accoppiamento dei campi elettromagnetici con le oscillazioni degli elettroni del materiale conduttore e, utilizzando l’equazione dell’onda, si descrivono le loro proprietà in singola interfaccia e in sistemi multistrato. Il quinto capitolo analizza le metodologie di eccitazione di SPP. Sono descritte varie tecniche per l’accoppiamento di fase, per accennare poi a eccitazioni di SPP in guide d’onda, tramite fibra ottica. L’ultimo capitolo della prima parte è dedicato alla seconda tipologia di plasmoni: i plasmoni di superficie localizzati (LSP). Questi sono eccitazioni a seguito dell’accoppiamento fra elettroni di conduzione di nanoparticelle metalliche e il campo elettromagnetico ma che, a differenza dei SPP, non si propagano. Viene esplorata la fisica dei LSP trattando prima le interazioni delle nanoparticelle con le onde elettromagnetiche, poi descrivendo i processi di risonanza in una varietà di particelle differenti in numero, forma, dimensione e ambiente di appartenenza. La seconda parte della tesi riguarda invece alcune applicazioni. Vengono proposti esempi di controllo della propagazione di SPP nel contesto delle guide d’onda, analizzando l’indirizzamento di SPP su superfici planari e spiegando come le guide d’onda di nanoparticelle metalliche possano essere utilizzate per trasferire energia. Infine, viene introdotta la teoria di Mie per la diffusione e l’assorbimento della luce da parte di nanoparticelle metalliche, per quanto riguarda la colorazione apparente, con esempi sulla colorazione vitrea, come la famosa coppa di Licurgo.
Resumo:
Il peptide correlato al gene della calcitonina (CGRP) è una molecola presente nei neuroni del midollo spinale di diverse specie di Mammiferi, inclusi topi, ratti, conigli, cani, gatti, pecore, scimmie e uomo. Nonostante la distribuzione dei neuroni contenenti questo neuropeptide sia stata studiata in maniera dettagliata nel midollo spinale delle suddette specie, non sono disponibili, in letteratura, informazioni relative alla presenza di queste cellule nel midollo spinale dei Cetacei. Di conseguenza, è stata condotta la presente ricerca che ha avuto lo scopo di determinare, mediante metodiche di immunoistochimica, la distribuzione e la morfologia dei neuroni esprimenti il CGRP nel midollo spinale di tursiope (Tursiops truncatus). In questa specie, la distribuzione laminare (secondo Rexed) dei neuroni CGRP-immunoreattivi è assai simile a quella che si osserva nei Roditori, nei Carnivori e nei Primati; infatti, i corpi cellulari immunopositivi sono localizzati soprattutto in corrispondenza dell’apice del corno dorsale (lamine I e II) e nel corno ventrale (lamine VIII e IX). La distribuzione e la morfologia dei neuroni esprimenti CGRP nel midollo spinale di tursiope suggeriscono come tale neuropeptide possa essere coinvolto nella trasmissione delle informazioni sia sensitive (somatiche e viscerali) che motorie. I neuroni CGRP-immunoreattivi localizzati nelle lamine I e II del midollo spinale di tursiope, come dimostrato in altre specie, potrebbero agire da interneuroni modulando le informazioni nocicettive che dai gangli spinali vengono trasmesse al midollo spinale. Nelle lamine I e II sono presenti anche numerosi processi immunopositivi che, oltre ad appartenere a neuroni locali, derivano, molto probabilmente, dai ai neuroni pseudounipolari dei gangli spinali. In accordo con quanto appena affermato, è opportuno sottolineare come le fibre afferenti primarie provenienti dai gangli spinali utilizzino il CGRP per la trasmissione delle informazioni dolorifiche. La presenza di CGRP nei neuroni della lamina VIII, invece, indica come questo neuropeptide possa essere implicato nella trasmissione di segnali di natura motoria, utilizzando meccanismi presinaptici. Infine, la presenza di numerosi motoneuroni immunoreattivi per il CGRP nella lamina IX indicherebbe un’azione diretta svolta da questo neuropeptide nell’interazione tra motoneurone inferiore e muscolo scheletrico.
Resumo:
La tesi affronta il tema dello spazio collettivo come luogo del tempo libero attraverso il disegno di un progetto a Jesolo, nell'area definita dal masterplan di Kenzo Tange "Central Park". Il progetto affronta la scala territoriale e urbana con forte attenzione al paesaggio e al disegno del suolo. Partendo da un analisi del contesto ambientale e antropico il progetto si definisce a partire dalla logica del "cluster"e dello "stem", principi compositivi sviluppati dagli architetti Smithson e dagli architetti Candilis, Josic e Woods. L'area di approfondimento per il progetto di tesi viene selezionata a partire dal disegno territoriale e propone la realizzazione di due nuove architetture dedicate al tempo libero e al benessere della persona. La tesi alla base è l'interpretazione del tempo libero visto non come un prodotto ma come oggetto che necessita di riappropriazione individuale. Le riflessioni prendono spunto dalle tesi situazioniste e dal lavoro dell' architetto Cedric Price.
Resumo:
Il teorema del viriale consiste in una relazione tra energia cinetica e energia potenziale totali di un sistema all'equilibrio. Il concetto di Viriale (dal latino vires, plurale di vis, 'forza') è stato introdotto dal fisico e matematico tedesco Rudolf Julius Emanuel Clausius (1822-1888) per indicare la quantità N Fi •xi i=1 che rappresenta la somma, fatta su tutte le N particelle di un sistema, dei prodotti scalari del vettore forza totale agente su ciascuna particella per il vettore posizione della particella stessa, rispetto ad un riferimento inerziale scelto. Tale quantità altro non è che un'energia potenziale. Dire che un sistema di particelle è virializzato equivale a dire che esso è stazionario, cioè all'equilibrio. In questo elaborato sono di nostro interesse sistemi astrofisici gravitazionali, in cui cioè l'energia potenziale sia dovuta solo a campi gravitazionali. Distingueremo innanzitutto sistemi collisionali e non collisionali, introducendo i tempi scala di attraversamento e di rilassamento. Dopo una trattazione teorica del teorema, nell'approssimazione di continuità - per cui sostuiremo alle sommatorie gli integrali - e di non collisionalità, an- dremo a studiarne l'importanza in alcuni sistemi astrofisici: applicazione agli ammassi stellari, alle galassie e agli ammassi di galassie, stima della quantità di materia oscura nei sistemi, instabilità di Jeans in nubi molecolari, rotazione delle galassie ellittiche. Per ragioni di spazio non saranno affrontati altri casi, di cui ne citiamo alcuni: collasso delle stelle, stima della massa dei buchi neri al centro delle galassie, 'mass-to-light ratio' di sistemi sferici. Parleremo in generale di “particelle” costituenti i sistemi per intendere stelle, galassie, particelle di gas a seconda del sistema in esame. Trascureremo in ogni caso le influenze gravitazionali di distribuzioni di densità esterne al sistema.
Resumo:
L’obiettivo di questo elaborato consiste nell’introdurre lo studio del “Kore”, un prototipo di fissatore esterno monolaterale, progettato dall’azienda Citieffe (non ancora disponibile in commercio), utilizzato per la correzione di deformità angolari di ossa lunghe (in particolare tibia e femore). Il fissatore esterno monolaterale Kore consente una regolazione giornaliera dell’angolo di deformazione: tale correzione angolare avviene così in maniera graduale favorendo l'adattamento non solo dell'osso, ma anche dei tessuti molli e delle strutture neurovascolari. Correzioni severe di deformità angolari sono state fino ad ora effettuate utilizzando fissatori esterni circolari, i quali garantiscono un’elevata tenuta del segmento scheletrico in tutti i piani dello spazio grazie alla loro particolare geometria. Tuttavia comportano problemi dimensionali, difficilmente tollerabili da parte del paziente, e si è quindi pensato di correggere deformità angolari utilizzando un fissatore esterno monolaterale, introducendo in maniera tale i vantaggi annessi a tali dispositivi di fissazione. Dopo aver effettuato ricerche bibliografiche senza riscontrare la presenza in commercio di un dispositivo con caratteristiche similari al Kore, con il presente lavoro di tesi verrà approfondito lo studio del fissatore, effettuando su di esso prove meccaniche.
Resumo:
L’esplosione della crisi nel 2007 ha contribuito alla diffusione di numerosi termini e concetti afferenti al dominio nella finanza strutturata non solo nelle pagine dei quotidiani specializzati, ma anche di quelli generalisti, producendo uno straniante «sentimento neologico» che ha accresciuto il senso di inaccessibilità e soggezione che in molti nutrono nei riguardi delle “cose della finanza” e delle notizie economiche, percepite come ostiche e incomprensibili. Questo lavoro mira a dimostrare che le cause di questo imperante senso di smarrimento di fronte all’informazione economica sono da addurre a più fattori: alla comune scarsa dimestichezza con il linguaggio e le “cose della finanza” dei cittadini; alla complessità dei concetti che i termini in questione veicolano e alla maniera in cui essi vengono presentati dalla vulgata giornalistica. Questa tesi si articola in quattro capitoli: nel primo si discute del tirocinio svolto presso la DGT della Commissione Europea, che ha fornito degli utili spunti per la stesura del presente lavoro; nel secondo si evidenzia l’importanza di una corretta educazione finanziaria per la formazione di una cittadinanza consapevole, in grado alimentare un sistema finanziario sano. Nel terzo capitolo si discute di finanza strutturata, volgendo particolare attenzione al CDO, di cui anche la Consob ha sottolineato l’intrinseca complessità e che ha assunto un ruolo da protagonista nell’esplosione della crisi dei mutui subprime. Nel quarto capitolo si delinea un breve quadro dell’informazione finanziaria in Italia e in Germania; mediante l’analisi di due corpora comparabili e diacronici si mira, infine, a osservare in che modo i giornali, nel corso degli anni, hanno veicolato il concetto che sottende al termine CDO rintracciando, contestualmente, similarità e differenze tra la stampa generalista e quella specializzata e tra i quotidiani tedeschi e quelli italiani.