436 resultados para Interfaccia, Risultati elettorali, Accessibile


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’attuale condizione che caratterizza il settore energetico richiede un necessario processo di riconversione che, oltre a favorire il risparmio energetico, riduca la dipendenza dai combustibili fossili ed accresca l’impiego di fonti energetiche rinnovabili, dando un contributo fondamentale alla riduzione delle emissioni di gas serra come diversi accordi internazionali richiedono. Si rende pertanto necessario accelerare i processi che da alcuni anni stanno favorendo l’utilizzo di energia da fonti rinnovabili. Tra queste, le fonti legate ai processi di trattamento biologico dei reflui stanno avendo un interessante sviluppo. Esistono numerosi processi biologici che consentono la produzione di energia in maniera indiretta, quali ad esempio i processi di digestione anaerobica finalizzati alla produzione di biogas e/o produzione biologica di idrogeno. In tale contesto si inserisce la tecnologia delle Microbial Fuel Cell, che consente la produzione diretta di energia elettrica, finalizzata al recupero energetico inteso al miglioramento dell’efficienza energetica e alla riduzione dei costi d’esercizio di impianti di trattamento biologico dei reflui. Il presente lavoro di Tesi di Dottorato sperimentale, svoltosi in collaborazione al laboratorio PROT.-IDR. della sede ENEA di Bologna, riporta i risultati dell’attività di ricerca condotta su una MFC (Microbial Fuel Cell) a doppio stadio biologico per il trattamento di reflui ad elevato carico organico e produzione continua di energia elettrica. E’ stata provata l’applicabilità della MFC con entrambi i comparti biotici utilizzando elettrodi di grafite non trattata ottenendo, con un carico organico in ingresso di circa 9 gd-1, valori di potenza massima prodotta che si attestano su 74 mWm-2, corrente elettrica massima generata di 175 mAm-2 ad una tensione di 421 mV, ed una conversione di COD in elettricità pari a 1,2 gCODm-2d-1. I risultati sono stati molto positivi per quanto riguarda le prestazioni depurative ottenute dalla MFC. L’efficienza di depurazione misurata ha raggiunto un valore massimo del 98% di rimozione del COD in ingresso, mentre e la concentrazione di azoto ammoniacale nell’effluente raccolto all’uscita del sedimentatore è sempre stata inferiore a 1 mgN-NH4+l-1. Tra gli obiettivi posti all’inizio della sperimentazione si è rivelata di notevole interesse la valutazione del possibile utilizzo della MFC come sistema per il monitoraggio on-line del COD e degli acidi grassi volatili (VFA) prodotti all’interno di un digestore anaerobico, attraverso la definizione di una correlazione tra i dati elettrici registrati in continuo e le concentrazioni di CODanaer e VFA misurate in diversi periodi della sperimentazione. L’analisi DGGE della biomassa catodica ha fornito uno strumento analitico utile allo studio della diversità della comunità microbica sospesa ed adesa al catodo e ha confermato la forte similarità delle specie batteriche riconosciute nei campioni analizzati. In particolare, le bande di sequenziamento ottenute sono affiliate ai gruppi batterici Firmicutes, -Proteobacteria,  -Proteobacteria, -Proteobacteria e Bacteroidetes. Da quanto emerso dalla sperimentazione condotta si può pertanto concludere che ad oggi le MFC sono in fase di evoluzione rispetto ai primi prototipi utilizzati per lo studio delle comunità microbiali e per la comprensione dei meccanismi di trasferimento elettronico. Sfruttarne la potenza prodotta in maniera commerciale diviene una grande sfida per il futuro, ed è opinione comune che le prime applicazioni pratiche delle MFC saranno come fonte di recupero energetico per i dispositivi utilizzati per il monitoraggio dell’ambiente e per il trattamento delle acque reflue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Poco più di dieci anni fa, nel 1998, è stata scoperta l’ipocretina (ovvero orexina), un neuropeptide ipotalamico fondamentale nella regolazione del ciclo sonno-veglia, dell’appetito e della locomozione (de Lecea 1998; Sakurai, 1998; Willie, 2001). La dimostrazione, pochi mesi dopo, di bassi livelli di ipocretina circolanti nel liquido cefalo-rachidiano di pazienti affetti da narcolessia con cataplessia (Mignot 2002) ha definitivamente rilanciato lo studio di questa rara malattia del Sistema Nervoso Centrale, e le pubblicazioni a riguardo si sono moltiplicate. In realtà le prime descrizioni della narcolessia risalgono alla fine del XIX secolo (Westphal 1877; Gélineau 1880) e da allora la ricerca clinica è stata volta soprattutto a cercare di definire il più accuratamente possibile il fenotipo del paziente narcolettico. Accanto all’alterazione del meccanismo di sonno e di veglia, e dell’alternanza tra le fasi di sonno REM (Rapid Eye Movement) e di sonno non REM, sui quali l’ipocretina agisce come un interruttore che stimola la veglia e inibisce la fase REM, sono apparse evidenti anche alterazioni del peso e del metabolismo glucidico, dello sviluppo sessuale e del metabolismo energetico (Willie 2001). I pazienti narcolettici presentano infatti, in media, un indice di massa corporea aumentato (Dauvilliers 2007), la tendenza a sviluppare diabete mellito di tipo II (Honda 1986), un’aumentata prevalenza di pubertà precoce (Plazzi 2006) e alterazioni del metabolismo energetico, rispetto alla popolazione generale (Dauvilliers 2007). L’idea che, quindi, la narcolessia abbia delle caratteristiche fenotipiche intrinseche altre, rispetto a quelle più eclatanti che riguardano il sonno, si è fatta strada nel corso del tempo; la scoperta della ipocretina, e della fitta rete di proiezioni dei neuroni ipocretinergici, diffuse in tutto l’encefalo fino al ponte e al bulbo, ha offerto poi il substrato neuro-anatomico a questa idea. Tuttavia molta strada separa l’intuizione di un possibile legame dall’individuazione dei reali meccanismi patogenetici che rendano conto dell’ampio spettro di manifestazioni cliniche che si osserva associato alla narcolessia. Lo studio svolto in questi tre anni si colloca in questa scia, e si è proposto di esplorare il fenotipo narcolettico rispetto alle funzioni dell’asse ipotalamo-ipofisi-periferia, attraverso un protocollo pensato in stretta collaborazione fra il Dipartimento di Scienze Neurologiche di Bologna e l’Unità Operativa di Endocrinologia e di Malattie del Metabolismo dell’Ospedale Sant’Orsola-Malpighi di Bologna. L’ipotalamo è infatti una ghiandola complessa e l’approccio multidisciplinare è sembrato essere quello più adatto. I risultati ottenuti, e che qui vengono presentati, hanno confermato le aspettative di poter dare ulteriori contributi alla caratterizzazione della malattia; un altro aspetto non trascurabile, e che però verrà qui omesso, sono le ricadute cliniche in termini di inquadramento e di terapia precoce di quelle alterazioni, non strettamente ipnologiche, e però associate alla narcolessia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con il termine neurofibromatosi (NF) si comprendono almeno sette malattie genetiche diverse ma accomunate dalla presenza di neurofibromi localizzati nei distretti cutaneo, orale, viscerale e scheletrico. Dal momento che la NF1 (malattia di Von Recklinghausen), una delle più diffuse malattie genetiche, può avere manifestazioni a livello orale, gli odontoiatri devono essere a conoscenza delle sue caratteristiche patognomoniche. Obiettivo della tesi è la ricerca di manifestazioni della NF1 a livello dell’apparato stomatognatico. Materiali e metodi 98 pazienti affetti da NF1 (44 maschi, 54 femmine dai 2 ai 24 anni; età media di 8,6 anni) sono stati indagati clinicamente e radiograficamente; clinicamente si sono valutati: prevalenza della patologia cariosa (dmft; DMFt), indice parodontale di comunità (CPI), anomalie dentali, presenza di lesioni a livello dei tessuti molli intraorali, presenza di patologie ortopedico-ortodontiche; presenza di abitudini viziate; sulle ortopantomografie eseguite su 49 pazienti (23 maschi, 26 femmine dai 6 ai 19 anni; età media di 10 anni) si sono valutate manifestazioni ossee e dentali caratteristiche della sindrome. Risultati Dallo studio è emerso che i pazienti affetti da NF1 presentano: dmft/DMFt e CPI elevati (dmft = 2,1; DMFt = 1,6; tessuti gengivali con sanguinamento nel 50% dei casi; eruzione dentale anticipata nel 10%; eruzione dentale ritardata nel 10%; taurodontismo nel 16%; patologie ortopedico-ortodontiche nel 40% (tendenza alla terza classe scheletrica, palato ogivale, morso aperto anteriore, morso coperto, morso crociato posteriore monolaterale, morso crociato posteriore bilaterale, linea mediana deviata, incompetenza labiale); abitudini viziate nel 27% (respirazione orali e deglutizione infantile); lesione neurofibromatosa della gengiva in un caso; per quanto riguarda la valutazione delle ortopantomografie, manifestazioni ossee caratteristiche della sindrome sono state evidenziate nel 28% dei casi (incisura coronoide deformata, processo coronoide ipoplasico o pseudoallungato, condilo ipoplasico, condilo iperplasico, canale mandibolare allargato, forame mandibolare allargato e alto, bordo inferiore della mandibola deformato). La necessità di programmi ed interventi di screening e follow-up periodici (visite odontoiatriche a partire dal momento della diagnosi a cadenza semestrale, esami radiografici a partire dai 6 anni di età a cadenza stabilita individualmente in funzione del livello di rischio) è supportata dall’elevato rischio di patologie cariosa e parodontale e dalla presenza di manifestazioni a livello dei tessuti duri e molli del distretto cefalico a documentato rischio di trasformazione maligna. Parole chiave: neurofibromatosi, patologie orali, distretto cefalico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente ricerca si inquadra nell’ambito della risoluzione dei problemi legati alla chirurgia ossea, per la cura e la sostituzione di parti di osso in seguito a fratture, lesioni gravi, malformazioni e patologie quali osteoporosi, tumori, etc… Attualmente la progettazione di impianti per le sostituzioni/rigenerazioni ossee richiede che i materiali sviluppati siano in grado di “mimare” la composizione e la morfologia dei tessuti naturali, in modo da generare le specifiche interazioni chimiche esistenti nei tessuti dell’organismo con cui vengono a contatto e quindi di biointegrarsi e/o rigenerare l’osso mancante nel miglior modo possibile, in termini qualitativi e quantitativi. Per lo sviluppo di sostituti ossei porosi sono state sperimentate 2 tecnologie innovative: il freeze-casting ed il foaming. Gli impianti ceramici realizzati hanno presentano una dimensione dei pori ed un’interconnessione adeguata sia per l’abitazione cellulare che per la penetrazione dei fluidi fisiologici e la vascolarizzazione. In particolare l’elevata unidirezionalità nei campioni ottenuti mediante freeze-casting si presenta molto promettente poiché fornisce cammini guida che migliorano la vascolarizzazione dell’impianto e l’abitazione cellulare in tempi rapidi e nella parte più interna dello scaffold. D’altra parte, la tecnologia del foaming ha permesso l’ottenimento di materiali apatitici ad alta porosità multidimensionale ed interconnessa con proprietà meccaniche implementate rispetto a tipologie precedenti e, lavorabili dopo sinterizzazione mediante prototipazione rapida. Per questo motivo, questi materiali sono attualmente in corso di sperimentazione, con risultati preliminari adeguati promettenti per un’applicazione clinica, come sostituti ossei di condilo mandibolare, sito estremamente critico per gli sforzi meccanici presenti. È stata dimostrata la possibilità di utilizzare lo scaffold ceramico biomimetico con la duplice funzione di sostituto osseo bioattivo e sistema di rilascio in situ di ioni specifici e di antibiotico, in cui la cinetica di rilascio risulta fortemente dipendente dalle caratteristiche chimico-fisico morfologiche del dispositivo (solubilità, area di superficie specifica,…). Per simulare sempre di più la composizione del tessuto osseo e per indurre specifiche proprietà funzionali, è stata utilizzata la gelatina come fase proteica con cui rivestire/impregnare dispositivi porosi 3D a base di apatite, con cui miscelare direttamente la fase inorganica calcio-fosfatica e quindi realizzare materiali bio-ibridi in cui le due fasi contenenti siano intimamente interagenti. Inoltre al fine di ridurre gli innumerevoli problemi legati alle infezioni ossee alcuni dei materiali sviluppati sono stati quindi caricati con antibiotico e sono state valutate le cinetiche di rilascio. In questa maniera, nel sito dell’impianto sono state associate le funzioni di trasporto e di rilascio di farmaco, alla funzione di sostituzione/rigenerazione ossee. La sperimentazione con la gelatina ha messo in luce proprietà posatamente sfruttabili della stessa. Oltre a conferire allo scaffold un implementata mimesi composizionale del tessuto osseo, ha infatti consentito di aumentare le proprietà meccaniche, sia come resistenza a compressione che deformazione. Unitamente a quanto sopra, la gelatina ha consentito di modulare la funzionalità di dispensatore di farmaco; mediante controllo della cinetica di rilascio, tramite processi di reticolazione più o meno spinti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La catena respiratoria mitocondriale è principalmente costituita da proteine integrali della membrana interna, che hanno la capacità di accoppiare il flusso elettronico, dovuto alle reazioni redox che esse catalizzano, al trasporto di protoni dalla matrice del mitocondrio verso lo spazio intermembrana. Qui i protoni accumulati creano un gradiente elettrochimico utile per la sintesi di ATP ad opera dell’ATP sintasi. Nonostante i notevoli sviluppi della ricerca sulla struttura e sul meccanismo d’azione dei singoli enzimi della catena, la sua organizzazione sovramolecolare, e le implicazioni funzionali che ne derivano, rimangono ancora da chiarire in maniera completa. Da questa problematica trae scopo la presente tesi volta allo studio dell’organizzazione strutturale sovramolecolare della catena respiratoria mediante indagini sia cinetiche che strutturali. Il modello di catena respiratoria più accreditato fino a qualche anno fa si basava sulla teoria delle collisioni casuali (random collision model) che considera i complessi come unità disperse nel doppio strato lipidico, ma collegate funzionalmente tra loro da componenti a basso peso molecolare (Coenzima Q10 e citocromo c). Recenti studi favoriscono invece una organizzazione almeno in parte in stato solido, in cui gli enzimi respiratori si presentano sotto forma di supercomplessi (respirosoma) con indirizzamento diretto (channeling) degli elettroni tra tutti i costituenti, senza distinzione tra fissi e mobili. L’importanza della comprensione delle relazioni che si instaurano tra i complessi , deriva dal fatto che la catena respiratoria gioca un ruolo fondamentale nell’invecchiamento, e nello sviluppo di alcune malattie cronico degenerative attraverso la genesi di specie reattive dell’ossigeno (ROS). E’ noto, infatti, che i ROS aggrediscono, anche i complessi respiratori e che questi, danneggiati, producono più ROS per cui si instaura un circolo vizioso difficile da interrompere. La nostra ipotesi è che, oltre al danno a carico dei singoli complessi, esista una correlazione tra le modificazioni della struttura del supercomplesso, stress ossidativo e deficit energetico. Infatti, la dissociazione del supercomplesso può influenzare la stabilità del Complesso I ed avere ripercussioni sul trasferimento elettronico e protonico; per cui non si può escludere che ciò porti ad un’ulteriore produzione di specie reattive dell’ossigeno. I dati sperimentali prodotti a sostegno del modello del respirosoma si riferiscono principalmente a studi strutturali di elettroforesi su gel di poliacrilammide in condizioni non denaturanti (BN-PAGE) che, però, non danno alcuna informazione sulla funzionalità dei supercomplessi. Pertanto nel nostro laboratorio, abbiamo sviluppato una indagine di tipo cinetico, basata sull’analisi del controllo di flusso metabolico,in grado di distinguere, funzionalmente, tra supercomplessi e complessi respiratori separati. Ciò è possibile in quanto, secondo la teoria del controllo di flusso, in un percorso metabolico lineare composto da una serie di enzimi distinti e connessi da intermedi mobili, ciascun enzima esercita un controllo (percentuale) differente sull’intero flusso metabolico; tale controllo è definito dal coefficiente di controllo di flusso, e la somma di tutti i coefficienti è uguale a 1. In un supercomplesso, invece, gli enzimi sono organizzati come subunità di una entità singola. In questo modo, ognuno di essi controlla in maniera esclusiva l’intero flusso metabolico e mostra un coefficiente di controllo di flusso pari a 1 per cui la somma dei coefficienti di tutti gli elementi del supercomplesso sarà maggiore di 1. In questa tesi sono riportati i risultati dell’analisi cinetica condotta su mitocondri di fegato di ratto (RLM) sia disaccoppiati, che accoppiati in condizioni fosforilanti (stato 3) e non fosforilanti (stato 4). L’analisi ha evidenziato l’associazione preferenziale del Complesso I e Complesso III sia in mitocondri disaccoppiati che accoppiati in stato 3 di respirazione. Quest’ultimo risultato permette per la prima volta di affermare che il supercomplesso I+III è presente anche in mitocondri integri capaci della fosforilazione ossidativa e che il trasferimento elettronico tra i due complessi possa effettivamente realizzarsi anche in condizioni fisiologiche, attraverso un fenomeno di channeling del Coenzima Q10. Sugli stessi campioni è stata eseguita anche un analisi strutturale mediante gel-elettroforesi (2D BN/SDS-PAGE) ed immunoblotting che, oltre a supportare i dati cinetici sullo stato di aggregazione dei complessi respiratori, ci ha permesso di evidenziare il ruolo del citocromo c nel supercomplesso, in particolare per il Complesso IV e di avviare uno studio comparativo esteso ai mitocondri di cuore bovino (BHM), di tubero di patata (POM) e di S. cerevisiae.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Organic electronics has grown enormously during the last decades driven by the encouraging results and the potentiality of these materials for allowing innovative applications, such as flexible-large-area displays, low-cost printable circuits, plastic solar cells and lab-on-a-chip devices. Moreover, their possible field of applications reaches from medicine, biotechnology, process control and environmental monitoring to defense and security requirements. However, a large number of questions regarding the mechanism of device operation remain unanswered. Along the most significant is the charge carrier transport in organic semiconductors, which is not yet well understood. Other example is the correlation between the morphology and the electrical response. Even if it is recognized that growth mode plays a crucial role into the performance of devices, it has not been exhaustively investigated. The main goal of this thesis was the finding of a correlation between growth modes, electrical properties and morphology in organic thin-film transistors (OTFTs). In order to study the thickness dependence of electrical performance in organic ultra-thin-film transistors, we have designed and developed a home-built experimental setup for performing real-time electrical monitoring and post-growth in situ electrical characterization techniques. We have grown pentacene TFTs under high vacuum conditions, varying systematically the deposition rate at a fixed room temperature. The drain source current IDS and the gate source current IGS were monitored in real-time; while a complete post-growth in situ electrical characterization was carried out. At the end, an ex situ morphological investigation was performed by using the atomic force microscope (AFM). In this work, we present the correlation for pentacene TFTs between growth conditions, Debye length and morphology (through the correlation length parameter). We have demonstrated that there is a layered charge carriers distribution, which is strongly dependent of the growth mode (i.e. rate deposition for a fixed temperature), leading to a variation of the conduction channel from 2 to 7 monolayers (MLs). We conciliate earlier reported results that were apparently contradictory. Our results made evident the necessity of reconsidering the concept of Debye length in a layered low-dimensional device. Additionally, we introduce by the first time a breakthrough technique. This technique makes evident the percolation of the first MLs on pentacene TFTs by monitoring the IGS in real-time, correlating morphological phenomena with the device electrical response. The present thesis is organized in the following five chapters. Chapter 1 makes an introduction to the organic electronics, illustrating the operation principle of TFTs. Chapter 2 presents the organic growth from theoretical and experimental points of view. The second part of this chapter presents the electrical characterization of OTFTs and the typical performance of pentacene devices is shown. In addition, we introduce a correcting technique for the reconstruction of measurements hampered by leakage current. In chapter 3, we describe in details the design and operation of our innovative home-built experimental setup for performing real-time and in situ electrical measurements. Some preliminary results and the breakthrough technique for correlating morphological and electrical changes are presented. Chapter 4 meets the most important results obtained in real-time and in situ conditions, which correlate growth conditions, electrical properties and morphology of pentacene TFTs. In chapter 5 we describe applicative experiments where the electrical performance of pentacene TFTs has been investigated in ambient conditions, in contact to water or aqueous solutions and, finally, in the detection of DNA concentration as label-free sensor, within the biosensing framework.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi riguarda la sintesi di nanopolveri allumina-zirconia, seguendo tre differenti metodologie (sintesi per coprecipitazione, sintesi con il metodo dei citrati, sintesi idrotermale assistita da microonde) e il trattamento termico (calcinazione) delle polveri ottenute, mediante tecniche di riscaldamento convenzionali ed alternative (microonde). Lo scopo del lavoro è consistito nell’individuare, tra le tecniche esaminate, quella più idonea e conveniente, per la preparazione di nanopolveri cristalline 95 mol% Al2O3 – 5 mol% ZrO2 e nell’esaminare gli effetti che la calcinazione condotta con le microonde, ha sulle caratteristiche finali delle polveri, rispetto ai trattamenti termici convenzionali. I risultati ottenuti al termine del lavoro hanno evidenziato che, tra le tecniche di sintesi esaminate, la sintesi idrotermale assistita da microonde, risulta il metodo più indicato e che, il trattamento termico eseguito con le microonde, risulta di gran lunga vantaggioso rispetto a quello convenzionale. La sintesi idrotermale assistita da microonde consente di ottenere polveri nano cristalline poco agglomerate, che possono essere facilmente disaggregate e con caratteristiche microstrutturali del tutto peculiari. L’utilizzo di tale tecnica permette, già dopo la sintesi a 200°C/2ore, di avere ossido di zirconio, mentre per ottenere gli ossidi di alluminio, è sufficiente un ulteriore trattamento termico a basse temperature e di breve durata (400°C/ 5 min). Si è osservato, inoltre, che il trattamento termico condotto con le microonde comporta la formazione delle fasi cristalline desiderate (ossidi di alluminio e zirconio), impiegando (come per la sintesi) tempi e temperature significativamente ridotti. L’esposizione delle polveri per tempi ridotti e a temperature più basse consente di evitare la formazione di aggregati duri nelle nanopolveri finali e di contrastare il manifestarsi di fenomeni di accrescimento di grani, preservando così la “nanostruttura” delle polveri e le sue caratteristiche proprietà.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I continui sviluppi nel campo della fabbricazione dei circuiti integrati hanno comportato frequenti travolgimenti nel design, nell’implementazione e nella scalabilità dei device elettronici, così come nel modo di utilizzarli. Anche se la legge di Moore ha anticipato e caratterizzato questo trend nelle ultime decadi, essa stessa si trova a fronteggiare attualmente enormi limitazioni, superabili solo attraverso un diverso approccio nella produzione di chip, consistente in pratica nella sovrapposizione verticale di diversi strati collegati elettricamente attraverso speciali vias. Sul singolo strato, le network on chip sono state suggerite per ovviare le profonde limitazioni dovute allo scaling di strutture di comunicazione condivise. Questa tesi si colloca principalmente nel contesto delle nascenti piattaforme multicore ad alte prestazioni basate sulle 3D NoC, in cui la network on chip viene estesa nelle 3 direzioni. L’obiettivo di questo lavoro è quello di fornire una serie di strumenti e tecniche per poter costruire e aratterizzare una piattaforma tridimensionale, cosi come dimostrato nella realizzazione del testchip 3D NOC fabbricato presso la fonderia IMEC. Il primo contributo è costituito sia una accurata caratterizzazione delle interconnessioni verticali (TSVs) (ovvero delle speciali vias che attraversano l’intero substrato del die), sia dalla caratterizzazione dei router 3D (in cui una o più porte sono estese nella direzione verticale) ed infine dal setup di un design flow 3D utilizzando interamente CAD 2D. Questo primo step ci ha permesso di effettuare delle analisi dettagliate sia sul costo sia sulle varie implicazioni. Il secondo contributo è costituito dallo sviluppo di alcuni blocchi funzionali necessari per garantire il corretto funziomento della 3D NoC, in presenza sia di guasti nelle TSVs (fault tolerant links) che di deriva termica nei vari clock tree dei vari die (alberi di clock indipendenti). Questo secondo contributo è costituito dallo sviluppo delle seguenti soluzioni circuitali: 3D fault tolerant link, Look Up Table riconfigurabili e un sicnronizzatore mesocrono. Il primo è costituito fondamentalmente un bus verticale equipaggiato con delle TSV di riserva da utilizzare per rimpiazzare le vias guaste, più la logica di controllo per effettuare il test e la riconfigurazione. Il secondo è rappresentato da una Look Up Table riconfigurabile, ad alte prestazioni e dal costo contenuto, necesaria per bilanciare sia il traffico nella NoC che per bypassare link non riparabili. Infine la terza soluzione circuitale è rappresentata da un sincronizzatore mesocrono necessario per garantire la sincronizzazione nel trasferimento dati da un layer and un altro nelle 3D Noc. Il terzo contributo di questa tesi è dato dalla realizzazione di un interfaccia multicore per memorie 3D (stacked 3D DRAM) ad alte prestazioni, e dall’esplorazione architetturale dei benefici e del costo di questo nuovo sistema in cui il la memoria principale non è piu il collo di bottiglia dell’intero sistema. Il quarto ed ultimo contributo è rappresentato dalla realizzazione di un 3D NoC test chip presso la fonderia IMEC, e di un circuito full custom per la caratterizzazione della variability dei parametri RC delle interconnessioni verticali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca impostata considera campi disciplinari specifici e distinti, verso la loro integrazione, mirando a produrre un avanzamento relativo alla scienza della voce attraverso la pratica e lo studio della sua applicazione in campo artistico. A partire dall’analisi delle teorie novecentesche relative alla fonazione nel mondo della scena (Antonin Artaud, Stanislavskij e altri) per giungere alle acquisizioni prodotte dalle terapie corporee e vocali (Tomatis, Lowen, Wilfart in particolare), Marco Galignano ha sviluppato un percorso originale che è passato inoltre attraverso lo studio della pratica di una serie di artisti contemporanei (tra cui Baliani, Belli, Bergonzoni, Jodorowski, Hera, Lucenti e Manfredini) e di pedagoghi e terapeuti (da Serge Wilfart al maestro Paolo Zedda). Galignano ha inoltre riferito, nel suo lavoro, gli esiti della sua personale esperienza di formatore, sviluppata a Bologna all’interno di diversi Dipartimenti dell’Università Alma Mater, del Conservatorio di Musica G.B. Martini, dell’Accademia di Belle Arti e del Teatro Duse in particolare. L’obiettivo della tesi è dunque quello di fondare le basi teoriche per una rinnovata pedagogia vocale, a partire dalla possibile riscoperta del suono naturale fino a giungere alle potenzialità terapeutiche ed artistiche del linguaggio. Gli obiettivi di questo lavoro contemplano l’istituzione di una nuova modalità pedagogica, la sua diffusione attraverso una presentazione opportunamente composta e la sua inscrizione in diverse occorrenze artistiche e professionali. Molte le personalità di spicco del panorama internazionale della scienza e dell’arte della voce che hanno contribuito, negli anni, alla presente ricerca: Francesca Della Monica, insegnante di canto e performer, Tiziana Fuschini, logopedista, Franco Fussi, foniatra, Silvia Magnani, foniatra ed esperta di teatro, Gianpaolo Mignardi, logopedista, Dimitri Pasquali, pedagogo, Livio Presutti, medico chirurgo otorinolaringoiatra, Simonetta Selva, medico dello sport, Serge Wilfart, terapeuta della voce, Paolo Zedda, professore di canto in diverse realtà e Maestro di dizione al Conservatorio Nazionale di Parigi, e molti altri, oltre agli artisti citati in fondo, con le loro ricerche hanno contribuito direttamente alla redazione dell’elaborato finale, che mira a fondare le basi di una rinnovata pedagogia vocale per il teatro in Italia. La ricerca vuole infatti colmare in parte la penuria di apporti scientifici specificamente rivolti alla formazione vocale dell’attore teatrale. II lavoro vorrebbe inoltre raccogliere l’eredita di quei teorici, maestri e registi-pedagoghi che nel Novecento hanno posto le basi per la formazione dell’attore, e al tempo stesso prolungare la linea genealogica che da Stanislavskji trascorre in Grotowski, senza escludere esperienze fondate su presupposti alternativi alla formazione del repertorio vocale del performer: psicofisicità, terapie olistiche, fisica quantistica. Come accennato, una parte della ricerca è stata condotta in collaborazione col Prof. Franco Fussi, correlatore, e grazie al lavoro di redazione nel gruppo della rivista Culture Teatrali, diretto da Marco De Marinis, relatore. II percorso ha inteso infatti sviluppare alcune delle linee di ricerca aperte da Fussi virandole verso lo specifico dell’attività e del training vocale dell’attore, e ha avuto una tappa di verifica rilevante nel Convegno Internazionale di Foniatria e Logopedia “La Voce Artistica” di cui Fussi è direttore, a cui Galignano ha partecipato in veste di relatore. 1. II concetto guida del lavoro di Galignano risiede nell’idea di vibrazione e nel rapporto che questa intrattiene col suono. Il suono, per l’essere umano, costituisce la base materiale della fonazione, del linguaggio codificato comunitariamente così come dei particolari idioletti in continua evoluzione, basi della comunicazione verbale e paraverbale. Il linguaggio umano è costituito principalmente da sonorità vocale e da articolazione consonantica (rumori), e cioè composto di suoni armonici e di rumori prodotti da apparati articolari del corpo che risultano efficaci solo se integrati nel corpo da cui originano. A partire da un tentativo di definizione di salute corporea e di equilibrio psicofisico, attraverso l’analisi della rigenerazione cellulare e delle dinamiche comportamentali, Galignano definisce scientificamente la lingua parlata come emersione di codici comunicativi che originano da una schematizzazione del mondo intimo-personale del soggetto e si fondano su memorie molecolari, sull’attitudine comportamentale abituale, tra spontaneità, automatismi e capacità episodica di attenzione psicofisica. Ciò costituisce, per Galignano, la “risonanza olistica” alla base dell’efficacia comunicativa in sede pedagogica. L’argomento, che verrà sviluppato per la presentazione editoriale dell’elaborato e di cui la tesi di dottorato è solo una prima tappa in fieri, è stato sviscerato anche sulla base di nozioni di fisica classica e di fisica quantistica. Ciò senza dimenticare gli studi approfonditi sulla vocalità in ambito filosofico, da Bologna a Cavarero, da Napolitano a Zumthor. La tesi è composta attraverso una progressione che, a partire da una dichiarazione di poetica, trascorre poi verso l’analisi della fisiologia e della psicologia della voce, per approdare a una zona di approfondimento scientifico, teorico ed empirico, di una serie di metodi d’avanguardia di abilitazione e riabilitazione. In ultimo, come appendice, vengono riferiti i risultati del percorso laboratoriale condotto nel corso degli anni del dottorato di ricerca. Le esperienze sul campo maturate nell’ambito dell’attività pedagogica e laboratoriale si sono inoltre sviluppate a partire da un Progetto Strategico d’Ateneo dell’Università di Bologna intitolato “La Voce nel Corpo. La Recitazione e il Movimento Coreografico”, di cui Marco Galignano è responsabile scientifico. Un tempo specifico della tesi di dottorato è dunque composto a partire dai risultati maturati attraverso le varie azioni, laboratoriali e artistiche, che fin qui il progetto “La Voce nel Corpo” ha prodotto. In definitiva, attraverso il tessuto composto da esperienze pedagogiche, pratica artistica e ricerca scientifica, la tesi di dottorato di Galignano, work in progress, mira a comporre un sistema integrato, teorico-pratico, per l’insegnamento e la trasmissione di una specifica tecnica vocale calata nella pratica attoriale, ma utile a fini ulteriori, da quello riabilitativo fino alle tecniche di cura del sé su cui s’e appuntata la riflessione filosofica erede della teoresi artaudiana. La parte conclusiva della ricerca riguarda i suoi possibili futuri sviluppi, specifici, impostati attraverso la collaborazione, attuale, passata o in divenire, con artisti quali Marco Baliani, Matteo Belli, Alessandro Bergonzoni, Albert Hera, Michela Lucenti, Danio Manfredini e altri a cui Marco Galignano è particolarmente riconoscente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi ricostruisce la storia della giurisprudenza italiana che ha riguardato la legittimità o meno dell’impiego della diagnosi genetica preimpianto nell’ambito della procreazione medicalmente assistita, dall’emanazione della legge 40 del 2004 a tutt’oggi. Ed in particolare questa tesi si prefigge due obiettivi: uno, individuare ed illustrare le tipologie di argomenti utilizzati dal giurista-interprete per giudicare della legittimità o meno della pratica della diagnosi preimpianto degli embrioni prodotti, mediante le tecniche relative alla procreazione assistita; l’altro obiettivo, mostrare sia lo scontro fra i differenti argomenti, sia le ragioni per le quali prevalgono gli argomenti usati per legittimare la pratica della diagnosi preimpianto. Per raggiungere questi obiettivi, e per mostrare in maniera fenomenologica come avviene l’interpretazione giuridica in materia di diagnosi preimpianto, si è fatto principalmente riferimento alla visione che ha della detta interpretazione la prospettiva ermeneutica (concepita originariamente sul piano teoretico, quale ermeneutica filosofica, da H.G. Gadamer; divulgata ed approfondita sul piano giusfilosofico e della teoria dell’interpretazione giudica in Italia, fra gli altri, da F. Viola e G. Zaccaria). Così, in considerazione dei vari argomenti utilizzati per valutare la legittimità o meno della pratica della diagnosi preimpianto, i motivi per i quali in ultimo il giurista-interprete per giudicare ragionevolmente, deve ritenere legittima la pratica della diagnosi preimpianto sono i seguenti. I principi superiori dell’ordinamento e talune direttive giuridiche fondamentali dell’ordinamento, elaborate della giurisprudenza, le quali costituiscono la concretizzazione di detti principi e di una serie di disposizioni normative fondamentali per disciplinare il fenomeno procreativo, depongono per la legittimità della diagnosi preimpianto. Le tipologie degli argomenti impiegati per avallare la legittimità della diagnosi preimpianto attengono al tradizionale repertorio argomentativo a cui attinge il giurista, mentre la stessa cosa non si può dire per gli argomenti usati per negare la legittimità della diagnosi. Talune tipologie di argomenti utilizzate per negare la legittimità della diagnosi preimpianto costituiscono delle fallacie logiche, per esempio l’argomento del pendio scivoloso, e soprattutto le tipologie degli argomenti utilizzati per sostenere la legittimità della diagnosi preimpianto sono per lo più caratterizzate dalla ragionevolezza ed applicate per lo più opportunamente. Poi, si può osservare che: determinati argomenti, associati dal giurista-interprete ai principi i quali depongono per l’illegittimità della diagnosi preimpianto, facendo leva sulla categoria della possibilità, ed equiparando attualità e possibilità, privilegiano l’immaginazione alla realtà e portano a risultati interpretativi non razionalmente fondati; mentre gli argomenti associati dal giurista-interprete ai principi i quali depongono per la legittimità della diagnosi preimpianto, facendo leva sulla categoria della attualità, e tenendo ben distinte attualità e possibilità, privilegiano l’osservazione della realtà e portano a risultati razionalmente fondati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca verte sull’udinese Michele Leskovic (1905-1979), noto con lo pseudonimo di Escodamè, attivo in campo futurista dal 1920 fino alla fine degli anni Trenta. Il lavoro ricostruisce il periodo futurista di Leskovic utilizzando sia documentazione edita sia inedita rintracciata presso numerose Biblioteche ed Archivi pubblici e privati italiani e presso la Beinecke Rare Book and Manuscript Library dell’Università di Yale. Tra gli inediti utilizzati, numerosi quelli provenienti dall’archivio privato di Michele Leskovic conservato presso «Casa Lyda Borelli per Operatori ed Artisti dello Spettacolo» di Bologna dove Leskovic visse dal 1970 alla morte insieme alla moglie, l’attrice Camilla Orlandini (1896-1975). Sono qui analizzate tutte le attività svolte dal futurista udinese sia in maniera estemporanea sia continuativa ed approfondita. Particolare attenzione è rivolta alle ricerche condotte in tre campi specifici: la poetica, la poesia ed il teatro, nei quali Leskovic ha raggiunto risultati di indubbio interesse ed originalità. I testi pubblicati da Leskovic da un lato sono stati collazionati con sue stesse carte inedite (spesso abbozzi preparatori) e dall’altro arricchiti nel confronto con le opere di altri membri del movimento futurista e soprattutto con Marinetti, del quale Leskovic risulta essere stato attivo collaboratore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con il trascorrere del tempo, le reti di stazioni permanenti GNSS (Global Navigation Satellite System) divengono sempre più un valido supporto alle tecniche di rilevamento satellitare. Esse sono al tempo stesso un’efficace materializzazione del sistema di riferimento e un utile ausilio ad applicazioni di rilevamento topografico e di monitoraggio per il controllo di deformazioni. Alle ormai classiche applicazioni statiche in post-processamento, si affiancano le misure in tempo reale sempre più utilizzate e richieste dall’utenza professionale. In tutti i casi risulta molto importante la determinazione di coordinate precise per le stazioni permanenti, al punto che si è deciso di effettuarla tramite differenti ambienti di calcolo. Sono stati confrontati il Bernese, il Gamit (che condividono l’approccio differenziato) e il Gipsy (che utilizza l’approccio indifferenziato). L’uso di tre software ha reso indispensabile l’individuazione di una strategia di calcolo comune in grado di garantire che, i dati ancillari e i parametri fisici adottati, non costituiscano fonte di diversificazione tra le soluzioni ottenute. L’analisi di reti di dimensioni nazionali oppure di reti locali per lunghi intervalli di tempo, comporta il processamento di migliaia se non decine di migliaia di file; a ciò si aggiunge che, talora a causa di banali errori, oppure al fine di elaborare test scientifici, spesso risulta necessario reiterare le elaborazioni. Molte risorse sono quindi state investite nella messa a punto di procedure automatiche finalizzate, da un lato alla preparazione degli archivi e dall’altro all’analisi dei risultati e al loro confronto qualora si sia in possesso di più soluzioni. Dette procedure sono state sviluppate elaborando i dataset più significativi messi a disposizione del DISTART (Dipartimento di Ingegneria delle Strutture, dei Trasporti, delle Acque, del Rilevamento del Territorio - Università di Bologna). E’ stato così possibile, al tempo stesso, calcolare la posizione delle stazioni permanenti di alcune importanti reti locali e nazionali e confrontare taluni fra i più importanti codici scientifici che assolvono a tale funzione. Per quanto attiene il confronto fra i diversi software si è verificato che: • le soluzioni ottenute dal Bernese e da Gamit (i due software differenziati) sono sempre in perfetto accordo; • le soluzioni Gipsy (che utilizza il metodo indifferenziato) risultano, quasi sempre, leggermente più disperse rispetto a quelle degli altri software e mostrano talvolta delle apprezzabili differenze numeriche rispetto alle altre soluzioni, soprattutto per quanto attiene la coordinata Est; le differenze sono però contenute in pochi millimetri e le rette che descrivono i trend sono comunque praticamente parallele a quelle degli altri due codici; • il citato bias in Est tra Gipsy e le soluzioni differenziate, è più evidente in presenza di determinate combinazioni Antenna/Radome e sembra essere legato all’uso delle calibrazioni assolute da parte dei diversi software. E’ necessario altresì considerare che Gipsy è sensibilmente più veloce dei codici differenziati e soprattutto che, con la procedura indifferenziata, il file di ciascuna stazione di ciascun giorno, viene elaborato indipendentemente dagli altri, con evidente maggior elasticità di gestione: se si individua un errore strumentale su di una singola stazione o se si decide di aggiungere o togliere una stazione dalla rete, non risulta necessario il ricalcolo dell’intera rete. Insieme alle altre reti è stato possibile analizzare la Rete Dinamica Nazionale (RDN), non solo i 28 giorni che hanno dato luogo alla sua prima definizione, bensì anche ulteriori quattro intervalli temporali di 28 giorni, intercalati di sei mesi e che coprono quindi un intervallo temporale complessivo pari a due anni. Si è così potuto verificare che la RDN può essere utilizzata per l’inserimento in ITRF05 (International Terrestrial Reference Frame) di una qualsiasi rete regionale italiana nonostante l’intervallo temporale ancora limitato. Da un lato sono state stimate le velocità ITRF (puramente indicative e non ufficiali) delle stazioni RDN e, dall’altro, è stata effettuata una prova di inquadramento di una rete regionale in ITRF, tramite RDN, e si è verificato che non si hanno differenze apprezzabili rispetto all’inquadramento in ITRF, tramite un congruo numero di stazioni IGS/EUREF (International GNSS Service / European REference Frame, SubCommission for Europe dello International Association of Geodesy).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Satellite SAR (Synthetic Aperture Radar) interferometry represents a valid technique for digital elevation models (DEM) generation, providing metric accuracy even without ancillary data of good quality. Depending on the situations the interferometric phase could be interpreted both as topography and as a displacement eventually occurred between the two acquisitions. Once that these two components have been separated it is possible to produce a DEM from the first one or a displacement map from the second one. InSAR DEM (Digital Elevation Model) generation in the cryosphere is not a straightforward operation because almost every interferometric pair contains also a displacement component, which, even if small, when interpreted as topography during the phase to height conversion step could introduce huge errors in the final product. Considering a glacier, assuming the linearity of its velocity flux, it is therefore necessary to differentiate at least two pairs in order to isolate the topographic residue only. In case of an ice shelf the displacement component in the interferometric phase is determined not only by the flux of the glacier but also by the different heights of the two tides. As a matter of fact even if the two scenes of the interferometric pair are acquired at the same time of the day only the main terms of the tide disappear in the interferogram, while the other ones, smaller, do not elide themselves completely and so correspond to displacement fringes. Allowing for the availability of tidal gauges (or as an alternative of an accurate tidal model) it is possible to calculate a tidal correction to be applied to the differential interferogram. It is important to be aware that the tidal correction is applicable only knowing the position of the grounding line, which is often a controversial matter. In this thesis it is described the methodology applied for the generation of the DEM of the Drygalski ice tongue in Northern Victoria Land, Antarctica. The displacement has been determined both in an interferometric way and considering the coregistration offsets of the two scenes. A particular attention has been devoted to investigate the importance of the role of some parameters, such as timing annotations and orbits reliability. Results have been validated in a GIS environment by comparison with GPS displacement vectors (displacement map and InSAR DEM) and ICEsat GLAS points (InSAR DEM).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’oggetto della mia ricerca è la società multiculturale e il livello di sviluppo sociale delle comunità minoritarie in Macedonia, rispetto all’attuazione delle politiche e i programmi europei per la stabilizzazione democratica. L’indagine condotta nella mia tesi si è sviluppata esaminando i risultati ottenuti dai programmi CARDS, attuati per soddisfare gli obblighi stabiliti nell’Accordo di Stabilizzazione e Associazione e per l’implementazione dell’Accordo Quadro di Ohrid. Uno dei valori democratici, su cui l’UE è particolarmente attenta, ed al quale ha riservato un posto primario nei programmi CARDS, è la tutela dei diritti delle minoranze ossia il rispetto delle differenze culturali, linguistiche e religiose. L’obiettivo della mia indagine è stato quello di valutare l’impatto delle politiche europee sulla normativa macedone, concernente i diritti delle comunità minoritarie, ovvero il loro effetto sul consolidamento della società multiculturale e sullo status sociale delle comunità minoritarie in Macedonia. A tale scopo, in primo luogo sono stati esaminati gli emendamenti costituzionali e le modifiche legislative introdotti in seguito alla stipulazione dell’Accordo Quadro di Ohrid. L’analisi è stata incentrata nel verificare se la normativa macedone rientra nei parametri della normativa europea. I risultati ottenuti dimostrano quale è il tipo di multiculturalismo che promuove e garantisce la costituzione macedone. Attraverso l’analisi dei rapporti preparati dalla Commissione europea, relativi all’implementazione del Processo di Stabilizzazione e Associazione, è stato dimostrato come le politiche e i programmi europei hanno inciso sul consolidamento della società multiculturale. Analizzando invece i risultati dai rapporti relativi all’implementazione delle disposizioni dell’Accordo Quadro di Ohrid è stato valutato l’impatto che le politiche europee hanno avuto sullo sviluppo sociale delle comunità minoritarie in Macedonia. Per la valutazione di questo ultimo, sono state prese in considerazione il livello di partecipazione politica delle comunità minoritarie, la realizzazione delle richieste e delle questioni legate alla loro particolarità, l’ambito normativo regolato dal diritto di con-decisione, la rappresentanza delle comunità minoritarie nella sfera pubblica, il livello dell’accesso di istruirsi nella propria lingua e quindi il livello di istruzione e l’ambito e la libertà di usare la propria lingua nel settore pubblico. I concetti principali di questa ricerca sono: cooperazione, democrazia, multiculturalismo e sviluppo. Il termine cooperazione usato in questa ricerca si riferisce ai rapporti di cooperazione instaurati tra l’Unione Europea e la Macedonia nell’ambito dell’Accordo di Stabilizzazione e Associazione e dell’Accordo Quadro di Ohrid, ossia il sostegno dell’UE per la stabilizzazione democratica della Macedonia. Riferendosi a questa ultima, si fa riferimento al livello di garanzia di libera partecipazione dei cittadini, in ogni segmento della vita politica, sociale ed economica, senza discriminazioni etniche, linguistiche e religiose. Il termine multiculturalismo si riferisce alla società multiculturale ed è legato alla questione della politica della differenza, ossia del riconoscimento delle differenze culturali, che discendono dall’appartenenza ad una minoranza etnica e linguistica. Il multiculturalismo in questa ricerca viene analizzato, riferendosi alla multiculturalità della società macedone e ai diritti che la Costituzione macedone garantisce alle comunità minoritarie in Macedonia. Infine, per lo sviluppo in questa ricerca si fa riferimento allo sviluppo sociale delle comunità minoritarie, inteso e misurato tramite una seri di indicatori relativi all’occupazione (crescita di capitale sociale), all’educazione (capitale umano e qualifica di alta istruzione), alla partecipazione politica (occupazione dei posti principali nelle istituzione governative e della amministrazione pubblica), alla diffusione della cultura (uso e mantenimento della lingua e delle tradizioni) ecc. Prendendo in considerazione i principali concetti di questa tesi, il quadro teorico della ricerca sviluppa i nodi cruciali del dibattito sullo sviluppo e la democrazia, sul nesso tra democrazia e multiculturalismo e tra multiculturalismo e sviluppo. Attenendosi alle varie tesi, la ricerca avrà lo scopo di rilevare come si conciliano la società multiculturale macedone ed il modello democratico vigente. In questo contesto sarà fatto riferimento alle tesi fanno favoriscono la necessità di iniziare con la democrazia per poter innescare e sostenere il processo di sviluppo, alla tesi che sostiene la necessità di riconoscimento obbligatorio dei diritti collettivi nella società multiculturale, ossia dell’etnosviluppo delle comunità minoritarie. La ricerca è stata condotta tramite i seguenti metodi: - Il metodo descrittivo sarà usato per descrivere cosa è accaduto nel periodo di interesse di ricerca, riguardo i cambiamenti di natura sociale e politica delle minoranze in Macedonia. - Il metodo comparativo sarà applicato nella comparazione dell'efficacia delle leggi relative ai diritti delle minoranze e del loro status di sviluppo sociale e politico, prima e dopo l'attuazione e implementazione delle riforme europee. - Il metodo qualitativo sarà applicato per l’analisi di documenti, della legislatura e dei rapporti europei e nazionali. Le fonti usate in questa ricerca principalmente si basano su: - analisi di documenti e rapporti governativi, rapporti elaborati dalla Commissione Europea, dall’OSCE, dagli organi governativi e dalle organizzazioni non governative. - analisi di letteratura accademica, focalizzata sui problemi che sono oggetto di questa ricerca. - analisi di documenti pubblicati, come la gazzetta ufficiale, leggi costituzionali e atti legislativi, strategie nazionali e statistiche ufficiali. - analisi dei dati ottenuti da interviste e questionari.