82 resultados para elettronica organica,semiconduttori organici,OFET,detector di raggi X,pentacene


Relevância:

30.00% 30.00%

Publicador:

Resumo:

I libretti che Pascoli scrisse in forma di abbozzi e che sognò potessero calcare il palcoscenico di un teatro furono davvero un “melodramma senza musica”. In primo luogo, perché non giunsero mai ad essere vestiti di note e ad arrivare in scena; ma anche perché il tentativo di scrivere per il teatro si tinse per Pascoli di toni davvero melodrammatici, nel senso musicale di sconfitta ed annullamento, tanto da fare di quella pagina della sua vita una piccola tragedia lirica, in cui c’erano tante parole e, purtroppo, nessuna musica. Gli abbozzi dei drammi sono abbastanza numerosi; parte di essi è stata pubblicata postuma da Maria Pascoli.1 Il lavoro di pubblicazione è stato poi completato da Antonio De Lorenzi.2 Ho deciso di analizzare solo quattro di questi abbozzi, che io reputo particolarmente significativi per poter cogliere lo sviluppo del pensiero drammatico e della poetica di Pascoli. I drammi che analizzo sono Nell’Anno Mille (con il rifacimento Il ritorno del giullare), Gretchen’s Tochter (con il rifacimento La figlia di Ghita), Elena Azenor la Morta e Aasvero o Caino nel trivio o l’Ebreo Errante. La prima ragione della scelta risiede nel fatto che questi abbozzi presentano una lunghezza più consistente dell’appunto di uno scheletro di dramma registrato su un foglietto e, quindi, si può seguire attraverso di essi il percorso della vicenda, delle dinamiche dei personaggi e dei significati dell’opera. Inoltre, questi drammi mostrano cosa Pascoli intendesse comporre per sollevare le vesti del libretto d’opera e sono funzionali all’esemplificazione delle sue concezioni teoriche sulla musica e il melodramma, idee che egli aveva espresso nelle lettere ad amici e compositori. In questi quattro drammi è possibile cogliere bene le motivazioni della scelta dei soggetti, il loro significato entro la concezione melodrammatica del poeta, il sistema simbolico che soggiace alla creazione delle vicende e dei personaggi e i legami con la poetica pascoliana. Compiere un’analisi di questo tipo significa per me, innanzitutto, risalire alle concezioni melodrammatiche di Pascoli e capire esattamente cosa egli intendesse per dramma musicale e per rinnovamento dello stesso. Pascoli parla di musica e dei suoi tentativi di scrivere per il teatro lirico nelle lettere ai compositori e, sporadicamente, ad alcuni amici (Emma Corcos, Luigi Rasi, Alfredo Caselli). La ricostruzione del pensiero e dell’estetica musicale di Pascoli ha dovuto quindi legarsi a ricerche d’archivio e di materiali inediti o editi solo in parte e, nella maggioranza dei casi, in pubblicazioni locali o piuttosto datate (i primi anni del Novecento). Quindi, anche in presenza della pubblicazione di parte del materiale necessario, quest’ultimo non è certo facilmente e velocemente consultabile e molto spesso è semi sconosciuto. Le lettere di Pascoli a molti compositori sono edite solo parzialmente; spesso, dopo quei primi anni del Novecento, in cui chi le pubblicò poté vederle presso i diretti possessori, se ne sono perse le tracce. Ho cercato di ricostruire il percorso delle lettere di Pascoli a Giacomo Puccini, Riccardo Zandonai, Giovanni Zagari, Alfredo Cuscinà e Guglielmo Felice Damiani. Si tratta sempre di contatti che Pascoli tenne per motivi musicali, legati alla realizzazione dei suoi drammi. O per le perdite prodotte dalla storia (è il 1 Giovanni Pascoli, Nell’Anno Mille. Sue notizie e schemi da altri drammi, a c. di Maria Pascoli, Bologna, Zanichelli, 1924. 2 Giovanni Pascoli, Testi teatrali inediti, a c. di Antonio De Lorenzi, Ravenna, Longo, 1979. caso delle lettere di Pascoli a Zandonai, che andarono disperse durante la seconda guerra mondiale, come ha ricordato la prof.ssa Tarquinia Zandonai, figlia del compositore) o per l’impossibilità di stabilire contatti quando i possessori dei materiali sono privati e, spesso, collezionisti, questa parte delle mie ricerche è stata vana. Mi è stato possibile, però, ritrovare gli interi carteggi di Pascoli e i due Bossi, Marco Enrico e Renzo. Le lettere di Pascoli ai Bossi, di cui do notizie dettagliate nelle pagine relative ai rapporti con i compositori e all’analisi dell’Anno Mille, hanno permesso di cogliere aspetti ulteriori circa il legame forte e meditato che univa il poeta alla musica e al melodramma. Da queste riflessioni è scaturita la prima parte della tesi, Giovanni Pascoli, i musicisti e la musica. I rapporti tra Pascoli e i musicisti sono già noti grazie soprattutto agli studi di De Lorenzi. Ho sentito il bisogno di ripercorrerli e di darne un aggiornamento alla luce proprio dei nuovi materiali emersi, che, quando non sono gli inediti delle lettere di Pascoli ai Bossi, possono essere testi a stampa di scarsa diffusione e quindi poco conosciuti. Il quadro, vista la vastità numerica e la dispersione delle lettere di Pascoli, può subire naturalmente ancora molti aggiornamenti e modifiche. Quello che ho qui voluto fare è stato dare una trattazione storico-biografica, il più possibile completa ed aggiornata, che vedesse i rapporti tra Pascoli e i musicisti nella loro organica articolazione, come premessa per valutare le posizioni del poeta in campo musicale. Le lettere su cui ho lavorato rientrano tutte nel rapporto culturale e professionale di Pascoli con i musicisti e non toccano aspetti privati e puramente biografici della vita del poeta: sono legate al progetto dei drammi teatrali e, per questo, degne di interesse. A volte, nel passato, alcune di queste pagine sono state lette, soprattutto da giornalisti e non da critici letterari, come un breve aneddoto cronachistico da inserire esclusivamente nel quadro dell’insuccesso del Pascoli teatrale o come un piccolo ragguaglio cronologico, utile alla datazione dei drammi. Ricostruire i rapporti con i musicisti equivale nel presente lavoro a capire quanto tenace e meditato fu l’avvicinarsi di Pascoli al mondo del teatro d’opera, quali furono i mezzi da lui perseguiti e le proposte avanzate; sempre ho voluto e cercato di parlare in termini di materiale documentario e archivistico. Da qui il passo ad analizzare le concezioni musicali di Pascoli è stato breve, dato che queste ultime emergono proprio dalle lettere ai musicisti. L’analisi dei rapporti con i compositori e la trattazione del pensiero di Pascoli in materia di musica e melodramma hanno in comune anche il fatto di avvalersi di ricerche collaterali allo studio della letteratura italiana; ricerche che sconfinano, per forza di cose, nella filosofia, estetica e storia della musica. Non sono una musicologa e non è stata mia intenzione affrontare problematiche per le quali non sono provvista di conoscenze approfonditamente adeguate. Comprendere il panorama musicale di quegli anni e i fermenti che si agitavano nel teatro lirico, con esiti vari e contrapposti, era però imprescindibile per procedere in questo cammino. Non sono pertanto entrata negli anfratti della storia della musica e della musicologia, ma ho compiuto un volo in deltaplano sopra quella terra meravigliosa e sconfinata che è l’opera lirica tra Ottocento e Novecento. Molti consigli, per non smarrirmi in questo volo, mi sono venuti da valenti musicologi ed esperti conoscitori della materia, che ho citato nei ringraziamenti e che sempre ricordo con viva gratitudine. Utile per gli studi e fondamentale per questo mio lavoro è stato riunire tutte le dichiarazioni, da me conosciute finora, fornite da Pascoli sulla musica e il melodramma. Ne emerge quella che è la filosofia pascoliana della musica e la base teorica della scrittura dei suoi drammi. Da questo si comprende bene perché Pascoli desiderasse tanto scrivere per il teatro musicale: egli riteneva che questo fosse il genere perfetto, in cui musica e parola si compenetravano. Così, egli era convinto che la sua arte potesse parlare ed arrivare a un pubblico più vasto. Inoltre e soprattutto, egli intese dare, in questo modo, una precisa risposta a un dibattito europeo sul rinnovamento del melodramma, da lui molto sentito. La scrittura teatrale di Pascoli non è tanto un modo per trovare nuove forme espressive, quanto soprattutto un tentativo di dare il suo contributo personale a un nuovo teatro musicale, di cui, a suo dire, l’umanità aveva bisogno. Era quasi un’urgenza impellente. Le risposte che egli trovò sono in linea con svariate concezioni di quegli anni, sviluppate in particolare dalla Scapigliatura. Il fatto poi che il poeta non riuscisse a trovare un compositore disposto a rischiare fino in fondo, seguendolo nelle sue creazioni di drammi tutti interiori, con scarso peso dato all’azione, non significa che egli fosse una voce isolata o bizzarra nel contesto culturale a lui contemporaneo. Si potranno, anche in futuro, affrontare studi sugli elementi di vicinanza tra Pascoli e alcuni compositori o possibili influenze tra sue poesie e libretti d’opera, ma penso non si potrà mai prescindere da cosa egli effettivamente avesse ascoltato e avesse visto rappresentato. Il che, documenti alla mano, non è molto. Solo ciò a cui possiamo effettivamente risalire come dato certo e provato è valido per dire che Pascoli subì il fascino di questa o di quell’opera. Per questo motivo, si trova qui (al termine del secondo capitolo), per la prima volta, un elenco di quali opere siamo certi Pascoli avesse ascoltato o visto: lo studio è stato possibile grazie ai rulli di cartone perforato per il pianoforte Racca di Pascoli, alle testimonianze della sorella Maria circa le opere liriche che il poeta aveva ascoltato a teatro e alle lettere del poeta. Tutto questo è stato utile per l’interpretazione del pensiero musicale di Pascoli e dei suoi drammi. I quattro abbozzi che ho scelto di analizzare mostrano nel concreto come Pascoli pensasse di attuare la sua idea di dramma e sono quindi interpretati attraverso le sue dichiarazioni di carattere musicale. Mi sono inoltre avvalsa degli autografi dei drammi, conservati a Castelvecchio. In questi abbozzi hanno un ruolo rilevante i modelli che Pascoli stesso aveva citato nelle sue lettere ai compositori: Wagner, Dante, Debussy. Soprattutto, Nell’Anno Mille, il dramma medievale sull’ultima notte del Mille, vede la significativa presenza del dantismo pascoliano, come emerge dai lavori di esegesi della Commedia. Da questo non è immune nemmeno Aasvero o Caino nel trivio o l’Ebreo Errante, che è il compimento della figura di Asvero, già apparsa nella poesia di Pascoli e portatrice di un messaggio di rinascita sociale. I due drammi presentano anche una specifica simbologia, connessa alla figura e al ruolo del poeta. Predominano, invece, in Gretchen’s Tochter e in Elena Azenor la Morta le tematiche legate all’archetipo femminile, elemento ambiguo, materno e infero, ma sempre incaricato di tenere vivo il legame con l’aldilà e con quanto non è direttamente visibile e tangibile. Per Gretchen’s Tochter la visione pascoliana del femminile si innesta sulle fonti del dramma: il Faust di Marlowe, il Faust di Goethe e il Mefistofele di Boito. I quattro abbozzi qui analizzati sono la prova di come Pascoli volesse personificare nel teatro musicale i concetti cardine e i temi dominanti della sua poesia, che sarebbero così giunti al grande pubblico e avrebbero avuto il merito di traghettare l’opera italiana verso le novità già percorse da Wagner. Nel 1906 Pascoli aveva chiaramente compreso che i suoi drammi non sarebbero mai arrivati sulle scene. Molti studi e molti spunti poetici realizzati per gli abbozzi gli restavano inutilizzati tra le mani. Ecco, allora, che buona parte di essi veniva fatta confluire nel poema medievale, in cui si cantano la storia e la cultura italiane attraverso la celebrazione di Bologna, città in cui egli era appena rientrato come professore universitario, dopo avervi già trascorso gli anni della giovinezza da studente. Le Canzoni di Re Enzio possono quindi essere lette come il punto di approdo dell’elaborazione teatrale, come il “melodramma senza musica” che dà il titolo a questo lavoro sul pensiero e l’opera del Pascoli teatrale. Già Cesare Garboli aveva collegato il manierismo con cui sono scritte le Canzoni al teatro musicale europeo e soprattutto a Puccini. Alcuni precisi parallelismi testuali e metrici e l’uso di fonti comuni provano che il legame tra l’abbozzo dell’Anno Mille e le Canzoni di Re Enzio è realmente attivo. Le due opere sono avvicinate anche dalla presenza del sostrato dantesco, tenendo presente che Dante era per Pascoli uno dei modelli a cui guardare proprio per creare il nuovo e perfetto dramma musicale. Importantissimo, infine, è il piccolo schema di un dramma su Ruth, che egli tracciò in una lettera della fine del 1906, a Marco Enrico Bossi. La vicinanza di questo dramma e di alcuni degli episodi principali della Canzone del Paradiso è tanto forte ed evidente da rendere questo abbozzo quasi un cartone preparatorio della Canzone stessa. Il Medioevo bolognese, con il suo re prigioniero, la schiava affrancata e ancella del Sole e il giullare che sulla piazza intona la Chanson de Roland, costituisce il ritorno del dramma nella poesia e l’avvento della poesia nel dramma o, meglio, in quel continuo melodramma senza musica che fu il lungo cammino del Pascoli librettista.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Generic programming is likely to become a new challenge for a critical mass of developers. Therefore, it is crucial to refine the support for generic programming in mainstream Object-Oriented languages — both at the design and at the implementation level — as well as to suggest novel ways to exploit the additional degree of expressiveness made available by genericity. This study is meant to provide a contribution towards bringing Java genericity to a more mature stage with respect to mainstream programming practice, by increasing the effectiveness of its implementation, and by revealing its full expressive power in real world scenario. With respect to the current research setting, the main contribution of the thesis is twofold. First, we propose a revised implementation for Java generics that greatly increases the expressiveness of the Java platform by adding reification support for generic types. Secondly, we show how Java genericity can be leveraged in a real world case-study in the context of the multi-paradigm language integration. Several approaches have been proposed in order to overcome the lack of reification of generic types in the Java programming language. Existing approaches tackle the problem of reification of generic types by defining new translation techniques which would allow for a runtime representation of generics and wildcards. Unfortunately most approaches suffer from several problems: heterogeneous translations are known to be problematic when considering reification of generic methods and wildcards. On the other hand, more sophisticated techniques requiring changes in the Java runtime, supports reified generics through a true language extension (where clauses) so that backward compatibility is compromised. In this thesis we develop a sophisticated type-passing technique for addressing the problem of reification of generic types in the Java programming language; this approach — first pioneered by the so called EGO translator — is here turned into a full-blown solution which reifies generic types inside the Java Virtual Machine (JVM) itself, thus overcoming both performance penalties and compatibility issues of the original EGO translator. Java-Prolog integration Integrating Object-Oriented and declarative programming has been the subject of several researches and corresponding technologies. Such proposals come in two flavours, either attempting at joining the two paradigms, or simply providing an interface library for accessing Prolog declarative features from a mainstream Object-Oriented languages such as Java. Both solutions have however drawbacks: in the case of hybrid languages featuring both Object-Oriented and logic traits, such resulting language is typically too complex, thus making mainstream application development an harder task; in the case of library-based integration approaches there is no true language integration, and some “boilerplate code” has to be implemented to fix the paradigm mismatch. In this thesis we develop a framework called PatJ which promotes seamless exploitation of Prolog programming in Java. A sophisticated usage of generics/wildcards allows to define a precise mapping between Object-Oriented and declarative features. PatJ defines a hierarchy of classes where the bidirectional semantics of Prolog terms is modelled directly at the level of the Java generic type-system.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this PhD-thesis new synthetic approaches towards new azetidinone derivatives are described. In particular, 4-alkyliden-β-lactams were used as starting materials for the preparation of new biologically active compounds. The carbapenem Thienamycin has got a broad spectrum of activity as antibiotic. It has got 3 stereocenters and apart of one epimer, all isomers have been synthesized. Using the 4-alkyliden-β-lactam benzilyc ester as precursor, we developed a synthesis for this missing epimer, which is described in chapter II. Biological tests in order to establish its biological activity are under way. The Hunsdiecker-Borodine reaction was extensively studied for the preparation of the mono halogenated and – surprisingly – the dihalogenated derivative from the 4-alkyliden-azetidinone carboxylic acid. The herein described synthetic procedures allowed the preparation of chloro-, bromo- and iodo derivatives in good to excellent yield. Furthermore, the reaction mechanism was investigated by NMR-experiments and is described in detail in chapter III. In chapter IV, synthetic approaches towards new β-lactam derivatives for inhibition of the histone deacetylase enzymes (HDACs) are reported. In collaboration with the company Sigma-Tau (Rome), 14 new β-lactams were synthesized. The new β-lactams were evaluated for the activity showing a promising activityparticulary, 10 of the β-lactams synthesized were evaluated for the in vitro inhibitory activity against the 11 human HDACs isoforms and they showed a selective inhibition of HDAC6 or HDAC8 in micromolar range. Finally, preliminary studies were conducted for the employment of 4-alkyliden-β-lactams as precursors for the synthesis of chiral β-amino acids by an opening of the β-lactam ring. In chapter V is described the ring opening reaction catalyzed by the enzyme lipase Cal-B. Preliminary results have shown that the enzyme not only catalyzes the ring opening of the β-lactam precursor, moreover, it leads to the formation of a cyclic dimer by the reaction of two molecules of β-amino acid obtained.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Data coming out from various researches carried out over the last years in Italy on the problem of school dispersion in secondary school show that difficulty in studying mathematics is one of the most frequent reasons of discomfort reported by students. Nevertheless, it is definitely unrealistic to think we can do without such knowledge in today society: mathematics is largely taught in secondary school and it is not confined within technical-scientific courses only. It is reasonable to say that, although students may choose academic courses that are, apparently, far away from mathematics, all students will have to come to terms, sooner or later in their life, with this subject. Among the reasons of discomfort given by the study of mathematics, some mention the very nature of this subject and in particular the complex symbolic language through which it is expressed. In fact, mathematics is a multimodal system composed by oral and written verbal texts, symbol expressions, such as formulae and equations, figures and graphs. For this, the study of mathematics represents a real challenge to those who suffer from dyslexia: this is a constitutional condition limiting people performances in relation to the activities of reading and writing and, in particular, to the study of mathematical contents. Here the difficulties in working with verbal and symbolic codes entail, in turn, difficulties in the comprehension of texts from which to deduce operations that, once combined together, would lead to the problem final solution. Information technologies may support this learning disorder effectively. However, these tools have some implementation limits, restricting their use in the study of scientific subjects. Vocal synthesis word processors are currently used to compensate difficulties in reading within the area of classical studies, but they are not used within the area of mathematics. This is because the vocal synthesis (or we should say the screen reader supporting it) is not able to interpret all that is not textual, such as symbols, images and graphs. The DISMATH software, which is the subject of this project, would allow dyslexic users to read technical-scientific documents with the help of a vocal synthesis, to understand the spatial structure of formulae and matrixes, to write documents with a technical-scientific content in a format that is compatible with main scientific editors. The system uses LaTex, a text mathematic language, as mediation system. It is set up as LaTex editor, whose graphic interface, in line with main commercial products, offers some additional specific functions with the capability to support the needs of users who are not able to manage verbal and symbolic codes on their own. LaTex is translated in real time into a standard symbolic language and it is read by vocal synthesis in natural language, in order to increase, through the bimodal representation, the ability to process information. The understanding of the mathematic formula through its reading is made possible by the deconstruction of the formula itself and its “tree” representation, so allowing to identify the logical elements composing it. Users, even without knowing LaTex language, are able to write whatever scientific document they need: in fact the symbolic elements are recalled by proper menus and automatically translated by the software managing the correct syntax. The final aim of the project, therefore, is to implement an editor enabling dyslexic people (but not only them) to manage mathematic formulae effectively, through the integration of different software tools, so allowing a better teacher/learner interaction too.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The ALICE experiment at the LHC has been designed to cope with the experimental conditions and observables of a Quark Gluon Plasma reaction. One of the main assets of the ALICE experiment with respect to the other LHC experiments is the particle identification. The large Time-Of-Flight (TOF) detector is the main particle identification detector of the ALICE experiment. The overall time resolution, better that 80 ps, allows the particle identification over a large momentum range (up to 2.5 GeV/c for pi/K and 4 GeV/c for K/p). The TOF makes use of the Multi-gap Resistive Plate Chamber (MRPC), a detector with high efficiency, fast response and intrinsic time resoltion better than 40 ps. The TOF detector embeds a highly-segmented trigger system that exploits the fast rise time and the relatively low noise of the MRPC strips, in order to identify several event topologies. This work aims to provide detailed description of the TOF trigger system. The results achieved in the 2009 cosmic-ray run at CERN are presented to show the performances and readiness of TOF trigger system. The proposed trigger configuration for the proton-proton and Pb-Pb beams are detailed as well with estimates of the efficiencies and purity samples.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I continui sviluppi nel campo della fabbricazione dei circuiti integrati hanno comportato frequenti travolgimenti nel design, nell’implementazione e nella scalabilità dei device elettronici, così come nel modo di utilizzarli. Anche se la legge di Moore ha anticipato e caratterizzato questo trend nelle ultime decadi, essa stessa si trova a fronteggiare attualmente enormi limitazioni, superabili solo attraverso un diverso approccio nella produzione di chip, consistente in pratica nella sovrapposizione verticale di diversi strati collegati elettricamente attraverso speciali vias. Sul singolo strato, le network on chip sono state suggerite per ovviare le profonde limitazioni dovute allo scaling di strutture di comunicazione condivise. Questa tesi si colloca principalmente nel contesto delle nascenti piattaforme multicore ad alte prestazioni basate sulle 3D NoC, in cui la network on chip viene estesa nelle 3 direzioni. L’obiettivo di questo lavoro è quello di fornire una serie di strumenti e tecniche per poter costruire e aratterizzare una piattaforma tridimensionale, cosi come dimostrato nella realizzazione del testchip 3D NOC fabbricato presso la fonderia IMEC. Il primo contributo è costituito sia una accurata caratterizzazione delle interconnessioni verticali (TSVs) (ovvero delle speciali vias che attraversano l’intero substrato del die), sia dalla caratterizzazione dei router 3D (in cui una o più porte sono estese nella direzione verticale) ed infine dal setup di un design flow 3D utilizzando interamente CAD 2D. Questo primo step ci ha permesso di effettuare delle analisi dettagliate sia sul costo sia sulle varie implicazioni. Il secondo contributo è costituito dallo sviluppo di alcuni blocchi funzionali necessari per garantire il corretto funziomento della 3D NoC, in presenza sia di guasti nelle TSVs (fault tolerant links) che di deriva termica nei vari clock tree dei vari die (alberi di clock indipendenti). Questo secondo contributo è costituito dallo sviluppo delle seguenti soluzioni circuitali: 3D fault tolerant link, Look Up Table riconfigurabili e un sicnronizzatore mesocrono. Il primo è costituito fondamentalmente un bus verticale equipaggiato con delle TSV di riserva da utilizzare per rimpiazzare le vias guaste, più la logica di controllo per effettuare il test e la riconfigurazione. Il secondo è rappresentato da una Look Up Table riconfigurabile, ad alte prestazioni e dal costo contenuto, necesaria per bilanciare sia il traffico nella NoC che per bypassare link non riparabili. Infine la terza soluzione circuitale è rappresentata da un sincronizzatore mesocrono necessario per garantire la sincronizzazione nel trasferimento dati da un layer and un altro nelle 3D Noc. Il terzo contributo di questa tesi è dato dalla realizzazione di un interfaccia multicore per memorie 3D (stacked 3D DRAM) ad alte prestazioni, e dall’esplorazione architetturale dei benefici e del costo di questo nuovo sistema in cui il la memoria principale non è piu il collo di bottiglia dell’intero sistema. Il quarto ed ultimo contributo è rappresentato dalla realizzazione di un 3D NoC test chip presso la fonderia IMEC, e di un circuito full custom per la caratterizzazione della variability dei parametri RC delle interconnessioni verticali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The term Ambient Intelligence (AmI) refers to a vision on the future of the information society where smart, electronic environment are sensitive and responsive to the presence of people and their activities (Context awareness). In an ambient intelligence world, devices work in concert to support people in carrying out their everyday life activities, tasks and rituals in an easy, natural way using information and intelligence that is hidden in the network connecting these devices. This promotes the creation of pervasive environments improving the quality of life of the occupants and enhancing the human experience. AmI stems from the convergence of three key technologies: ubiquitous computing, ubiquitous communication and natural interfaces. Ambient intelligent systems are heterogeneous and require an excellent cooperation between several hardware/software technologies and disciplines, including signal processing, networking and protocols, embedded systems, information management, and distributed algorithms. Since a large amount of fixed and mobile sensors embedded is deployed into the environment, the Wireless Sensor Networks is one of the most relevant enabling technologies for AmI. WSN are complex systems made up of a number of sensor nodes which can be deployed in a target area to sense physical phenomena and communicate with other nodes and base stations. These simple devices typically embed a low power computational unit (microcontrollers, FPGAs etc.), a wireless communication unit, one or more sensors and a some form of energy supply (either batteries or energy scavenger modules). WNS promises of revolutionizing the interactions between the real physical worlds and human beings. Low-cost, low-computational power, low energy consumption and small size are characteristics that must be taken into consideration when designing and dealing with WSNs. To fully exploit the potential of distributed sensing approaches, a set of challengesmust be addressed. Sensor nodes are inherently resource-constrained systems with very low power consumption and small size requirements which enables than to reduce the interference on the physical phenomena sensed and to allow easy and low-cost deployment. They have limited processing speed,storage capacity and communication bandwidth that must be efficiently used to increase the degree of local ”understanding” of the observed phenomena. A particular case of sensor nodes are video sensors. This topic holds strong interest for a wide range of contexts such as military, security, robotics and most recently consumer applications. Vision sensors are extremely effective for medium to long-range sensing because vision provides rich information to human operators. However, image sensors generate a huge amount of data, whichmust be heavily processed before it is transmitted due to the scarce bandwidth capability of radio interfaces. In particular, in video-surveillance, it has been shown that source-side compression is mandatory due to limited bandwidth and delay constraints. Moreover, there is an ample opportunity for performing higher-level processing functions, such as object recognition that has the potential to drastically reduce the required bandwidth (e.g. by transmitting compressed images only when something ‘interesting‘ is detected). The energy cost of image processing must however be carefully minimized. Imaging could play and plays an important role in sensing devices for ambient intelligence. Computer vision can for instance be used for recognising persons and objects and recognising behaviour such as illness and rioting. Having a wireless camera as a camera mote opens the way for distributed scene analysis. More eyes see more than one and a camera system that can observe a scene from multiple directions would be able to overcome occlusion problems and could describe objects in their true 3D appearance. In real-time, these approaches are a recently opened field of research. In this thesis we pay attention to the realities of hardware/software technologies and the design needed to realize systems for distributed monitoring, attempting to propose solutions on open issues and filling the gap between AmI scenarios and hardware reality. The physical implementation of an individual wireless node is constrained by three important metrics which are outlined below. Despite that the design of the sensor network and its sensor nodes is strictly application dependent, a number of constraints should almost always be considered. Among them: • Small form factor to reduce nodes intrusiveness. • Low power consumption to reduce battery size and to extend nodes lifetime. • Low cost for a widespread diffusion. These limitations typically result in the adoption of low power, low cost devices such as low powermicrocontrollers with few kilobytes of RAMand tenth of kilobytes of program memory with whomonly simple data processing algorithms can be implemented. However the overall computational power of the WNS can be very large since the network presents a high degree of parallelism that can be exploited through the adoption of ad-hoc techniques. Furthermore through the fusion of information from the dense mesh of sensors even complex phenomena can be monitored. In this dissertation we present our results in building several AmI applications suitable for a WSN implementation. The work can be divided into two main areas:Low Power Video Sensor Node and Video Processing Alghoritm and Multimodal Surveillance . Low Power Video Sensor Nodes and Video Processing Alghoritms In comparison to scalar sensors, such as temperature, pressure, humidity, velocity, and acceleration sensors, vision sensors generate much higher bandwidth data due to the two-dimensional nature of their pixel array. We have tackled all the constraints listed above and have proposed solutions to overcome the current WSNlimits for Video sensor node. We have designed and developed wireless video sensor nodes focusing on the small size and the flexibility of reuse in different applications. The video nodes target a different design point: the portability (on-board power supply, wireless communication), a scanty power budget (500mW),while still providing a prominent level of intelligence, namely sophisticated classification algorithmand high level of reconfigurability. We developed two different video sensor node: The device architecture of the first one is based on a low-cost low-power FPGA+microcontroller system-on-chip. The second one is based on ARM9 processor. Both systems designed within the above mentioned power envelope could operate in a continuous fashion with Li-Polymer battery pack and solar panel. Novel low power low cost video sensor nodes which, in contrast to sensors that just watch the world, are capable of comprehending the perceived information in order to interpret it locally, are presented. Featuring such intelligence, these nodes would be able to cope with such tasks as recognition of unattended bags in airports, persons carrying potentially dangerous objects, etc.,which normally require a human operator. Vision algorithms for object detection, acquisition like human detection with Support Vector Machine (SVM) classification and abandoned/removed object detection are implemented, described and illustrated on real world data. Multimodal surveillance: In several setup the use of wired video cameras may not be possible. For this reason building an energy efficient wireless vision network for monitoring and surveillance is one of the major efforts in the sensor network community. Energy efficiency for wireless smart camera networks is one of the major efforts in distributed monitoring and surveillance community. For this reason, building an energy efficient wireless vision network for monitoring and surveillance is one of the major efforts in the sensor network community. The Pyroelectric Infra-Red (PIR) sensors have been used to extend the lifetime of a solar-powered video sensor node by providing an energy level dependent trigger to the video camera and the wireless module. Such approach has shown to be able to extend node lifetime and possibly result in continuous operation of the node.Being low-cost, passive (thus low-power) and presenting a limited form factor, PIR sensors are well suited for WSN applications. Moreover techniques to have aggressive power management policies are essential for achieving long-termoperating on standalone distributed cameras needed to improve the power consumption. We have used an adaptive controller like Model Predictive Control (MPC) to help the system to improve the performances outperforming naive power management policies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La misura della luminosità è un obiettivo importante per tutta la fisica del modello standard e per la scoperta di nuova fisica, poiché è legata alla sezione d'urto (σ) e al rate di produzione (R) di un determinato processo dalla relazione L = R*σ. Nell'eserimento ATLAS a LHC è installato un monitor di luminosità dedicato chiamato LUCID (Luminosity measurements Using Cherenkov Integrating Detector). Grazie ai dati acquisiti durante il 2010 la valutazione off-line delle performances del LUCID e l'implementazione di controlli on-line sulla qualità dei dati raccolti è stata possibile. I dati reali sono stati confrontati con i dati Monte Carlo e le simulazioni sono state opportunamente aggiustate per ottimizzare l'accordo tra i due. La calibrazione della luminosità relativa che permette di ottenere una valutazione della luminosità assoluta è stata possibile grazie ai cosiddetti Van der Meer scan, grazie ai quale è stata ottenuta una precisione dell'11%. L'analisi della fisica del decadimento della Z è in tuttora in corso per ottenere tramite il rate a cui avviene il processo una normalizzazione della luminosità con una precisione migliore del 5%.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Design parameters, process flows, electro-thermal-fluidic simulations and experimental characterizations of Micro-Electro-Mechanical-Systems (MEMS) suited for gas-chromatographic (GC) applications are presented and thoroughly described in this thesis, whose topic belongs to the research activities the Institute for Microelectronics and Microsystems (IMM)-Bologna is involved since several years, i.e. the development of micro-systems for chemical analysis, based on silicon micro-machining techniques and able to perform analysis of complex gaseous mixtures, especially in the field of environmental monitoring. In this regard, attention has been focused on the development of micro-fabricated devices to be employed in a portable mini-GC system for the analysis of aromatic Volatile Organic Compounds (VOC) like Benzene, Toluene, Ethyl-benzene and Xylene (BTEX), i.e. chemical compounds which can significantly affect environment and human health because of their demonstrated carcinogenicity (benzene) or toxicity (toluene, xylene) even at parts per billion (ppb) concentrations. The most significant results achieved through the laboratory functional characterization of the mini-GC system have been reported, together with in-field analysis results carried out in a station of the Bologna air monitoring network and compared with those provided by a commercial GC system. The development of more advanced prototypes of micro-fabricated devices specifically suited for FAST-GC have been also presented (silicon capillary columns, Ultra-Low-Power (ULP) Metal OXide (MOX) sensor, Thermal Conductivity Detector (TCD)), together with the technological processes for their fabrication. The experimentally demonstrated very high sensitivity of ULP-MOX sensors to VOCs, coupled with the extremely low power consumption, makes the developed ULP-MOX sensor the most performing metal oxide sensor reported up to now in literature, while preliminary test results proved that the developed silicon capillary columns are capable of performances comparable to those of the best fused silica capillary columns. Finally, the development and the validation of a coupled electro-thermal Finite Element Model suited for both steady-state and transient analysis of the micro-devices has been described, and subsequently implemented with a fluidic part to investigate devices behaviour in presence of a gas flowing with certain volumetric flow rates.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The transition metal-catalyzed allylic alkylation (Tsuji-Trost type reaction) is a powerful tool for C-C, C-N, and C-O bond formation, which has been widely applied to organic chemistry over the last decades. Typical substrates for this transformation are activated allylic compounds such as halides, esters, carbonates, carbamates, phosphates, and so on. However, use of these substrates is associated with the disadvantage of generating a stoichiometric amount of chemical waste. Furthermore, these starting materials have to be prepared in an extra step from the corresponding allylic alcohol. Thus, ideal substrates would be the allylic alcohols themselves, with water being the only byproduct in this case. However, the scarse propensity of the hydroxyl moiety to act as good leaving group has significantly limited their use so far. During the last decade significant efforts have been made in order to develop more atom-economical and environmentally-friendly allylic alkylation protocols by employing allylic alcohols directly. In this PhD dissertation two main projects addressing this topic are presented. “Project 1” deals with the development of new metal-catalyzed intramolecular Friedel-Crafts (FC) allylic alkylations of electron-rich (PAPER A), as well as challenging electron-poor arenes (PAPER B) with alcohols. In “Project 2”, gold(I)-catalyzed intramolecular and stereoselective allylic alkylation reactions are reported. In particular, a FC alkylation of indole-containing allylic alcohols is presented in PAPER C. While, an O-alkylation of aminol-containing allylic alcohols is reported in PAPER D. To the best of knowledge, these reports represent the first example of gold(I)-catalyzed stereoselective alkylations with alcohols.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The present work describes the development of a new body-counter system based on HPGe detectors and installed at IVM of KIT. The goal, achieved, was the improvement of the ability to detect internal contaminations in the human body, especially the ones concerning low-energy emitters and multiple nuclides. The development of the system started with the characterisation of detectors purchased for this specific task, with the optimisation of the different desired measurement configurations following and ending with the installation and check of the results. A new software has been developed to handle the new detectors.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The atmospheric muon charge ratio, defined as the number of positive over negative charged muons, is an interesting quantity for the study of high energy hadronic interactions in atmosphere and the nature of the primary cosmic rays. The measurement of the charge ratio in the TeV muon energy range allows to study the hadronic interactions in kinematic regions not yet explored at accelerators. The OPERA experiment is a hybrid electronic detector/emulsion apparatus, located in the underground Gran Sasso Laboratory, at an average depth of 3800 meters water equivalent (m.w.e.). OPERA is the first large magnetized detector that can measure the muon charge ratio at the LNGS depth, with a wide acceptance for cosmic ray muons coming from above. In this thesis, the muon charge ratio is measured using the spectrometers of the OPERA detector in the highest energy region. The charge ratio was computed separately for single and for multiple muon events, in order to select different primary cosmic ray samples in energy and composition. The measurement as a function of the surface muon energy is used to infer parameters characterizing the particle production in atmosphere, that will be used to constrain Monte Carlo predictions. Finally, the experimental results are interpreted in terms of cosmic ray and particle physics models.