166 resultados para memorie di massa, memorie secondarie, dati digitali, hard disk


Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis deals with the synthesis and the conformation analysis of hybrid foldamers containing the 4-carboxyoxazolidin-2-one unit or related molecules, in which an imido-type function is obtained by coupling the nitrogen of the heterocycle with the carboxylic acid moiety of the next unit. The imide group is characterized by a nitrogen atom connected to an endocyclic and an exocyclic carbonyl, which tend always to adopt the trans conformation. As a consequence of this locally constrained disposition effect, these imide-type oligomers are forced to fold in ordered conformations. The synthetic approach is highly tuneable with endless variations, so, simply by changing the design and the synthesis, a wide variety of foldamers with the required properties may be prepared “on demand”. Thus a wide variety of unusual secondary structures and interesting supramolecular materials may be obtained with hybrid foldamers. The behaviour in the solid state of some of these compounds has been analyzed in detail, thus showing the formation of different kinds of supramolecular materials that may be used for several applications. A winning example is the production of a bolaamphiphilic gelators that may also be doped with small amounts of dansyl containing compounds, needed to show the cellular uptake into IGROV-1 cells, by confocal laser scanning microscopy. These gels are readily internalized by cells and are biologically inactive, making them very good candidates in the promising field of drug delivery. In the last part of the thesis, a particular attention was directed to the search of new scaffolds that behave as constrained amino acid mimetics, showing that tetramic acids derivatives could be good candidates for the synthesis and applications of molecules having an ordered secondary structure.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ultrasound imaging is widely used in medical diagnostics as it is the fastest, least invasive, and least expensive imaging modality. However, ultrasound images are intrinsically difficult to be interpreted. In this scenario, Computer Aided Detection (CAD) systems can be used to support physicians during diagnosis providing them a second opinion. This thesis discusses efficient ultrasound processing techniques for computer aided medical diagnostics, focusing on two major topics: (i) Ultrasound Tissue Characterization (UTC), aimed at characterizing and differentiating between healthy and diseased tissue; (ii) Ultrasound Image Segmentation (UIS), aimed at detecting the boundaries of anatomical structures to automatically measure organ dimensions and compute clinically relevant functional indices. Research on UTC produced a CAD tool for Prostate Cancer detection to improve the biopsy protocol. In particular, this thesis contributes with: (i) the development of a robust classification system; (ii) the exploitation of parallel computing on GPU for real-time performance; (iii) the introduction of both an innovative Semi-Supervised Learning algorithm and a novel supervised/semi-supervised learning scheme for CAD system training that improve system performance reducing data collection effort and avoiding collected data wasting. The tool provides physicians a risk map highlighting suspect tissue areas, allowing them to perform a lesion-directed biopsy. Clinical validation demonstrated the system validity as a diagnostic support tool and its effectiveness at reducing the number of biopsy cores requested for an accurate diagnosis. For UIS the research developed a heart disease diagnostic tool based on Real-Time 3D Echocardiography. Thesis contributions to this application are: (i) the development of an automated GPU based level-set segmentation framework for 3D images; (ii) the application of this framework to the myocardium segmentation. Experimental results showed the high efficiency and flexibility of the proposed framework. Its effectiveness as a tool for quantitative analysis of 3D cardiac morphology and function was demonstrated through clinical validation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca ha preso in esame l’analisi archeologica di un territorio medievale e la sperimentazione di strumenti informatici per la gestione e l’analisi dei dati prodotti dalla ricerca stessa. Il Montalbano, oggetto della ricerca, è una microregione caratterizzata da elementi che la rendono molto interessante. Si tratta di una catena submontana che divide la piana di Firenze-Prato-Pistoia dal Valdarno inferiore. Questa posizione di frontiera ne ha fatto l’oggetto di mire espansionistiche da parte delle principali famiglie signorili prima, dei comuni poi. In una prima fase sono stati censiti i siti attestati dalle fonti documentarie e materiali per capire le dinamiche insediative del popolamento medievale e le strategie di controllo di un territorio caratterizzato dall’assenza di un’egemonia da parte di un solo potere (almeno fino a metà ‘300). L’analisi stratigrafica si è poi concentrata sulle strutture architettoniche religiose, in quanto offrono la maggior quantità di dati dal punto di vista documentario e archeologico. È stato così possibile ottenere un quadro delle tecniche costruttive medievali e delle influenze culturali che lo hanno prodotto. I dati archeologici sono stati gestiti attraverso una piattaforma gis sviluppata all’interno del Laboratorio di Archeologia Medievale dell’Università di Firenze in collaborazione con il laboratorio LSIS del CNRS di Marsiglia. Questa è stata appositamente strutturata secondo le procedure di raccolta e organizzazione dati utilizzate durante l’analisi archeologica. Le singole strutture indagate sono inoltre state oggetto di un rilievo 3d fotogrammetrico che in alcuni casi studio è stato anche utilizzato come base di accesso ai dati derivanti dall’analisi stratigrafica, all’interno di un’applicazione gis 3d (Arpenteur). Questo ha permesso di connettere all’interno di un’unica piattaforma i dati geometrici ed archeometrici con quelli archeologici, utilizzando i primi come interfaccia di accesso ai secondi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca pone al centro dell’indagine lo studio dell’importanza del cibo nelle cerimonie nuziali dell’Europa occidentale nei secoli V-XI. Il corpus di fonti utilizzate comprende testi di genere diverso: cronache, annali, agiografie, testi legislativi, a cui si è aggiunta un’approfondita analisi delle antiche saghe islandesi. Dopo un'introduzione dedicata in particolare alla questione della pubblicità della celebrazione, la ricerca si muove verso lo studio del matrimonio come “processo” sulla base della ritualità alimentare: i brindisi e i banchetti con cui si sigla l’accordo di fidanzamento e i ripetuti convivi allestiti per celebrare le nozze. Si pone attenzione anche ad alcuni aspetti trasversali, come lo studio del caso della “letteratura del fidanzamento bevuto”, ossia una tradizione di testi letterari in cui il fidanzamento tra i protagonisti viene sempre ratificato con un brindisi; a questo si aggiunge un’analisi di stampo antropologico della "cultura dell’eccesso", tipica dei rituali alimentari nuziali nel Medioevo, in contrasto con la contemporanea "cultura del risparmio". L'analisi si concentra anche sulle reiterate proibizioni al clero, da parte della Chiesa, di partecipare a banchetti e feste nuziali, tratto comune di tutta l’epoca altomedievale. Infine, la parte conclusiva della ricerca è incentrata sulla ricezione altomedievale di due figure bibliche che pongono al centro della narrazione un banchetto nuziale: la parabola delle nozze e il banchetto di Cana. L’insistente presenza di questi due brani nelle parole dei commentatori biblici mostra la straordinaria efficacia del “linguaggio alimentare”, ossia di un codice linguistico basato sul cibo (e su contesti quali l’agricoltura, la pesca, ecc.) come strumento di comunicazione sociale di massa con una valenza antropologica essenzialmente universale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli anni Ottanta si assiste tanto nel vecchio quanto nel nuovo continente alla rinascita del movimento antinucleare. Mentre in Europa l’origine di questa ondata di proteste antinucleari è collegata alla “doppia decisione” NATO del 1979, negli Stati Uniti la genesi si colloca nel contesto dalla mobilitazione dei gruppi ambientalisti in seguito all’incidente alla centrale nucleare di Three Mile Island. Dopo l’elezione di Ronald Reagan, alle proteste contro le applicazioni pacifiche dell’atomo si affiancarono quelle contro la politica nucleare del Paese. La retorica di Reagan, il massiccio piano di riarmo, unitamente al rinnovato deteriorarsi delle relazioni tra USA e URSS contribuirono a diffondere nell’opinione pubblica la sensazione che l’amministrazione Reagan, almeno da un punto di vista teorico, non avesse escluso dalle sue opzioni il ricorso alle armi nucleari nel caso di un confronto con l’URSS. I timori legati a questa percezione produssero una nuova ondata di proteste che assunsero dimensioni di massa grazie alla mobilitazione provocata dalla Nuclear Weapons Freeze Campaign (NWFC). Il target della NWFC era l’ampio programma di riarmo nucleare sostenuto da Reagan, che secondo gli attivisti nucleari, in un quadro di crescenti tensioni internazionali, avrebbe fatto aumentare le possibilità di uno scontro atomico. Per evitare lo scenario dell’olocausto nucleare, la NWFC proponeva «un congelamento bilaterale e verificabile del collaudo, dell’installazione e della produzione di armi nucleari». L’idea del nuclear freeze, che era concepito come un passo per fermare la spirale del riarmo e tentare successivamente di negoziare riduzioni negli arsenali delle due superpotenze, riscosse un tale consenso nell’opinione pubblica americana da indurre l’amministrazione Reagan a formulare una risposta specifica. Durante la primavera del 1982 fu, infatti, creato un gruppo interdipartimentale ad hoc, l’Arms Control Information Policy Group, con il compito di arginare l’influenza della NWFC sull’opinione pubblica americana e formulare una risposta coerente alle critiche del movimento antinucleare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca si è focalizzata su due degli aspetti di interesse odontoiatrico più diffusi: la carie dentaria e la parodontite cronica. Il problema della carie dentaria è stato studiato in una popolazione di 39 soggetti affetti da cardiopatia congenita in cui la scarsa igiene orale è fattore di rischio per problematiche di salute generale e soprattutto per lo sviluppo di endocardite infettiva. I dati osservati e confrontati con quelli di un omogeneo gruppo di controllo dimostrano che nella dentatura decidua questi bambini hanno più denti cariati, come dimostrato dalla significativa differenza dell'indice dmft. Nella dentatura permanente non si osservano differenze tra i due gruppi. La carica microbica totale rilevata nella saliva e la presenza di Streptococcus mutans non mostrano differenze tra i due gruppi. I problemi di parodontite cronica sono stati studiati in un gruppo di 352 soggetti italiani adulti in cui si è definita la prevalenza dei 6 più importanti patogeni parodontali e la possibile correlazione con parametri clinici (pus, sanguinamento al sondaggio - BOP, profondidi sondaggio della tasca parodontale – PPD). Tra le 6 specie batteriche ricercate, quello di più frequente riscontro è stato Fusobacterium nucleatum (95%), mentre quello con carica batterica più alta è stato Tannerella forsythia. La carica batterica di Porphyromonas gingivalis, Treponema denticola, Tannerella forsythia e Fusobacterium nucleatum ha mostrato una correlazione diretta con il BOP e la presenza di pus. Inoltre, si è riscontrato che la carica batterica di tutte le specie (tranne Aggregatibacterium actinomycetemcomitans) aumenta all'aumentare del PPD. Tra le variabili studiate, PPD rappresenta il più importante fattore di rischio per la presenza di parodontopatogeni, mentre BOP è un indicatore di rischio per la ricerca del complesso rosso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The aim of this work is to present various aspects of numerical simulation of particle and radiation transport for industrial and environmental protection applications, to enable the analysis of complex physical processes in a fast, reliable, and efficient way. In the first part we deal with speed-up of numerical simulation of neutron transport for nuclear reactor core analysis. The convergence properties of the source iteration scheme of the Method of Characteristics applied to be heterogeneous structured geometries has been enhanced by means of Boundary Projection Acceleration, enabling the study of 2D and 3D geometries with transport theory without spatial homogenization. The computational performances have been verified with the C5G7 2D and 3D benchmarks, showing a sensible reduction of iterations and CPU time. The second part is devoted to the study of temperature-dependent elastic scattering of neutrons for heavy isotopes near to the thermal zone. A numerical computation of the Doppler convolution of the elastic scattering kernel based on the gas model is presented, for a general energy dependent cross section and scattering law in the center of mass system. The range of integration has been optimized employing a numerical cutoff, allowing a faster numerical evaluation of the convolution integral. Legendre moments of the transfer kernel are subsequently obtained by direct quadrature and a numerical analysis of the convergence is presented. In the third part we focus our attention to remote sensing applications of radiative transfer employed to investigate the Earth's cryosphere. The photon transport equation is applied to simulate reflectivity of glaciers varying the age of the layer of snow or ice, its thickness, the presence or not other underlying layers, the degree of dust included in the snow, creating a framework able to decipher spectral signals collected by orbiting detectors.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente studio si colloca nell’ambito di una ricerca il cui obiettivo è la formulazione di criteri progettuali finalizzati alla ottimizzazione delle prestazioni energetiche delle cantine di aziende vitivinicole con dimensioni produttive medio-piccole. Nello specifico la ricerca si pone l’obiettivo di individuare degli indicatori che possano valutare l’influenza che le principali variabili progettuali hanno sul fabbisogno energetico dell’edificio e sull’andamento delle temperature all’interno dei locali di conservazione ed invecchiamento del vino. Tali indicatori forniscono informazioni sulla prestazione energetica dell’edificio e sull’idoneità dei locali non climatizzati finalizzata alla conservazione del vino Essendo la progettazione una complessa attività multidisciplinare, la ricerca ha previsto l’ideazione di un programma di calcolo in grado di gestire ed elaborare dati provenienti da diversi ambiti (ingegneristici, architettonici, delle produzioni agroindustriali, ecc.), e di restituire risultati sintetici attraverso indicatori allo scopo individuati. Il programma è stato applicato su un caso-studio aziendale rappresentativo del settore produttivo. Sono stati vagliati gli effetti di due modalità di vendemmia e di quattro soluzioni architettoniche differenti. Le soluzioni edilizie derivano dalla combinazione di diversi isolamenti termici e dalla presenza o meno di locali interrati. Per le analisi sul caso-studio ci si è avvalsi di simulazioni energetiche in regime dinamico, supportate e validate da campagne di monitoraggio termico e meteorologico all’interno dell’azienda oggetto di studio. I risultati ottenuti hanno evidenziato come il programma di calcolo concepito nell’ambito di questo studio individui le criticità dell’edificio in termini energetici e di “benessere termico” del vino e consenta una iterativa revisione delle variabili progettuale indagate. Esso quindi risulta essere uno strumento informatizzato di valutazione a supporto della progettazione, finalizzato ad una ottimizzazione del processo progettuale in grado di coniugare, in maniera integrata, gli obiettivi della qualità del prodotto, della efficienza produttiva e della sostenibilità economica ed ambientale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Quando si parla di traduzione, si pensa spesso solo al risultato di un processo, valutato e analizzato come tale. Sembra ci si dimentichi del fatto che, prima di arrivare a quel risultato finale, il traduttore applica più o meno consapevolmente tutta quella serie di strumenti di analisi, critica, correzione, rilettura, riformulazione e modifica che rientrano nell’attività di revisione. A questa prima fase, di cui ogni traduttore fa esperienza nel lavorare alla propria traduzione, segue di norma una fase successiva in cui la traduzione è rivista da un’altra figura professionale della filiera editoriale (di solito, e auspicabilmente, un altro traduttore) e infine altre fasi ancora del processo di lavorazione e pubblicazione del testo tradotto. Oltre a essere un’attività cruciale di ogni attività di traduzione e processo editoriale, la revisione riveste anche un fondamentale ruolo didattico nella formazione dei traduttori. L’idea alla base di questo progetto di ricerca nasce dal bisogno di triangolare riflessioni e dati concreti sulla revisione provenienti dalla ricerca accademica, dalla pratica professionale e dall’esperienza didattico-formativa, in un triplice approccio che informa l’intero progetto, di cui si illustrano i principali obiettivi: • formulare una nuova e chiara definizione sommativa del termine “revisione” da potersi utilizzare nell’ambito della ricerca, della didattica e della prassi professionale; • fornire una panoramica tematica, critica e aggiornata sulla ricerca accademica e non-accademica in materia di revisione; • condurre un’indagine conoscitiva (tramite compilazione di questionari diversificati) sulla pratica professionale della revisione editoriale in Italia, allo scopo di raccogliere dati da traduttori e revisori, fornirne una lettura critica e quindi individuare peculiarità e criticità di questa fase del processo di lavorazione del libro tradotto; • presentare ipotesi di lavoro e suggerimenti su metodi e strumenti da applicare all’insegnamento della revisione in contesti didattici e formativi.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La fotografia viene utilizzata intermedialmente per la narrazione di contromemorie e memorie traumatiche ricorrendo a numerose modalità e strategie di inserzione e impiego diverse. Se l’intermedialità da un lato non è riconducibile ad una serie di pratiche convenzionali, ma dipende dal contesto narrativo, dall’altro essa detiene un’organicità che la allinea funzionalmente ai processi e alle indagini sulla rappresentabilità del trauma. Inoltre, per la versatilità della sua natura poliedrica, la pratica narrativa intermediale (nelle sue configurazioni più diverse) assume una valenza epistemologica e metodologica nei confronti degli studi sull’esternazione e rielaborazione del trauma. Questo studio si prefigge di mettere a confronto testi teorici e testi narrativi per metterne in rilievo il reciproco apporto.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L’obiettivo della tesi riguarda l’utilizzo di immagini aerofotogrammetriche e telerilevate per la caratterizzazione qualitativa e quantitativa di ecosistemi forestali e della loro evoluzione. Le tematiche affrontate hanno riguardato, da una parte, l’aspetto fotogrammetrico, mediante recupero, digitalizzazione ed elaborazione di immagini aeree storiche di varie epoche, e, dall’altra, l’aspetto legato all’uso del telerilevamento per la classificazione delle coperture al suolo. Nel capitolo 1 viene fatta una breve introduzione sullo sviluppo delle nuove tecnologie di rilievo con un approfondimento delle applicazioni forestali; nel secondo capitolo è affrontata la tematica legata all’acquisizione dei dati telerilevati e fotogrammetrici con una breve descrizione delle caratteristiche e grandezze principali; il terzo capitolo tratta i processi di elaborazione e classificazione delle immagini per l’estrazione delle informazioni significative. Nei tre capitoli seguenti vengono mostrati tre casi di applicazioni di fotogrammetria e telerilevamento nello studio di ecosistemi forestali. Il primo caso (capitolo 4) riguarda l’area del gruppo montuoso del Prado- Cusna, sui cui è stata compiuta un’analisi multitemporale dell’evoluzione del limite altitudinale degli alberi nell’arco degli ultimi cinquant’anni. E’ stata affrontata ed analizzata la procedura per il recupero delle prese aeree storiche, definibile mediante una serie di successive operazioni, a partire dalla digitalizzazione dei fotogrammi, continuando con la determinazione di punti di controllo noti a terra per l’orientamento delle immagini, per finire con l’ortorettifica e mosaicatura delle stesse, con l’ausilio di un Modello Digitale del Terreno (DTM). Tutto ciò ha permesso il confronto di tali dati con immagini digitali più recenti al fine di individuare eventuali cambiamenti avvenuti nell’arco di tempo intercorso. Nel secondo caso (capitolo 5) si è definita per lo studio della zona del gruppo del monte Giovo una procedura di classificazione per l’estrazione delle coperture vegetative e per l’aggiornamento della cartografia esistente – in questo caso la carta della vegetazione. In particolare si è cercato di classificare la vegetazione soprasilvatica, dominata da brughiere a mirtilli e praterie con prevalenza di quelle secondarie a nardo e brachipodio. In alcune aree sono inoltre presenti comunità che colonizzano accumuli detritici stabilizzati e le rupi arenacee. A questo scopo, oltre alle immagini aeree (Volo IT2000) sono state usate anche immagini satellitari ASTER e altri dati ancillari (DTM e derivati), ed è stato applicato un sistema di classificazione delle coperture di tipo objectbased. Si è cercato di definire i migliori parametri per la segmentazione e il numero migliore di sample per la classificazione. Da una parte, è stata fatta una classificazione supervisionata della vegetazione a partire da pochi sample di riferimento, dall’altra si è voluto testare tale metodo per la definizione di una procedura di aggiornamento automatico della cartografia esistente. Nel terzo caso (capitolo 6), sempre nella zona del gruppo del monte Giovo, è stato fatto un confronto fra la timberline estratta mediante segmentazione ad oggetti ed il risultato di rilievi GPS a terra appositamente effettuati. L’obiettivo è la definizione del limite altitudinale del bosco e l’individuazione di gruppi di alberi isolati al di sopra di esso mediante procedure di segmentazione e classificazione object-based di ortofoto aeree in formato digitale e la verifica sul campo in alcune zone campione dei risultati, mediante creazione di profili GPS del limite del bosco e determinazione delle coordinate dei gruppi di alberi isolati. I risultati finali del lavoro hanno messo in luce come le moderne tecniche di analisi di immagini sono ormai mature per consentire il raggiungimento degli obiettivi prefissi nelle tre applicazioni considerate, pur essendo in ogni caso necessaria una attenta validazione dei dati ed un intervento dell’operatore in diversi momenti del processo. In particolare, le operazioni di segmentazione delle immagini per l’estrazione di feature significative hanno dimostrato grandi potenzialità in tutti e tre i casi. Un software ad “oggetti” semplifica l’implementazione dei risultati della classificazione in un ambiente GIS, offrendo la possibilità, ad esempio, di esportare in formato vettoriale gli oggetti classificati. Inoltre dà la possibilità di utilizzare contemporaneamente, in un unico ambiente, più sorgenti di informazione quali foto aeree, immagini satellitari, DTM e derivati. Le procedure automatiche per l’estrazione della timberline e dei gruppi di alberi isolati e per la classificazione delle coperture sono oggetto di un continuo sviluppo al fine di migliorarne le prestazioni; allo stato attuale esse non devono essere considerate una soluzione ottimale autonoma ma uno strumento per impostare e semplificare l’intervento da parte dello specialista in fotointerpretazione.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

I continui sviluppi nel campo della fabbricazione dei circuiti integrati hanno comportato frequenti travolgimenti nel design, nell’implementazione e nella scalabilità dei device elettronici, così come nel modo di utilizzarli. Anche se la legge di Moore ha anticipato e caratterizzato questo trend nelle ultime decadi, essa stessa si trova a fronteggiare attualmente enormi limitazioni, superabili solo attraverso un diverso approccio nella produzione di chip, consistente in pratica nella sovrapposizione verticale di diversi strati collegati elettricamente attraverso speciali vias. Sul singolo strato, le network on chip sono state suggerite per ovviare le profonde limitazioni dovute allo scaling di strutture di comunicazione condivise. Questa tesi si colloca principalmente nel contesto delle nascenti piattaforme multicore ad alte prestazioni basate sulle 3D NoC, in cui la network on chip viene estesa nelle 3 direzioni. L’obiettivo di questo lavoro è quello di fornire una serie di strumenti e tecniche per poter costruire e aratterizzare una piattaforma tridimensionale, cosi come dimostrato nella realizzazione del testchip 3D NOC fabbricato presso la fonderia IMEC. Il primo contributo è costituito sia una accurata caratterizzazione delle interconnessioni verticali (TSVs) (ovvero delle speciali vias che attraversano l’intero substrato del die), sia dalla caratterizzazione dei router 3D (in cui una o più porte sono estese nella direzione verticale) ed infine dal setup di un design flow 3D utilizzando interamente CAD 2D. Questo primo step ci ha permesso di effettuare delle analisi dettagliate sia sul costo sia sulle varie implicazioni. Il secondo contributo è costituito dallo sviluppo di alcuni blocchi funzionali necessari per garantire il corretto funziomento della 3D NoC, in presenza sia di guasti nelle TSVs (fault tolerant links) che di deriva termica nei vari clock tree dei vari die (alberi di clock indipendenti). Questo secondo contributo è costituito dallo sviluppo delle seguenti soluzioni circuitali: 3D fault tolerant link, Look Up Table riconfigurabili e un sicnronizzatore mesocrono. Il primo è costituito fondamentalmente un bus verticale equipaggiato con delle TSV di riserva da utilizzare per rimpiazzare le vias guaste, più la logica di controllo per effettuare il test e la riconfigurazione. Il secondo è rappresentato da una Look Up Table riconfigurabile, ad alte prestazioni e dal costo contenuto, necesaria per bilanciare sia il traffico nella NoC che per bypassare link non riparabili. Infine la terza soluzione circuitale è rappresentata da un sincronizzatore mesocrono necessario per garantire la sincronizzazione nel trasferimento dati da un layer and un altro nelle 3D Noc. Il terzo contributo di questa tesi è dato dalla realizzazione di un interfaccia multicore per memorie 3D (stacked 3D DRAM) ad alte prestazioni, e dall’esplorazione architetturale dei benefici e del costo di questo nuovo sistema in cui il la memoria principale non è piu il collo di bottiglia dell’intero sistema. Il quarto ed ultimo contributo è rappresentato dalla realizzazione di un 3D NoC test chip presso la fonderia IMEC, e di un circuito full custom per la caratterizzazione della variability dei parametri RC delle interconnessioni verticali.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Satellite SAR (Synthetic Aperture Radar) interferometry represents a valid technique for digital elevation models (DEM) generation, providing metric accuracy even without ancillary data of good quality. Depending on the situations the interferometric phase could be interpreted both as topography and as a displacement eventually occurred between the two acquisitions. Once that these two components have been separated it is possible to produce a DEM from the first one or a displacement map from the second one. InSAR DEM (Digital Elevation Model) generation in the cryosphere is not a straightforward operation because almost every interferometric pair contains also a displacement component, which, even if small, when interpreted as topography during the phase to height conversion step could introduce huge errors in the final product. Considering a glacier, assuming the linearity of its velocity flux, it is therefore necessary to differentiate at least two pairs in order to isolate the topographic residue only. In case of an ice shelf the displacement component in the interferometric phase is determined not only by the flux of the glacier but also by the different heights of the two tides. As a matter of fact even if the two scenes of the interferometric pair are acquired at the same time of the day only the main terms of the tide disappear in the interferogram, while the other ones, smaller, do not elide themselves completely and so correspond to displacement fringes. Allowing for the availability of tidal gauges (or as an alternative of an accurate tidal model) it is possible to calculate a tidal correction to be applied to the differential interferogram. It is important to be aware that the tidal correction is applicable only knowing the position of the grounding line, which is often a controversial matter. In this thesis it is described the methodology applied for the generation of the DEM of the Drygalski ice tongue in Northern Victoria Land, Antarctica. The displacement has been determined both in an interferometric way and considering the coregistration offsets of the two scenes. A particular attention has been devoted to investigate the importance of the role of some parameters, such as timing annotations and orbits reliability. Results have been validated in a GIS environment by comparison with GPS displacement vectors (displacement map and InSAR DEM) and ICEsat GLAS points (InSAR DEM).

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente lavoro è strutturato in quattro parti analizzando e comparando le pubblicazioni del settore scientifico italiano, anglofono e tedesco di riferimento. Nel primo capitolo della tesi viene proposta una riflessione sulle parole che ruotano attorno al tema dei DSA e della disabilità. Nel secondo capitolo vengono presentati, a partire dalla letteratura scientifica di riferimento, gli indicatori di rischio che segnalano possibili disturbi specifici di apprendimento e le caratteristiche di apprendimento dei DSA mettendo in luce potenzialità e talenti spesso intrinseci. Nel terzo capitolo viene vagliata la normativa di riferimento, in particolare la recente Legge 170/2010 e le relative Linee Guida. Nel quarto capitolo, partendo dal tema della diffusione delle tecnologie dell’informazione e della comunicazione (da ora in poi TIC) nel mondo della scuola, sono ampiamente trattati i principali strumenti compensativi (sintesi vocale, libri digitali, mappe concettuali, Lavagna Interattiva Multimediale) e le misure dispensative adottabili. Nel quinto capitolo viene analizzato in tutte le sue parti il Piano Didattico Personalizzato (da ora in poi PDP) e viene proposto un possibile modello di PDP pubblicato sul sito dell'Ufficio per l’Ambito Territoriale di Bologna. Nel sesto capitolo della tesi viene presentato il Progetto Regionale ProDSA. Il Progetto, rivolto a studenti, con diagnosi di DSA, delle scuole secondarie di primo grado e del primo biennio delle secondarie di secondo grado dell’Emilia-Romagna, ha visto, grazie a un finanziamento della Regione, la consegna in comodato d'uso gratuito di tecnologie compensative agli alunni che hanno aderito. La sezione empirica del presente lavoro indaga l’uso reale che è stato fatto degli strumenti proposti in comodato d’uso e le motivazioni legate alla scelta di non utilizzarli in classe. Nel settimo capitolo vengono proposti strumenti progettati per rispondere concretamente alle criticità emerse dall'analisi dei dati e per sensibilizzare il mondo della scuola sulle caratteristiche dei DSA.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Come risposta positiva alle richieste provenienti dal mondo dei giuristi, spesso troppo distante da quello scientifico, si vuole sviluppare un sistema solido dal punto di vista tecnico e chiaro dal punto di vista giurico finalizzato ad migliore ricerca della verità. L’obiettivo ci si prefigge è quello di creare uno strumento versatile e di facile utilizzo da mettere a disposizione dell’A.G. ed eventualmente della P.G. operante finalizzato a consentire il proseguo dell’attività d’indagine in tempi molto rapidi e con un notevole contenimento dei costi di giustizia rispetto ad una normale CTU. La progetto verterà su analisi informatiche forensi di supporti digitali inerenti vari tipi di procedimento per cui si dovrebbe richiedere una CTU o una perizia. La sperimentazione scientifica prevede un sistema di partecipazione diretta della P.G. e della A.G. all’analisi informatica rendendo disponibile, sottoforma di macchina virtuale, il contenuto dei supporti sequestrati in modo che possa essere visionato alla pari del supporto originale. In questo modo il CT diventa una mera guida per la PG e l’AG nell’ambito dell’indagine informatica forense che accompagna il giudice e le parti alla migliore comprensione delle informazioni richieste dal quesito. Le fasi chiave della sperimentazione sono: • la ripetibilità delle operazioni svolte • dettare delle chiare linee guida per la catena di custodia dalla presa in carico dei supporti • i metodi di conservazione e trasmissione dei dati tali da poter garantire integrità e riservatezza degli stessi • tempi e costi ridotti rispetto alle normali CTU/perizie • visualizzazione diretta dei contenuti dei supporti analizzati delle Parti e del Giudice circoscritte alle informazioni utili ai fini di giustizia