23 resultados para LIM,Nativi digitali,Immigrati digitali,mappa cognitiva

em AMS Tesi di Dottorato - Alm@DL - Università di Bologna


Relevância:

50.00% 50.00%

Publicador:

Resumo:

Satellite SAR (Synthetic Aperture Radar) interferometry represents a valid technique for digital elevation models (DEM) generation, providing metric accuracy even without ancillary data of good quality. Depending on the situations the interferometric phase could be interpreted both as topography and as a displacement eventually occurred between the two acquisitions. Once that these two components have been separated it is possible to produce a DEM from the first one or a displacement map from the second one. InSAR DEM (Digital Elevation Model) generation in the cryosphere is not a straightforward operation because almost every interferometric pair contains also a displacement component, which, even if small, when interpreted as topography during the phase to height conversion step could introduce huge errors in the final product. Considering a glacier, assuming the linearity of its velocity flux, it is therefore necessary to differentiate at least two pairs in order to isolate the topographic residue only. In case of an ice shelf the displacement component in the interferometric phase is determined not only by the flux of the glacier but also by the different heights of the two tides. As a matter of fact even if the two scenes of the interferometric pair are acquired at the same time of the day only the main terms of the tide disappear in the interferogram, while the other ones, smaller, do not elide themselves completely and so correspond to displacement fringes. Allowing for the availability of tidal gauges (or as an alternative of an accurate tidal model) it is possible to calculate a tidal correction to be applied to the differential interferogram. It is important to be aware that the tidal correction is applicable only knowing the position of the grounding line, which is often a controversial matter. In this thesis it is described the methodology applied for the generation of the DEM of the Drygalski ice tongue in Northern Victoria Land, Antarctica. The displacement has been determined both in an interferometric way and considering the coregistration offsets of the two scenes. A particular attention has been devoted to investigate the importance of the role of some parameters, such as timing annotations and orbits reliability. Results have been validated in a GIS environment by comparison with GPS displacement vectors (displacement map and InSAR DEM) and ICEsat GLAS points (InSAR DEM).

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le soluzioni tecnologiche rese oggi disponibili dalle discipline della moderna Geomatica, offrono opportunità di grande interesse per il rilevamento nel settore dei Beni Culturali, sia per quanto riguarda il momento primario del rilievo, cioè la fase di acquisizione del dato metrico, sia per quanto concerne la questione della rappresentazione per oggetti di interesse archeologico, artistico, architettonico. Lo studio oggetto della presente tesi si propone, sulla base di numerose esperienze maturate nel corso del Dottorato dal Laboratorio di Topografia e Fotogrammetria del DISTART, di affrontare e approfondire le problematiche connesse all’utilizzo della fotogrammetria digitale e del laser a scansione terrestre per applicazioni nell’ambito dei Beni Culturali. La ricerca condotta è prettamente applicata, quindi è stata primaria l’esigenza di avere a disposizione reali casi di studio su cui sperimentare le tecniche di interesse; è però importante sottolineare che questo è un campo in cui ogni esperienza presenta proprie caratteristiche e peculiarità che la rendono interessante e difficilmente descrivibile con schemi convenzionali e metodologie standardizzate, quindi le problematiche emerse hanno di volta in volta indirizzato e spinto la ricerca all’approfondimento di certi aspetti piuttosto che altri. A tal proposito è stato evidenziato dalle esperienze effettuate che il campo dei Beni Culturali è forse il più emblematico delle potenzialità rese oggi disponibili dalle moderne tecnologie della Geomatica, e soprattutto dalle possibilità offerte da un approccio integrato e multi – disciplinare di tecniche e tecnologie diverse; per questo nell’Introduzione si è voluto sottolineare questo aspetto, descrivendo l’approccio metodologico adottato in molti lavori in contesto archeologico, che include generalmente diverse tecniche integrate tra loro allo scopo di realizzare in modo veloce e rigoroso un rilievo multi – scala che parte dal territorio, passa attraverso l’area del sito archeologico e degli scavi, ed arriva fino al singolo reperto; questo approccio è caratterizzato dall’avere tutti i dati e risultati in un unico e ben definito sistema di riferimento. In questa chiave di lettura l’attenzione si è poi focalizzata sulle due tecniche che rivestono oggi nel settore in esame il maggiore interesse, cioè fotogrammetria digitale e laser a scansione terrestre. La struttura della tesi segue le fasi classiche del processo che a partire dal rilievo porta alla generazione dei prodotti di rappresentazione; i primi due capitoli, incentrati sull’acquisizione del dato metrico, riguardano quindi da un lato le caratteristiche delle immagini e dei sensori digitali, dall’altro le diverse tipologie di sistemi laser con le corrispondenti specifiche tecniche; sempre nei primi capitoli vengono descritte le caratteristiche metodologiche e tecnico – operative e le relative problematiche delle due tipologie di rilievo. Segue un capitolo sulle procedure di calibrazione delle camere digitali non professionali, imperniato sull’utilizzo di software diversi, commerciali e sviluppati in house per questo scopo, prestando attenzione anche agli strumenti che essi offrono in termini di risultati ottenibili e di controllo statistico sugli stessi. La parte finale della tesi è dedicata al problema della rappresentazione, con l’obiettivo di presentare un quadro generale delle possibilità offerte dalle moderne tecnologie: raddrizzamenti, ortofoto, ortofoto di precisione e infine modelli tridimensionali foto – realistici, generati a partire sia da dati fotogrammetrici sia da dati laser.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The digital electronic market development is founded on the continuous reduction of the transistors size, to reduce area, power, cost and increase the computational performance of integrated circuits. This trend, known as technology scaling, is approaching the nanometer size. The lithographic process in the manufacturing stage is increasing its uncertainty with the scaling down of the transistors size, resulting in a larger parameter variation in future technology generations. Furthermore, the exponential relationship between the leakage current and the threshold voltage, is limiting the threshold and supply voltages scaling, increasing the power density and creating local thermal issues, such as hot spots, thermal runaway and thermal cycles. In addiction, the introduction of new materials and the smaller devices dimension are reducing transistors robustness, that combined with high temperature and frequently thermal cycles, are speeding up wear out processes. Those effects are no longer addressable only at the process level. Consequently the deep sub-micron devices will require solutions which will imply several design levels, as system and logic, and new approaches called Design For Manufacturability (DFM) and Design For Reliability. The purpose of the above approaches is to bring in the early design stages the awareness of the device reliability and manufacturability, in order to introduce logic and system able to cope with the yield and reliability loss. The ITRS roadmap suggests the following research steps to integrate the design for manufacturability and reliability in the standard CAD automated design flow: i) The implementation of new analysis algorithms able to predict the system thermal behavior with the impact to the power and speed performances. ii) High level wear out models able to predict the mean time to failure of the system (MTTF). iii) Statistical performance analysis able to predict the impact of the process variation, both random and systematic. The new analysis tools have to be developed beside new logic and system strategies to cope with the future challenges, as for instance: i) Thermal management strategy that increase the reliability and life time of the devices acting to some tunable parameter,such as supply voltage or body bias. ii) Error detection logic able to interact with compensation techniques as Adaptive Supply Voltage ASV, Adaptive Body Bias ABB and error recovering, in order to increase yield and reliability. iii) architectures that are fundamentally resistant to variability, including locally asynchronous designs, redundancy, and error correcting signal encodings (ECC). The literature already features works addressing the prediction of the MTTF, papers focusing on thermal management in the general purpose chip, and publications on statistical performance analysis. In my Phd research activity, I investigated the need for thermal management in future embedded low-power Network On Chip (NoC) devices.I developed a thermal analysis library, that has been integrated in a NoC cycle accurate simulator and in a FPGA based NoC simulator. The results have shown that an accurate layout distribution can avoid the onset of hot-spot in a NoC chip. Furthermore the application of thermal management can reduce temperature and number of thermal cycles, increasing the systemreliability. Therefore the thesis advocates the need to integrate a thermal analysis in the first design stages for embedded NoC design. Later on, I focused my research in the development of statistical process variation analysis tool that is able to address both random and systematic variations. The tool was used to analyze the impact of self-timed asynchronous logic stages in an embedded microprocessor. As results we confirmed the capability of self-timed logic to increase the manufacturability and reliability. Furthermore we used the tool to investigate the suitability of low-swing techniques in the NoC system communication under process variations. In this case We discovered the superior robustness to systematic process variation of low-swing links, which shows a good response to compensation technique as ASV and ABB. Hence low-swing is a good alternative to the standard CMOS communication for power, speed, reliability and manufacturability. In summary my work proves the advantage of integrating a statistical process variation analysis tool in the first stages of the design flow.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le tecniche dell'informazione e i metodi della comunicazione hanno modificato il modo di redigere documenti destinati a trasmettere la conoscenza, in un processo che è a tutt'oggi in corso di evoluzione. Anche l'attività progettuale in ingegneria ed architettura, pure in un settore caratterizzato da una notevole inerzia metodologica e restio all'innovazione quale è quello dell'industria edilizia, ha conosciuto profonde trasformazioni in ragione delle nuove espressioni tecnologiche. Da tempo l'informazione necessaria per realizzare un edificio, dai disegni che lo rappresentano sino ai documenti che ne indicano le modalità costruttive, può essere gestita in maniera centralizzata mediante un unico archivio di progetto denominato IPDB (Integrated Project DataBase) pur essendone stata recentemente introdotta sul mercato una variante più operativa chiamata BIM (Building Information Modelling). Tuttavia l'industrializzazione del progetto che questi strumenti esplicano non rende conto appieno di tutti gli aspetti che vedono la realizzazione dell'opera architettonica come collettore di conoscenze proprie di una cultura progettuale che, particolarmente in Italia, è radicata nel tempo. La semantica della rappresentazione digitale è volta alla perequazione degli elementi costitutivi del progetto con l'obiettivo di catalogarne le sole caratteristiche fabbricative. L'analisi della letteratura scientifica pertinente alla materia mostra come non sia possibile attribuire ai metodi ed ai software presenti sul mercato la valenza di raccoglitori omnicomprensivi di informazione: questo approccio olistico costituisce invece il fondamento della modellazione integrata intesa come originale processo di rappresentazione della conoscenza, ordinata secondo il paradigma delle "scatole cinesi", modello evolvente che unifica linguaggi appartenenti ai differenti attori compartecipanti nei settori impiantistici, strutturali e della visualizzazione avanzata. Evidenziando criticamente i pregi e i limiti operativi derivanti dalla modellazione integrata, la componente sperimentale della ricerca è stata articolata con l'approfondimento di esperienze condotte in contesti accademici e professionali. Il risultato conseguito ha coniugato le tecniche di rilevamento alle potenzialità di "modelli tridimensionali intelligenti", dotati cioè di criteri discriminanti per la valutazione del relazionamento topologico dei componenti con l'insieme globale.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La specificità dell'acquisizione di contenuti attraverso le interfacce digitali condanna l'agente epistemico a un'interazione frammentata, insufficiente da un punto di vista computazionale, mnemonico e temporale, rispetto alla mole informazionale oggi accessibile attraverso una qualunque implementazione della relazione uomo-computer, e invalida l'applicabilità del modello standard di conoscenza, come credenza vera e giustificata, sconfessando il concetto di credenza razionalmente fondata, per formare la quale, sarebbe invece richiesto all'agente di poter disporre appunto di risorse concettuali, computazionali e temporali inaccessibili. La conseguenza è che l'agente, vincolato dalle limitazioni ontologiche tipiche dell'interazione con le interfacce culturali, si vede costretto a ripiegare su processi ambigui, arbitrari e spesso più casuali di quanto creda, di selezione e gestione delle informazioni che danno origine a veri e propri ibridi (alla Latour) epistemologici, fatti di sensazioni e output di programmi, credenze non fondate e bit di testimonianze indirette e di tutta una serie di relazioni umano-digitali che danno adito a rifuggire in una dimensione trascendente che trova nel sacro il suo più immediato ambito di attuazione. Tutto ciò premesso, il presente lavoro si occupa di costruire un nuovo paradigma epistemologico di conoscenza proposizionale ottenibile attraverso un'interfaccia digitale di acquisizione di contenuti, fondato sul nuovo concetto di Tracciatura Digitale, definito come un un processo di acquisizione digitale di un insieme di tracce, ossia meta-informazioni di natura testimoniale. Tale dispositivo, una volta riconosciuto come un processo di comunicazione di contenuti, si baserà sulla ricerca e selezione di meta-informazioni, cioè tracce, che consentiranno l'implementazione di approcci derivati dall'analisi decisionale in condizioni di razionalità limitata, approcci che, oltre ad essere quasi mai utilizzati in tale ambito, sono ontologicamente predisposti per una gestione dell'incertezza quale quella riscontrabile nell'istanziazione dell'ibrido informazionale e che, in determinate condizioni, potranno garantire l'agente sulla bontà epistemica del contenuto acquisito.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Come dimostrano i sempre più numerosi casi di cronaca riportati dai notiziari, la preoccupazione per la gestione delle immagini di morte si configura come un nodo centrale che coinvolge spettatori, produttori di contenuti e broadcaster, dato che la sua emersione nel panorama mediale in cui siamo immersi è sempre più evidente. Se la letteratura socio-antropologica è generalmente concorde nel ritenere che, rispetto al passato, oggi la morte si manifesti con meno evidenza nella vita comune delle persone, che tendono a rimuovere i segni della contiguità vivendo il lutto in forma privata, essa è però percepita in modo pervasivo perché disseminata nei (e dai) media. L'elaborato, concentrandosi in maniera specifica sulle produzioni audiovisive, e quindi sulla possibilità intrinseca al cinema – e alle sue forme derivate – di registrare un evento in diretta, tenta di mappare alcune dinamiche di produzione e fruizione considerando una particolare manifestazione della morte: quella che viene comunemente indicata come “morte in diretta”. Dopo una prima ricognizione dedicata alla tensione continua tra la spinta a considerare la morte come l'ultimo tabù e le manifestazioni che essa assume all'interno della “necrocultura”, appare chiaro che il paradigma pornografico risulta ormai inefficace a delineare compiutamente le emersioni della morte nei media, soggetta a opacità e interdizioni variabili, e necessita dunque di prospettive analitiche più articolate. Il fulcro dell'analisi è dunque la produzione e il consumo di precisi filoni quali snuff, cannibal e mondo movie e quelle declinazioni del gore che hanno ibridato reale e fittizio: il tentativo è tracciare un percorso che, a partire dal cinema muto, giunga al panorama contemporaneo e alle pratiche di remix rese possibili dai media digitali, toccando episodi controversi come i Video Nasties, le dinamiche di moral panic scatenate dagli snuff film e quelle di contagio derivanti dalla manipolazione e diffusione delle immagini di morte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’obiettivo della tesi riguarda l’utilizzo di immagini aerofotogrammetriche e telerilevate per la caratterizzazione qualitativa e quantitativa di ecosistemi forestali e della loro evoluzione. Le tematiche affrontate hanno riguardato, da una parte, l’aspetto fotogrammetrico, mediante recupero, digitalizzazione ed elaborazione di immagini aeree storiche di varie epoche, e, dall’altra, l’aspetto legato all’uso del telerilevamento per la classificazione delle coperture al suolo. Nel capitolo 1 viene fatta una breve introduzione sullo sviluppo delle nuove tecnologie di rilievo con un approfondimento delle applicazioni forestali; nel secondo capitolo è affrontata la tematica legata all’acquisizione dei dati telerilevati e fotogrammetrici con una breve descrizione delle caratteristiche e grandezze principali; il terzo capitolo tratta i processi di elaborazione e classificazione delle immagini per l’estrazione delle informazioni significative. Nei tre capitoli seguenti vengono mostrati tre casi di applicazioni di fotogrammetria e telerilevamento nello studio di ecosistemi forestali. Il primo caso (capitolo 4) riguarda l’area del gruppo montuoso del Prado- Cusna, sui cui è stata compiuta un’analisi multitemporale dell’evoluzione del limite altitudinale degli alberi nell’arco degli ultimi cinquant’anni. E’ stata affrontata ed analizzata la procedura per il recupero delle prese aeree storiche, definibile mediante una serie di successive operazioni, a partire dalla digitalizzazione dei fotogrammi, continuando con la determinazione di punti di controllo noti a terra per l’orientamento delle immagini, per finire con l’ortorettifica e mosaicatura delle stesse, con l’ausilio di un Modello Digitale del Terreno (DTM). Tutto ciò ha permesso il confronto di tali dati con immagini digitali più recenti al fine di individuare eventuali cambiamenti avvenuti nell’arco di tempo intercorso. Nel secondo caso (capitolo 5) si è definita per lo studio della zona del gruppo del monte Giovo una procedura di classificazione per l’estrazione delle coperture vegetative e per l’aggiornamento della cartografia esistente – in questo caso la carta della vegetazione. In particolare si è cercato di classificare la vegetazione soprasilvatica, dominata da brughiere a mirtilli e praterie con prevalenza di quelle secondarie a nardo e brachipodio. In alcune aree sono inoltre presenti comunità che colonizzano accumuli detritici stabilizzati e le rupi arenacee. A questo scopo, oltre alle immagini aeree (Volo IT2000) sono state usate anche immagini satellitari ASTER e altri dati ancillari (DTM e derivati), ed è stato applicato un sistema di classificazione delle coperture di tipo objectbased. Si è cercato di definire i migliori parametri per la segmentazione e il numero migliore di sample per la classificazione. Da una parte, è stata fatta una classificazione supervisionata della vegetazione a partire da pochi sample di riferimento, dall’altra si è voluto testare tale metodo per la definizione di una procedura di aggiornamento automatico della cartografia esistente. Nel terzo caso (capitolo 6), sempre nella zona del gruppo del monte Giovo, è stato fatto un confronto fra la timberline estratta mediante segmentazione ad oggetti ed il risultato di rilievi GPS a terra appositamente effettuati. L’obiettivo è la definizione del limite altitudinale del bosco e l’individuazione di gruppi di alberi isolati al di sopra di esso mediante procedure di segmentazione e classificazione object-based di ortofoto aeree in formato digitale e la verifica sul campo in alcune zone campione dei risultati, mediante creazione di profili GPS del limite del bosco e determinazione delle coordinate dei gruppi di alberi isolati. I risultati finali del lavoro hanno messo in luce come le moderne tecniche di analisi di immagini sono ormai mature per consentire il raggiungimento degli obiettivi prefissi nelle tre applicazioni considerate, pur essendo in ogni caso necessaria una attenta validazione dei dati ed un intervento dell’operatore in diversi momenti del processo. In particolare, le operazioni di segmentazione delle immagini per l’estrazione di feature significative hanno dimostrato grandi potenzialità in tutti e tre i casi. Un software ad “oggetti” semplifica l’implementazione dei risultati della classificazione in un ambiente GIS, offrendo la possibilità, ad esempio, di esportare in formato vettoriale gli oggetti classificati. Inoltre dà la possibilità di utilizzare contemporaneamente, in un unico ambiente, più sorgenti di informazione quali foto aeree, immagini satellitari, DTM e derivati. Le procedure automatiche per l’estrazione della timberline e dei gruppi di alberi isolati e per la classificazione delle coperture sono oggetto di un continuo sviluppo al fine di migliorarne le prestazioni; allo stato attuale esse non devono essere considerate una soluzione ottimale autonoma ma uno strumento per impostare e semplificare l’intervento da parte dello specialista in fotointerpretazione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The humans process the numbers in a similar way to animals. There are countless studies in which similar performance between animals and humans (adults and/or children) are reported. Three models have been developed to explain the cognitive mechanisms underlying the number processing. The triple-code model (Dehaene, 1992) posits an mental number line as preferred way to represent magnitude. The mental number line has three particular effects: the distance, the magnitude and the SNARC effects. The SNARC effect shows a spatial association between number and space representations. In other words, the small numbers are related to left space while large numbers are related to right space. Recently a vertical SNARC effect has been found (Ito & Hatta, 2004; Schwarz & Keus, 2004), reflecting a space-related bottom-to-up representation of numbers. The magnitude representations horizontally and vertically could influence the subject performance in explicit and implicit digit tasks. The goal of this research project aimed to investigate the spatial components of number representation using different experimental designs and tasks. The experiment 1 focused on horizontal and vertical number representations in a within- and between-subjects designs in a parity and magnitude comparative tasks, presenting positive or negative Arabic digits (1-9 without 5). The experiment 1A replied the SNARC and distance effects in both spatial arrangements. The experiment 1B showed an horizontal reversed SNARC effect in both tasks while a vertical reversed SNARC effect was found only in comparative task. In the experiment 1C two groups of subjects performed both tasks in two different instruction-responding hand assignments with positive numbers. The results did not show any significant differences between two assignments, even if the vertical number line seemed to be more flexible respect to horizontal one. On the whole the experiment 1 seemed to demonstrate a contextual (i.e. task set) influences of the nature of the SNARC effect. The experiment 2 focused on the effect of horizontal and vertical number representations on spatial biases in a paper-and-pencil bisecting tasks. In the experiment 2A the participants were requested to bisect physical and number (2 or 9) lines horizontally and vertically. The findings demonstrated that digit 9 strings tended to generate a more rightward bias comparing with digit 2 strings horizontally. However in vertical condition the digit 2 strings generated a more upperward bias respect to digit 9 strings, suggesting a top-to-bottom number line. In the experiment 2B the participants were asked to bisect lines flanked by numbers (i.e. 1 or 7) in four spatial arrangements: horizontal, vertical, right-diagonal and left-diagonal lines. Four number conditions were created according to congruent or incongruent number line representation: 1-1, 1-7, 7-1 and 7-7. The main results showed a more reliable rightward bias in horizontal congruent condition (1-7) respect to incongruent condition (7-1). Vertically the incongruent condition (1-7) determined a significant bias towards bottom side of line respect to congruent condition (7-1). The experiment 2 suggested a more rigid horizontal number line while in vertical condition the number representation could be more flexible. In the experiment 3 we adopted the materials of experiment 2B in order to find a number line effect on temporal (motor) performance. The participants were presented horizontal, vertical, rightdiagonal and left-diagonal lines flanked by the same digits (i.e. 1-1 or 7-7) or by different digits (i.e. 1-7 or 7-1). The digits were spatially congruent or incongruent with their respective hypothesized mental representations. Participants were instructed to touch the lines either close to the large digit, or close to the small digit, or to bisected the lines. Number processing influenced movement execution more than movement planning. Number congruency influenced spatial biases mostly along the horizontal but also along the vertical dimension. These results support a two-dimensional magnitude representation. Finally, the experiment 4 addressed the visuo-spatial manipulation of number representations for accessing and retrieval arithmetic facts. The participants were requested to perform a number-matching and an addition verification tasks. The findings showed an interference effect between sum-nodes and neutral-nodes only with an horizontal presentation of digit-cues, in number-matching tasks. In the addition verification task, the performance was similar for horizontal and vertical presentations of arithmetic problems. In conclusion the data seemed to show an automatic activation of horizontal number line also used to retrieval arithmetic facts. The horizontal number line seemed to be more rigid and the preferred way to order number from left-to-right. A possible explanation could be the left-to-right direction for reading and writing. The vertical number line seemed to be more flexible and more dependent from the tasks, reflecting perhaps several example in the environment representing numbers either from bottom-to-top or from top-to-bottom. However the bottom-to-top number line seemed to be activated by explicit task demands.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La presente tesi dimostra che la letteratura nera canadese può costituire una critica al concetto di appartenenza, così come è stato sempre rappresentato nel Canada anglofono. Più specificatamente, prende in considerazione tre scrittori contemporanei – George Elliott Clarke, Austin Clarke e Dionne Brand – che mettono in evidenza, seppure non nei termini classici, ciò che Stuart Hall descrive come “quegli aspetti delle nostre identità che scaturiscono dal nostro ‘appartenere’ a distinte culture etniche, razziali, linguistiche, religiose e soprattutto nazionali” (Stuart Hall, Modernity 596). Ognuno di essi, infatti, pone in evidenza il senso di appartenenza culturale in modo incerto, ambivalente e perfino estremamente critico. L’analisi dei loro testi, inoltre, è imprescindibile, dallo studio di tre discorsi (termine da intendersi secondo la definizione proposta da Ian Angus): il nazionalismo, il multiculturalismo e la diaspora che sembrano condizionare e limitare i termini semantici, concettuali e politici dell’appartenenza culturale, specialmente nell’ambito degli studi canadesi e postcoloniali. In realtà, autori quali Austin Clarke e Dionne Brand, offrendo una prospettiva unica ed originale da cui avviare una critica a tali concetti, propongono dei ‘linguaggi di appartenenza’ diversi e, di conseguenza, modi alternativi di manifestare e concretizzare, non solo un attaccamento culturale, ma anche un impegno politico profondo. Il lavoro è composto dall’Introduzione, in cui vengono esplicitate le ragioni dell’argomento scelto; il Capitolo I, che funge da impianto metodologico alla ricerca, spiega il concetto di appartenenza; da tre Capitoli centrali, ciascuno dedicato ad un singolo autore, che esaminano una serie di opere, di ogni singolo autore, al fine di esaminare e giudicare i tre discorsi; e dalla Conclusione che contiene delle considerazioni sul ruolo della letteratura nera canadese all’interno degli studi canadesi contemporanei e postcoloniali.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo progetto intende indagare il rapporto privilegiato che Derek Walcott intesse con gli scrittori che lo hanno preceduto, e in particolare con T.S.Eliot. Attraverso l ‘analisi di un percorso mitografico letterario emerge la rilevanza che per entrambi i poeti assumono sia il paesaggio che il mito. La ricerca svolta si focalizza prevalentemente su The Waste Land di T.S.Eliot e Mappa del Nuovo Mondo di Derek Walcott.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Oggigiorno  le  richieste  di  rilievi  tridimensionali  e  di  rappresentazioni  3D  ad  alta  qualità  i  sono  sempre  più  frequenti,  e  coinvolgono  un  numero  sempre  maggiore  di  discipline  e  ambiti  applicativi,  quali  quello  industriale,  medico,  archeologico,  forense,  museale, ecc., con ulteriori prospettive di allargamento per quanto riguarda la natura ed  il numero delle realizzazioni.  Il  lavoro  di  ricerca  svolto,  di  natura  prevalentemente  applicata,  vuole  andare  ad  investigare un settore, quello degli oggetti di medie, medio-piccole e soprattutto piccole  dimensioni, che, a parere dell’autore, non è stato ancora investigato a fondo;di questo  d’altra  parte  dà  riscontro  il  numero  relativamente  limitato  di  lavori  presenti  in  letteratura su questo tema.  Sebbene la metodologia di lavoro non sia concettualmente diversa da quella che si  adotta comunemente in ambito close range, le problematiche che sono state incontrate  nel corso dei diversi casi di studio analizzati nel periodo di dottorato hanno evidenziato  la  necessità  di  soluzioni  tecniche  e  metodologiche  specifiche,  anche  in  funzione  dei  requisiti di precisione che competono ad oggetti di piccole dimensioni.  Nel corso degli anni, si è visto  un allargamento della base di utenti che trovano nel  prodotto  3D  un  importante  strumento  di  lavoro;  si  pensi  alla  cinematografia,  alla  computer grafica, alle simulazioni virtuali a partire da modelli 3D realistici, ecc. Questo  trend sembra, al giorno d’oggi, non trovare ancora una battuta d’arresto. Considerando il  settore  dei  Beni  Culturali,  per  esempio,  si  tratta  di  un  campo  di  applicazione  delle  tecniche  geomatiche  abbastanza  ristretto  e  sostanzialmente  nuovo,  in  quanto  le  problematiche di documentazione e visualizzazione di beni mobili ed immobili sono in  genere indirizzate prevalentemente ad oggetti a scala di edificio, porzione di edificio o  elementi  quali  bassorilievi  e  statue,  comunque  con  un  ordine  di  grandezza  che  va  da  qualche  metro  alla  decina  di  metri.  Qualora,  come  detto  in  precedenza,  si  volesse  aumentare  ulteriormente  la  scala  di  indagine  e  di  rappresentazione,  devono  essere  adottate  delle  tecniche  di  rilievo  che  possano  fornire  un'adeguata  precisione,  con  strumenti e tecnologie che possano adattarsi alle diverse configurazioni e caratteristiche  geometriche. Nella  tesi  viene  dunque  affrontata  la  problematica  del  rilievo  e  della  modellazione  tridimensionale,  con  alto  livello  di  dettaglio,  di  oggetti  di  dimensioni  che  variano  da  qualche decina a pochi centimetri; una situazione di questo tipo può aversi in svariati  ambiti,  che  vanno  da  quello  industriale  e  del  design  a  quello  biologico  e  medico,  dall’archeologia ed alla musealizzazione virtuale alle indagini forensi, ecc.  Concentrando  l’analisi  al  campo  dei  Beni  Culturali,  oggi  oggetto  di  importanti  ricerche  applicative  che  trovano  impulso  anche  dallo  sviluppo  delle  nuove  tecnologie,  sono molto numerose e varie le occasioni in cui operare con oggetti di altissimo valore e  dimensioni molto ridotte: un esempio immediato è quello fornito dal rilievo di reperti  archeologici,  ma  nell’ambito  del  restauro,  dell’analisi  dei  materiali,  delle  indagini  non  distruttive, le potenzialità sono di grandissimo interesse..   Comunemente,  fino  a  poco  tempo  fa,  e  soprattutto  in  ambito  museale,  la  documentazione  geometrica  di  un  bene  culturale  mobile  di  piccole  dimensioni  si  è  limitata  ad  una  rappresentazione  fotografica,  riportante  magari  elementi  metrici  minimali,  come  un  righello  posto  di fianco  all’oggetto,  in  grado  di  fornire  una  scala  di  lettura.  Ciò  che  si  è  in  genere  tenuto  in  scarsa  considerazione,  ma  in  grado  invece    di  dare  al  contenuto  informativo  quel  qualcosa  in  più  rispetto  alla  semplice  fotografia,  è  l’adozione  di  metodologie  per  un  rilievo  rigoroso  e  metrico,  metodologie  che  possono  essere di grandissimo interesse non solo a fini di studio e divulgazione dell’oggetto (si  pensi alla problematica della virtualizzazione della fruizione di beni museali) ma anche  per  scopi  diversi  quali  la  duplicazione  e  riproduzione  di  copie  dell’oggetto  (a  scala  identica  al  vero  o  a  scala  diversa).  Di  frequente  infatti  ci  si  trova  di  fronte  a  problematiche  legate  alla  salvaguardia  e  conservazione  dell’oggetto,  in  termini  di  accesso  e  visione  da  parte  del  pubblico,  di  mantenimento  in  particolari  condizioni  microclimatiche, di difficoltà di manipolazione a fini di studio e misura, ecc.   Nella  tesi  sono  state  prese  in  considerazione  le  due  tecniche  geomatiche  che  si  prestano  a  soddisfare  nel  miglior  modo  possibile  i  requisiti  di  correttezza  metrica  e  radiometrica che un rilievo ad elevata precisione richiede. Tali tecniche, rappresentate  dalla fotogrammetria digitale con ottiche Macro e dal laser a scansione, in particolare del  tipo a triangolazione, sono state sperimentate sul campo , in modo da poter valutarne le  potenzialità,  non  solo  alla  luce  dei  risultati  finali  ottenuti,  ma  anche  considerando  i  problemi al contorno che esse comportano.   Nel  corso  di  numerose  sperimentazioni  in  laboratorio  e  sul  campo  sono  stati  analizzati problemi quali la calibrazione di obiettivi macro e la realizzazione di reticoli   speciali atti allo scopo, la qualità dei DSM di origine laser e fotogrammetrica, l’estrazione  di  caratteristiche  morfologiche di  microrilievo,  le  conseguenze  della  compressione  dei  dati  immagine,  la  calibrazione  radiometrica  ed  il  filtraggio  delle  immagini  digitali,  l’allineamento di nuvole di punti con algoritmi ICP. 

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The research examines which cultural and linguistic instruments can be offered to provide adult migrants with formative access to citizenship competences. Starting from the questions: How can individuals of all community groups present in a nation-state acquire high standards of linguistic, sociolinguistic and discourse competences in order to be fully integrated, that is to participate and be included in social activities in the public domain such as work and institutional environments? How are these competencies developed in an educational context? How do adult migrants behave linguistically in this context, according to their needs and motivations? The research hypothesis aimed at outlining a formative project of citizenship education targeted at adult foreign citizens, where a central role is assigned both to law education and linguistic education. Acoordingly, as the study considered if the introduction of a law programme in a second language course could be conceived as an opportunity to further the access to active citizenship and social participation, a corpus of audiodata was collected in law classes of an Italian adult professional course attended by a 50% of foreign students. The observation was conducted on teacher and learner talk and learner participation in classroom interaction when curriculum legal topics were introduced and discussed. In the classroom law discourse two dimensions were analyzed: the legal knowledge construction and the participants’ interpersonal and identity construction. From the analysis, the understanding is that drawn that law classes seem to represent an educational setting where foreign citizens have an opportunity to learn and practise citizenship. The social and pragmatic approach to legal contents plays a relevant role, in a subject which, in non-academic contexts, loses its technical specificity and refers to law as a product of social representation. In the observed educational environment, where students are adults who bring into the classroom multiple personal and social identities, legal topics have the advantage of increasing adult migrants’ motivation to ‘go back to school’ as they are likely to give hints, if not provide solutions, to problems relating to participation in socio-institutional activities. At the same time, these contents offer an ideal context where individuals can acquire high discourse competences and citizenship skills, such as agency and critical reflection. Besides, the analysis reveals that providing adult learners with materials that focus on rights, politics and the law, i.e. with materials which stimulate discussion on concerns affecting their daily lives, is welcomed by learners themselves, who might appreciate the integration of these same topics in a second language course.