71 resultados para Perch.
Resumo:
Can space and place foster child development, and in particular social competence and ecological literacy? If yes, how can space and place do that? This study shows that the answer to the first question is positive and then tries to explain the way space and place can make a difference. The thesis begins with the review of literature from different disciplines – child development and child psychology, education, environmental psychology, architecture and landscape architecture. Some bridges among such disciplines are created and in some cases the ideas from the different areas of research merge: thus, this is an interdisciplinary study. The interdisciplinary knowledge from these disciplines is translated into a range of design suggestions that can foster the development of social competence and ecological literacy. Using scientific knowledge from different disciplines is a way of introducing forms of evidence into the development of design criteria. However, the definition of design criteria also has to pass through the study of a series of school buildings and un-built projects: case studies can give a positive contribution to the criteria because examples and good practices can help “translating” the theoretical knowledge into design ideas and illustrations. To do that, the different case studies have to be assessed in relation to the various themes that emerged in the literature review. Finally, research by design can be used to help define the illustrated design criteria: based on all the background knowledge that has been built, the role of the architect is to provide a series of different design solutions that can give answers to the different “questions” emerged in the literature review.
Resumo:
The Plasma Focus is a device designed to generate a plasma sheet between two coaxial electrodes by means of a high voltage difference. The plasma is then driven to collapse into a “pinch”, where thermonuclear conditions prevail. During the “pinch phase” charged particles are emitted, with two main components: an ion beam peaked forward and an electron beam directed backward. The electron beam emitted backward by Plasma Focus devices is being investigated as a radiation source for medical applications, using it to produce x-rays by interaction with appropriate targets (through bremsstrahlung and characteristic emission). A dedicated Plasma Focus device, named PFMA-3 (Plasma Focus for Medical Applications number 3), has been designed, put in operation and tested by the research groups of the Universities of Bologna and Ferrara. The very high dose rate (several gray per discharge, in less than 1 µs) is a peculiarity of this device that has to be investigated, as it might modify the relative biological effectiveness (RBE). Aim of this Ph.D. project was to investigate the main physical properties of the low-energy x-ray beams produced by a Plasma Focus device and their potential medical applications to IORT treatments. It was necessary to develop the optimal geometrical configuration; to evaluate the x-rays produced and their dose deposited; to estimate the energy electron spectrum produced in the “pinch phase”; to study an optimal target for the conversion of the x-rays; to conduct simulations to study the physics involved; and in order to evaluate the radio-biological features of the beam, cell holders had to be developed for both irradiations and cell growth conditions.
Resumo:
L’invarianza spaziale dei parametri di un modello afflussi-deflussi può rivelarsi una soluzione pratica e valida nel caso si voglia stimare la disponibilità di risorsa idrica di un’area. La simulazione idrologica è infatti uno strumento molto adottato ma presenta alcune criticità legate soprattutto alla necessità di calibrare i parametri del modello. Se si opta per l’applicazione di modelli spazialmente distribuiti, utili perch in grado di rendere conto della variabilità spaziale dei fenomeni che concorrono alla formazione di deflusso, il problema è solitamente legato all’alto numero di parametri in gioco. Assumendo che alcuni di questi siano omogenei nello spazio, dunque presentino lo stesso valore sui diversi bacini, è possibile ridurre il numero complessivo dei parametri che necessitano della calibrazione. Si verifica su base statistica questa assunzione, ricorrendo alla stima dell’incertezza parametrica valutata per mezzo di un algoritmo MCMC. Si nota che le distribuzioni dei parametri risultano in diversa misura compatibili sui bacini considerati. Quando poi l’obiettivo è la stima della disponibilità di risorsa idrica di bacini non strumentati, l’ipotesi di invarianza dei parametri assume ancora più importanza; solitamente infatti si affronta questo problema ricorrendo a lunghe analisi di regionalizzazione dei parametri. In questa sede invece si propone una procedura di cross-calibrazione che viene realizzata adottando le informazioni provenienti dai bacini strumentati più simili al sito di interesse. Si vuole raggiungere cioè un giusto compromesso tra lo svantaggio derivante dall’assumere i parametri del modello costanti sui bacini strumentati e il beneficio legato all’introduzione, passo dopo passo, di nuove e importanti informazioni derivanti dai bacini strumentati coinvolti nell’analisi. I risultati dimostrano l’utilità della metodologia proposta; si vede infatti che, in fase di validazione sul bacino considerato non strumentato, è possibile raggiungere un buona concordanza tra le serie di portata simulate e osservate.
Resumo:
Il concetto di contaminazione fra architettura ed arti plastiche e figurative è molto antico. La dicotomia arte-architettura, sancita in via definitiva con il moderno museo di spoliazione napoleonica, non può che essere considerata una variazione neo-tecnicista sulla quale, non sempre giustamente, sono andati assestandosi gli insegnamenti delle scuole politecniche. Non così è sempre stato. Come il tempio greco può essere considerato un’opera plastica nel suo complesso, esempio tra i primi di fusione tra arte e architettura, moltissimi sono gli esempi che hanno guidato la direzione della ricerca che si è intesa perseguire. Molti sono gli esempi del passato che ci presentano figure di architetto-artista: un esempio fra tutti Michelangelo Buonarroti; come per altro non è nuovo, per l’artista puro, cimentarsi nella progettazione dello spazio architettonico o urbano, o per l'architetto essere coinvolto dalle indagini della ricerca artistica a lui contemporanea dalla quale trarre suggestioni culturali. Le rappresentazioni dei linguaggi visivi sono il frutto di contaminazioni che avvengono su diversi livelli e in più direzioni. Spesso le ricerche artistiche più significative hanno anticipato o influenzato il mondo del design, dell’architettura, della comunicazione. L’intenzione della ricerca è stata quindi approfondire, attraverso un viaggio nel Novecento, con particolare attenzione al Secondo Dopoguerra, i fenomeni culturali che hanno prodotto i più significativi sviluppi stilistici nell’ambito della ricerca e del rinnovo del linguaggio architettonico. Il compito, parafrasando Leonardo Benevolo, non è stato quello di elencare le singole battute della discussione ma di riconoscere gli interventi fruttuosi a lunga scadenza. Mutuando gli insegnamenti della scuola del Bauhaus, arte e architettura sono state affiancate perch considerate espressioni strettamente relazionate di coevi fenomeni culturali. L’obiettivo ha puntato all’individuazione dei meccanismi delle interazioni tra discipline, cercando di delineare il profilo della complessità dell’espressione del contemporaneo in architettura.
Resumo:
The aim of the thesis is to investigate the topic of semantic under-determinacy, i.e. the failure of the semantic content of certain expressions to determine a truth-evaluable utterance content. In the first part of the thesis, I engage with the problem of setting apart semantic under-determinacy as opposed to other phenomena such as ambiguity, vagueness, indexicality. As I will argue, the feature that distinguishes semantic under-determinacy from these phenomena is its being explainable solely in terms of under-articulation. In the second part of the thesis, I discuss the topic of how communication is possible, despite the semantic under-determinacy of language. I discuss a number of answers that have been offered: (i) the Radical Contextualist explanation which emphasises the role of pragmatic processes in utterance comprehension; (ii) the Indexicalist explanation in terms of hidden syntactic positions; (iii) the Relativist account, which regards sentences as true or false relative to extra coordinates in the circumstances of evaluation (besides possible worlds). In the final chapter, I propose an account of the comprehension of utterances of semantically under-determined sentences in terms of conceptual constraints, i.e. ways of organising information which regulate thought and discourse on certain matters. Conceptual constraints help the hearer to work out the truth-conditions of an utterance of a semantically under-determined sentence. Their role is clearly semantic, in that they contribute to “what is said” (rather than to “what is implied”); however, they do not respond to any syntactic constraint. The view I propose therefore differs, on the one hand, from Radical Contextualism, because it stresses the role of semantic-governed processes as opposed to pragmatics-governed processes; on the other hand, it differs from Indexicalism in its not endorsing any commitment as to hidden syntactic positions; and it differs from Relativism in that it maintains a monadic notion if truth.
Resumo:
Il diritto a un minimo decente di assistenza sanitaria – spesso chiamato, più semplicemente, diritto alla salute – fa parte dei cosiddetti diritti di seconda generazione, cioè quelli che richiedono un impegno attivo da parte dello stato per assicurare ad ogni cittadino la possibilità di una vita dignitosa. Il diritto alla salute si trova enunciato nei più importanti documenti internazionali, a partire dalla Dichiarazione universale dei diritti dell’uomo (1948), e nella maggior parte delle costituzioni nazionali, compresa quella italiana. Tuttavia, nel Sud del mondo, la sua applicazione è ostacolata da un gran numero di fattori (povertà, guerre, corruzione politica, ecc.); cosicché la maggior parte degli esseri umani vive in società prive di un sistema sanitario nazionale, cadendo vittima di malattie facilmente curabili o prevenibili. Per affrontare questo problema, la cooperazione sanitaria internazionale ha sperimentato nel tempo due diverse forme di intervento: una incentrata sulla diffusione dell’assistenza sanitaria di base (come raccomandato dalla Conferenza di Alma-Ata del 1978), l’altra sui cosiddetti “programmi verticali”, i quali agiscono su singole malattie o branche della sanità. Nessuno dei due approcci però ha prodotto i risultati sperati. L’Ong italiana Emergency propone un modello di cooperazione sanitaria per molti aspetti innovativo: esso si fonda su progetti autogestiti e totalmente gratuiti (che vanno dalla pediatria alla chirurgia di guerra alla cardiochirurgia) ed è capace di incidere sul tessuto sociale nel quale si inserisce, fino ad influenzare le scelte politiche delle autorità locali. Solamente intervenendo in un modo simile sui determinanti sociali della salute, sembra possibile migliorare realmente lo stato di salute delle popolazioni più povere e garantire così la prima delle condizioni necessarie perch ogni persona abbia la possibilità di vivere una vita decente.
Resumo:
Nell'ambito di un'indagine sull'identità del rivoluzionario nel XIX secolo, calata tra gli attivisti coinvolti nella Comune di Parigi, si è trattato di selezionare quelle autobiografie scritte e pubblicate da comunardi come parte integrante della loro attività politica, e così porre il problema del rapporto tra pratica autobiografica e rivoluzione, ovvero chiarire le condizioni del passage au récit, la scelta autobiografica e insieme la mise en intrigue tra esperienze individuali e rivoluzione. Questa ricerca si presenta dunque come un lavoro sulle pratiche autobiografiche all'interno delle pratiche di attivismo politico, ovvero più specificamente sulla relazione tra autobiografia e rivoluzione. In altri termini si analizza il modo in cui i rivoluzionari narravano la loro identità in pubblico, perch lo avessero fatto e cosa veicolavo in termini di stili di vita e convinzioni particolari. In quanto rivoluzionari, l'autobiografia diviene fonte e parte di ciò che essi reputavano in quel momento la propria traiettoria rivoluzionaria, la narrazione di quella che in quel momento ritenevano comunicare al pubblico come propria identità narrativa. La ricerca si articola in tre momenti. Nel primo capitolo analizzo le biografie, o meglio un piccolo gruppo tra la massa di biografie di comunardi edite all'indomani della Comune da parte della pubblicistica tanto ostile quanto partigiana della Comune. Queste narrazioni biografiche diffuse nei mesi successivi alla repressione della rivoluzione comunalista consentono di affrontare una delle condizioni fondamentali del passage au récit autobiografico che si manifesterà solo posteriormente. Il secondo e il terzo capitolo sono dedicati a due progetti autobiografici di diversa natura: la trilogia autobiografica di Jules Vallès (1879, 1881, 1886) e le Mémoires di Louise Michel (1886).
Resumo:
Quello del falso è un problema con cui si sono dovuti confrontare gli specialisti di ogni epoca storica, ma che ha subito un’accelerazione e un’esasperazione con la storia del tempo presente, anche per via della simultanea presenza dei protagonisti che hanno reso più complessa una scena storica e memoriale segnata profondamente dal rapporto tra storici e testimoni e dall’articolazione della memoria pubblica e di quella privata. L’evento che più acutamente ha risentito del problema del falso in età contemporanea è certamente il genocidio degli ebrei compiuto dai nazisti durante la Seconda Guerra Mondiale perch è proprio al cuore dell’impresa genocidiaria che è avvenuta la grande falsificazione che ha alimentato qualsiasi successivo discorso revisionista. L’emersione del testimone sulla scena pubblica ha posto pertanto in modo acuto il problema dello statuto della testimonianza rendendo l’analisi del funzionamento della memoria indispensabile per comprendere quanto un testimone sia molto più utile per la descrizione, non tanto del fatto in sé, ma del modo in cui l’evento è stato socialmente codificato, registrato e trasmesso. Il legame tra i casi esaminati, pur nella loro estrema eterogeneità, spaziando da false autobiografie, come quella di Binjamin Wilkomirski, a testi controversi, come quello di Jean-François Steiner, o da racconti contestati, come quelli di Deli Strummer e Herman Rosenblat, a narrazioni che nel tempo hanno subito importanti variazioni, come nel caso Aubrac e nelle vicende del libro di Alcide Cervi, sarà stabilito grazie alla centralità giocata, in ognuno di essi, dalla forma testimoniale e dall’altrettanto fondamentale argomentazione in termini di affaire. Il problema del falso è stato perciò indagato all’interno delle ragioni storiche e culturali che hanno determinato la formazione discorsiva che ha per soggetto il testimone e la testimonianza come più autentico punto di vista sugli eventi del passato con le relative conseguenze sul piano storico e pubblico.
Resumo:
Dopo gli indubbi sviluppi politici e legali tendenti all’uniformazione è inevitabile non sostenere che anche il mercato della gestione delle infrastrutture e del trasporto aereo a terra costituisce un fattore determinante del trasporto aereo con una più stretta necessità di uniformazione del quadro regolamentare. La gestione aeroportuale e i servizi connessi è collocata all’interno del diritto aereo. Perch si configuri il “trasporto aereo” (nozione dinamica base che caratterizza il diritto del trasporto aereo) si ha la necessità di un accordo tra due paesi – un permesso di volo designato – una finestra di orario di decollo e atterraggio e la regolamentazione delle relative attività connesse, affinché si svolgano in situazione di safety, quale conditio sine qua non di tutte le attività di aviazione. Tuttavia, la migliore dottrina sente il bisogno di una trattazione separata della materia diritto aereo in senso stretto e quella della disciplina aeroportuale, benché i due ambiti sono tra di loro contigui. Questo è legittimato da esigenze contrapposte fra gli operatori dei due settori. In ultima considerazione possiamo sostenere che gli sviluppi legislativi, sia nel diritto aeronautico e in quello marittimo, portano all’abbraccio della impostazione di un diritto dei trasporti inclusivo di ogni forma dell’attuazione del fenomeno trasporto, scollegandosi al solo fenomeno dell’esercizio nautico quale elemento caratterizzante della disciplina. Quale futuro legislativo si prospetta per la gestione del bene aeroporto? Quale sarà la sua dimensione legale su questioni importanti sulle quali esiste una normazione europea come l’allocazione delle bande orarie, tasse aeroportuali e assistenza a terra oppure su quelle che hanno un carattere prevalentemente nazionale? E infine, quale sarebbe la strada da seguire per regolare il nuovo mercato aeroportuale che è passato dalla idea della competizione per il mercato esplorando anche la competizione nel mercato, con aeroporti che si comportano come operatori in concorrenza tra loro?
Resumo:
Gli argomenti trattati all’interno di questa tesi di dottorato riguardano la sintesi e la modifica di polimeri ottenuti a partire da fonti rinnovabili. L’acido polilattico (PLA) è stato modificato per ottenere film estensibili per uso alimentare. La scelta del materiale si è basata sull’analisi del suo ciclo di vita e perch è riconosciuto come sicuro per l’utilizzo nel campo alimentare. Le formulazioni testate, a base di PLA, sono state preparate con l’aggiunta di una serie di additivi utilizzati per migliorare le proprietà meccaniche del materiale. La lavorazione è stata eseguita mediante estrusione, ottenendo dei pellet a composizione omogenea successivamente lavorati nell’estrusore a bolla, modalità industriale di produzione dei film estensibili. È stata poi effettuata la sintesi diretta di nuovi poliesteri insaturi a base di dimetil succinato e 1,6-esandiolo. L’insaturazione della catena è stata ottenuta mediante l’uso, durante la sintesi, di derivati dell’olio di ricino, l’acido ricinoleico e il suo derivato insaturo metil undecenoato. Un’altra molecola insatura utilizzata è stata il citronellolo, scelto tra i terpeni. I polimeri così ottenuti sono stati modificati tramite reazioni radicaliche indotte con radiazioni UV utilizzando sostanze antibatteriche (sale 3-esadecil-1-vinilimidazolo bromuro) al fine di ottenere materiali con attività biocida a lungo termine e senza rilascio. Si è proceduto inoltre alla polimerizzazione reversibile di monomeri furanici con oli vegetali utilizzando una strategia di tipo double click. Si è partiti dalla sintesi di monomeri derivanti da oli vegetali contenenti eterocicli furanici attaccati mediante addizione tiol-enica (prima reazione click chemistry) e si è proseguito con la loro successiva polimerizzazione attraverso una reazione di tipo Diels-Alder con molecole con gruppi maleimmidici (seconda reazione click chemistry). I polimeri così ottenuti sono materiali potenzialmente auto-riparanti, grazie alla possibilità di spostare l’equilibrio verso i prodotti o i reagenti semplicemente variando le condizioni di temperatura.
Resumo:
Questa tesi descrive lo sviluppo di un elettrodo modificato con un polimero isolante per la determinazione indiretta del radicale OH. I polimeri testati sono stati polifenolo, polipirrolo e polipirrolo sovraoossidato ed il primo è risultato quello con le migliori prestazioni. Il film di modificante è stato depositato per elettropolimerizzazione del fenolo in ambiente acido, su un elettrodo di carbone vetroso (GC) ed è risultato isolante e perfettamente adeso al GC, impedendo il trasferimento di carica alle più comuni sonde redox. L’attacco dei radicali OH, generati dalla reazione di Fenton o dalla fotolisi di H2O2, rimuove parzialmente il polimero dal GC, ripristinando parzialmente il comportamento conduttore dell’elettrodo. L’entità della degradazione del film polifenolico è stata valutata sfruttando la corrente relativa alla sonda redox Ru(NH3)63+, che rappresenta il segnale analitico per la determinazione del radicale OH. L’elettrodo è stato impiegato per stimare le prestazioni di foto catalizzatori a base di nanoparticelle di TiO2, ottenendo risultati correlati a quelli ricavati da un metodo HPLC. Inoltre esso è stato usato per sviluppare una nuova procedura per la determinazione della capacità di scavenging verso i radicali OH, che è stata applicata all’analisi di composti puri e campioni reali. I risultati erano confrontabili con quelli determinati con metodiche standardizzate, comunemente impiegate per la determinazione della capacità antiossidante. Inoltre è stato condotto uno studio riguardante la modifica di un elettrodo di platino con un idrossido misto a strati a base di cobalto e alluminio (LDH). In particolare si sono valutati gli effetti di diversi pretrattamenti del Pt sulle caratteristiche e prestazioni elettrocatalitiche del film di LDH nei confronti dell’ossidazione di anilina, fenolo e acido salicilico. Questi composti possono essere impiegati come molecole sonda per la determinazione del radicale OH e rivestono interesse da un punto di vista elettroanalitico perch portano facilmente alla passivazione della superficie di Pt.
Resumo:
L’applicazione della citogenetica convenzionale e molecolare può identificare: Ph-negatività, traslocazioni t(9;22) varianti e alterazioni citogenetiche addizionali (ACA) al cromsoma Ph in pazienti con LMC alla diagnosi. Prima dell’introduzione della terapia con Imatinib, esse mostravano un impatto prognostico negativo o non chiaro. Nel nostro studio, 6 casi di LMC Ph- erano trattati con Imatinib. La FISH identificava 4 casi con riarrangiamento BCR/ABL sul der(9q), 1 sul der(22q) e 1 su entrambi i derivativi. Quattro pazienti (66,7%) raggiungevano la RCgC, 2 fallivano il trattamento e 1 sottoposto a TMO. A causa dello scarso numero di casi, non era possibile nessuna correlazione con la prognosi. Nell’ambito di studi prospettici multicentrici del GIMEMA-WP, abbiamo valutato: traslocazioni varianti e ACA. Dei 559 pazienti arruolati, 30(5%) mostravano traslocazioni varianti, 24 valutabili in FISH: 18(75%) mostravano meccanismo 1-step, 4(16,7%) meccanismo 2-step e 2(8,3%) meccanismo complesso. Abbiamo confermato che le varianti non influenzano la risposta e la sopravvivenza dei pazienti trattati con Imatinib. Dei 378 pazienti valutabili alla diagnosi con citogenetica convenzionale, 21(5,6%) mostravano ACA: 9(43%) avevano la perdita del cromosoma Y, 3(14%) trisomia 8, 2(10%) trisomia 19, 6(28%) altre singole anomalie e 1 cariotipo complesso. La presenza di ACA influenzava la risposta: le RCgC e RMolM erano significativamente più basse rispetto al gruppo senza ACA e le curve di sopravvivenza EFS e FFS non erano significativamente diverse. Le curve di PFS e OS erano sovrapponibili nei due gruppi, per il basso numero di eventi avversi oppure perch alcuni raggiungevano la risposta con TKI di seconda generazione. Le anomalie “major route” mostravano decorso clinico peggiore, ma non è stato possibile determinare l’impatto prognostico in relazione al tipo di alterazione. Pertanto, le ACAs alla diagnosi rivestono un ruolo negativo nella prognosi dei pazienti trattati con Imatinib, che quindi rappresentano una categoria più a rischio per la risposta.
Resumo:
La relazione interdisciplinare tra letteratura e fotografia, nella rilettura della storia recente del Mozambico, è l’oggetto di studio della presente tesi. Il presupposto coincide in primo luogo con la disamina interna della dialettica esistente tra archivio coloniale e oralità, modalità narrativa in parte transitata nella estória, declinazione lusofona della forma breve che permette di recuperare l’eredità popolare del racconto tradizionale. Il dialogo tra verbale e visuale consente a sua volta di stabilire nuovi paradigmi interpretativi nel dibattito postcoloniale tra memoria, trauma e rappresentazione. L’analisi comparativa tra la narrativa di João Paulo Borges Coelho e la fotografia di Ricardo Rangel rivela sguardi diversi sul mondo circostante, ma anche convergenze contemplative che si completano nell’incorporazione reciproca delle “omologie strutturali” comuni alle due modalità espressive. La fotografia colma delle lacune fornendoci delle visioni del passato, ma, in quanto “rappresentazione”, ci mostra il mondo per come appare e non per come funziona. Il testo letterario, grazie al suo approccio dialogico-narrativo, consente la rielaborazione museologica della complessa pletora di interferenze semantiche e culturali racchiuse nelle immagini, in altre parole fornisce degli “indizi di verità” da cui (ri)partire per l’elaborazione di nuovi archetipi narrativi tra l’evento rappresentato e la Storia di cui fa parte. Il punto di tangenza tra i due linguaggi è la cornice, espediente fotografico e narrativo che permette di tracciare i confini tra l’indicibile e l’invisibile, ma anche tra ciò che si narra e ciò che sta fuori dalla narrazione, ovvero fuori dalla storia. La tensione dialettica che si instaura tra questi due universi è seminale per stabilire le ragioni della specificità letteraria mozambicana perch, come afferma Luandino Vieira, “nel contesto postcoloniale gli scrittori sono dei satelliti che ruotano intorno ai «buchi neri della storia» la cui forza di attrazione permette la riorganizzazione dell’intero universo letterario.
Resumo:
Come dimostrano i sempre più numerosi casi di cronaca riportati dai notiziari, la preoccupazione per la gestione delle immagini di morte si configura come un nodo centrale che coinvolge spettatori, produttori di contenuti e broadcaster, dato che la sua emersione nel panorama mediale in cui siamo immersi è sempre più evidente. Se la letteratura socio-antropologica è generalmente concorde nel ritenere che, rispetto al passato, oggi la morte si manifesti con meno evidenza nella vita comune delle persone, che tendono a rimuovere i segni della contiguità vivendo il lutto in forma privata, essa è però percepita in modo pervasivo perch disseminata nei (e dai) media. L'elaborato, concentrandosi in maniera specifica sulle produzioni audiovisive, e quindi sulla possibilità intrinseca al cinema – e alle sue forme derivate – di registrare un evento in diretta, tenta di mappare alcune dinamiche di produzione e fruizione considerando una particolare manifestazione della morte: quella che viene comunemente indicata come “morte in diretta”. Dopo una prima ricognizione dedicata alla tensione continua tra la spinta a considerare la morte come l'ultimo tabù e le manifestazioni che essa assume all'interno della “necrocultura”, appare chiaro che il paradigma pornografico risulta ormai inefficace a delineare compiutamente le emersioni della morte nei media, soggetta a opacità e interdizioni variabili, e necessita dunque di prospettive analitiche più articolate. Il fulcro dell'analisi è dunque la produzione e il consumo di precisi filoni quali snuff, cannibal e mondo movie e quelle declinazioni del gore che hanno ibridato reale e fittizio: il tentativo è tracciare un percorso che, a partire dal cinema muto, giunga al panorama contemporaneo e alle pratiche di remix rese possibili dai media digitali, toccando episodi controversi come i Video Nasties, le dinamiche di moral panic scatenate dagli snuff film e quelle di contagio derivanti dalla manipolazione e diffusione delle immagini di morte.
Resumo:
Modern embedded systems embrace many-core shared-memory designs. Due to constrained power and area budgets, most of them feature software-managed scratchpad memories instead of data caches to increase the data locality. It is therefore programmers’ responsibility to explicitly manage the memory transfers, and this make programming these platform cumbersome. Moreover, complex modern applications must be adequately parallelized before they can the parallel potential of the platform into actual performance. To support this, programming languages were proposed, which work at a high level of abstraction, and rely on a runtime whose cost hinders performance, especially in embedded systems, where resources and power budget are constrained. This dissertation explores the applicability of the shared-memory paradigm on modern many-core systems, focusing on the ease-of-programming. It focuses on OpenMP, the de-facto standard for shared memory programming. In a first part, the cost of algorithms for synchronization and data partitioning are analyzed, and they are adapted to modern embedded many-cores. Then, the original design of an OpenMP runtime library is presented, which supports complex forms of parallelism such as multi-level and irregular parallelism. In the second part of the thesis, the focus is on heterogeneous systems, where hardware accelerators are coupled to (many-)cores to implement key functional kernels with orders-of-magnitude of speedup and energy efficiency compared to the “pure software” version. However, three main issues rise, namely i) platform design complexity, ii) architectural scalability and iii) programmability. To tackle them, a template for a generic hardware processing unit (HWPU) is proposed, which share the memory banks with cores, and the template for a scalable architecture is shown, which integrates them through the shared-memory system. Then, a full software stack and toolchain are developed to support platform design and to let programmers exploiting the accelerators of the platform. The OpenMP frontend is extended to interact with it.