957 resultados para clostridium difficile
Resumo:
Gli impianti di depurazione rappresentano, nei contesti urbani, elementi di imprescindibile importanza nell’ambito di una corretta gestione e tutela della risorsa idrica e dell’ambiente. Il crescente grado di antropizzazione delle aree urbanizzate e parallelamente le sempre minori disponibilità in termini di spazi utilizzabili a fini depurativi comportano sempre di più la necessità di ottimizzare i processi di dimensionamento degli impianti. Inoltre, l’obiettivo di aumentare l’efficienza del ciclo depurativo andando a minimizzare i costi correlati alla gestione degli stessi indirizza verso una omogeneizzazione nei criteri di dimensionamento adottati. In questo senso, la normativa tecnica di settore risulta carente, andandosi a concentrare prevalentemente sul rispetto di fissati standard ambientali senza però fornire indicazioni precise sui criteri di progettazione da adottare per perseguire tali standard. La letteratura scientifica pur indicando range di possibili valori di riferimento da adottare, nel dimensionamento degli impianti, lascia un ampio margine di discrezionalità al progettista. La presente tesi si pone pertanto, a partire da tali valori di letteratura, di andare a definire da un lato le caratteristiche quali-quantitative del refluo in ingresso e dall’altro i valori di riferimento da adottare in sede di progettazione per perseguire gli obiettivi precedentemente indicati. La prima parte, di valenza generale, oltre alla caratterizzazione dell’influente descrive nel dettaglio le diverse fasi del processo e il loro dimensionamento che in tutte le sezioni, ad eccezione del biologico, viene effettuato attraverso equazioni semplificate mettendo a confronto e analizzando i parametri progettuali proposti da letteratura. Per quanto riguarda il comparto biologico la maggior complessità del fenomeno da descrivere rende difficile la valutazione delle grandezze che caratterizzano il funzionamento mediante l’utilizzo di equazioni semplificate. Per questo si è deciso di modellare questo comparto, unito a quello della sedimentazione, attraverso un software (WEST) che permette non solo di simulare il processo ma anche, attraverso le analisi di scenario, di determinare quelli che sono i valori progettuali puntuali che consentono di ottenere da un lato una minimizzazione dei costi dell’impianto, sia costruttivi che gestionali, e dall’altro la massimizzazione delle rese depurative. Nello specifico si è fatto riferimento ad impianto fanghi attivi a schema semplificato con potenzialità fissata pari a 10000 AE. Il confronto con i dati di esercizio di alcuni impianti di analoga tipologia ha evidenziato che una buona capacità dello strumento di modellazione utilizzato di descrivere i processi. E’ possibile quindi concludere che tali strumenti, affiancati ad una lettura critica dei risultati ottenuti possono essere ottimi strumenti di supporto sia in fase di progettazione che in prospettiva di gestione dell’impianto al fine di ottimizzare i processi e quindi i costi.
Resumo:
Questa Tesi aspira a mostrare un codice a livello di pacchetto, che abbia performance molto vicine a quello ottimo, per progetti di comunicazioni Satellitari. L’altro scopo di questa Tesi è quello di capire se rimane ancora molto più difficile maneggiare direttamente gli errori piuttosto che le erasures. Le applicazioni per comunicazioni satellitari ora come ora usano tutte packet erasure coding per codificare e decodificare l’informazione. La struttura dell’erasure decoding è molto semplice, perché abbiamo solamente bisogno di un Cyclic Redundancy Check (CRC) per realizzarla. Il problema nasce quando abbiamo pacchetti di dimensioni medie o piccole (per esempio più piccole di 100 bits) perché in queste situazioni il costo del CRC risulta essere troppo dispendioso. La soluzione la possiamo trovare utilizzando il Vector Symbol Decoding (VSD) per raggiungere le stesse performance degli erasure codes, ma senza la necessità di usare il CRC. Per prima cosa viene fatta una breve introduzione su come è nata e su come si è evoluta la codifica a livello di pacchetto. In seguito è stato introdotto il canale q-ary Symmetric Channel (qSC), con sia la derivazione della sua capacità che quella del suo Random Coding Bound (RCB). VSD è stato poi proposto con la speranza di superare in prestazioni il Verification Based Decoding (VBD) su il canale qSC. Infine, le effettive performance del VSD sono state stimate via simulazioni numeriche. I possibili miglioramenti delle performance, per quanto riguarda il VBD sono state discusse, come anche le possibili applicazioni future. Inoltre abbiamo anche risposto alla domande se è ancora così tanto più difficile maneggiare gli errori piuttosto che le erasure.
Resumo:
Oggetto di questa tesi di Laurea è la progettazione di un insediamento sostenibile a Bertinoro (FC), in un’area a sud-ovest del centro urbano, in una posizione strategica per l’arrivo e l’accesso alla città alta. Coerentemente con le indicazioni dell’Amministrazione Comunale, l’intervento comprende la realizzazione di edifici terziari e residenziali, di un parcheggio di attestazione per il borgo di Bertinoro, e la riqualificazione dell’area verde ai piedi delle mura storiche. La progettazione ha adottato un approccio integrato dal punto di vista compositivo e costruttivo, mostrando particolare attenzione ai temi ambientali, assunti come determinanti per ambire ad elevati livelli di benessere per gli abitanti e per i fruitori del nuovo polo urbano. Il progetto affronta due scenari: uno a scala urbana e uno a scala architettonica. Alla scala urbana si è scelto di valorizzare e potenziare il sistema di percorsi pedonali esistenti che consente il collegamento tra le diverse parti della città, valorizzando il paesaggio come risorsa primaria. La definizione delle strategie urbane è stata prioritaria, tenendo in considerazione una gestione sostenibile del territorio. Intervenendo in un luogo caratterizzato da forti pendii – sia naturali sia, in parte, anche artificiali- che rendono difficile la mobilità, la tesi si è posta come obiettivo la riduzione dei flussi veicolari all’interno del centro storico, garantendo nel contempo la completa accessibilità di quest’ultimo attraverso nuovi percorsi di risalita nel verde, che possano incentivare la mobilità pedonale. Questo ha portato ad un studio dei percorsi pedonali di Bertinoro e ad una ricerca sui vari tipi di parcheggio, finalizzata alla definizione della soluzione più adeguata per il luogo. Alla scala architettonica, per assicurare l’integrazione del nuovo intervento con il contesto locale e il territorio, il progetto ha condotto un’approfondita analisi del sito, affrontando lo studio di elementi del contesto sociale, culturale, ambientale e paesaggistico. A questi si è affiancata l'analisi degli aspetti relativi al clima, funzionali alla scelta dell’esposizione e sagoma volumetrica degli edifici. La complessità del progetto è stata quella di dare uguale importanza a dati oggettivi e quantificabili, come orientamento, apporti solari, impianti, senza tralasciare i valori storico-paesaggistici di questi luoghi. La sfida è stata quindi quella di progettare un insediamento urbano con requisiti energetici aventi un impatto ambientale sostenibile. La complessità del progetto è stata quella di dare uguale importanza a dati oggettivi e quantificabili, come orientamento, apporti solari, impianti, senza tralasciare i valori storico-paesaggistici, risorsa fondamentale per questi luoghi. La sfida è stata quindi quella di progettare un insediamento dotato di prestazioni energetiche sensibilmente più elevate rispetto alle soglie stabilite dalla normativa e di riuscire ad integrare nel contesto, con il minor impatto ambientale e percettivo, l’intero insediamento urbano. Per garantire un corretto rapporto tra costruito e contesto urbano si è deciso di utilizzare materiali da rivestimento della tradizione locale, come la pietra e l’intonaco, e di attenuare l’impatto visivo del costruito con l’impiego di coperture verdi che possono restituire, in quota, il suolo occupato dai volumi edificati. Il titolo “la nuova porta urbana” sintetizza l’idea del nostro progetto; un progetto che non si limita all’area d’intervento ma guarda ben oltre cercando un rapporto con la città storica e un legame con essa diventando un nuovo polo funzionale e un nuovo accesso per Bertinoro. Durante tutto il processo progettuale si è operato verificando contestualmente ogni scelta dal punto di vista architettonico, tecnologico ed energetico, puntando ad un progetto che possa essere definito sostenibile a tutte le sue scale: urbana e architettonica. La realizzazione di edifici tecnologicamente efficienti dal punto di vista delle prestazioni energetiche rappresenta la premessa per la formazione di una città più responsabile e rispettosa nei confronti dell’ambiente che la circonda.
Resumo:
La crisi del “teatro come servizio pubblico” degli Stabili, Piccolo Teatro in testa, si manifesta allo stadio di insoddisfazione interna già alla fine degli anni Cinquanta. Se dal punto di vista della pratica scenica, la prima faglia di rottura è pressoché unanimemente ricondotta alla comparsa delle primissime messe in scena –discusse, irritanti e provocatorie- di Carmelo Bene e Quartucci (1959-60) più difficile è individuare il corrispettivo di un critico-intellettuale apportatore di una altrettanto deflagrante rottura. I nomi di Arbasino e di Flaiano sono, in questo caso, i primi che vengono alla mente, ma, seppure portatori di una critica sensibile al “teatro ufficiale”, così come viene ribattezzato dopo il Convegno di Ivrea (1967) il modello attuato dagli Stabili, essi non possono, a ben vedere, essere considerati i veri promotori di una modalità differente di fare critica che, a partire da quel Convegno, si accompagnerà stabilmente alla ricerca scenica del Nuovo Teatro. Ma in cosa consiste, allora, questa nuova “operatività” critica? Si tratta principalmente di una modalità capace di operare alle soglie della scrittura, abbracciando una progressiva, ma costante fuoriuscita dalla redazione di cronache teatrali, per ripensare radicalmente la propria attività in nuovi spazi operativi quali le riviste e l’editoria di settore, un rapporto sempre più stretto con i mass-media quali radio e televisione e la pratica organizzativa di momenti spettacolari e teorici al contempo -festival, convegni, rassegne e premi- per una forma di partecipazione poi identificata come “sporcarsi le mani”. La seconda parte della tesi è una raccolta documentaria sull’oggi. A partire dal Manifesto dei Critici Impuri redatto nel 2003 a Prato da un gruppo di critici dell'ultima generazione, la tesi utilizza quella dichiarazione come punto di partenza per creare un piccolo archivio sull’oggi raccogliendo le elaborazioni di alcune delle esperienze più significative di questi dieci anni. Ricca appendice di materiali.
Resumo:
Entre les années 1950 et 1980, émerge une nouvelle forme de labyrinthe chez des romanciers européens comme Michel Butor, Alain Robbe-Grillet, Italo Calvino, Patrick Modiano et Alasdair Gray : un labyrinthe insaisissable et non cartographiable. Pour en rendre compte nous avons recours au modèle du rhizome, issu de la philosophie de Gilles Deleuze et de Félix Guattari, aussi bien qu'au concept d'hétérotopie de Michel Foucault. La spatialité de nos romans nous pousse à prendre en compte également les réécritures ironiques du mythe de Thésée, Ariane, le Minotaure, Dédale. Les citations et les allusions au mythe nous font remarquer la distance d'avec le modèle traditionnel et les effets de ce qu'on peut considérer comme un « bricolage mythique », dans le cadre d'un regard ironique, parodique ou satirique. La représentation romanesque du labyrinthe accentue d'un côté l'absence d'un centre, et de l'autre côté l'ouverture extrême de cet espace qu'est la ville contemporaine. En même temps, la présence de nombreux « espaces autres », les hétérotopies de Foucault, définit l'égarement des protagonistes des romans. Au fur et à mesure que les écrivains acquièrent conscience des caractéristiques « labyrinthiques » de ces espaces, celles-ci commencent à informer l'œuvre romanesque, créant ainsi un espace métafictionnel. Entre les années Cinquante et le début des années Soixante-dix, les Nouveaux romanciers français accentuent ainsi l'idée de pouvoir jouer avec les instruments de la fiction, pour exaspérer l'absence d'un sens dans la ville comme dans la pratique de l'écriture. Calvino reformule cette conception du roman, remarquant l'importance d'un sens, même s'il est caché et difficile à saisir. Pour cette raison, à la fin de l'époque que nous analysons, des auteurs comme Modiano et Gray absorbent les techniques d'écriture de ces prédécesseurs, en les faisant jouer avec la responsabilité éthique de l'auteur.
Resumo:
La libertad de establecimiento y la movilidad de las empresas juegan un papel fundamental en el proceso comunitario de integración. Las empresas buscan nuevas formas de cooperación e integración que les permitan ocupar cuotas de mercado cada vez más importantes. De entre las modalidades de integración y cooperación que tienen a su disposición, la fusión transfronteriza de sociedades es, sin duda, una de las más relevantes. Es evidente que las fusiones de sociedades pertenecientes a Estados miembros distintos podrían tener una enorme importancia en el proceso de integración del mercado único. Sin embargo, la posibilidad de llevar a cabo con éxito una fusión transfronteriza en el ámbito comunitario era improbable hasta época reciente. Dos tipos de impedimentos la dificultaban: por una parte, obstáculos a la libertad de establecimiento por parte de los ordenamientos jurídicos de los Estados miembros; por otro, obstáculos de Derecho internacional privado. En cambio, hoy la mayor parte de estos impedimentos han sido superados gracias, en primer lugar, al progresivo reconocimiento del derecho de establecimiento de las sociedades por el Tribunal de Justicia, y en segundo, a la importante Directiva 2005/56/CE relativa a las fusiones transfronterizas de sociedades de capital. Esta Directiva impone a los Estados miembros una serie de normas de mínimos de derecho material a fin de armonizar la tutela de los intereses de los sujetos implicados más débiles (sobre todo, los trabajadores y los socios). De igual manera, establece una serie de normas de conflicto para resolver la cuestión de la ley aplicable a las fusiones transfronterizas. Este trabajo tiene como objetivo principal valorar la relevancia de los pronunciamientos del Tribunal de Justicia y de las actuaciones del legislador europeo orientados a impedir las restricciones a las fusiones transfronterizas de sociedades en el territorio comunitario.
Resumo:
Varcare le frontiere della Storia attraverso le storie personali dei suoi personaggi ha sempre affascinato la sensibilità creatrice di Anita Desai, i cui romanzi possono essere considerati un interessante esempio di letteratura di confine, che riesce nel difficile compito di misurarsi, con eleganza e sensibilità, nella rappresentazione delle più feroci forme di marginalizzazione. Proponendo un dialogo tra alterità, che apre alle complessità storico-culturali in maniera del tutto a-ideologica e imparziale, la scrittrice indoinglese procede alla “provincializzazione” dell’India attraverso le numerose ambivalenze prodotte nelle zone frontaliere analizzate. Dalla rappresentazione della frontiera identitaria esterna, ovvero dall’ambivalente rapporto intrattenuto con il colonizzatore/ex-colonizzatore inglese, alla rappresentazione della frontiera identitaria interna, ovvero l’analisi delle contraddittorie relazioni tra le componenti etniche del subcontinente, Desai arriva infine a problematizzare storie di ambivalenti processi di marginalizzazione prodotti da mondi culturali così diversi come la Germania nazista, o gli indiani Huichol del lontano Messico, tracciando geografie culturali inedite della grande ragnatela della Storia. Desai riesce così a recuperare voci liminali spesso trascurate dalla postcolonialità stessa, per riconfigurarle in un’esplorazione profonda del comune destino dell’umanità, voci straniate e stranianti che acquisiscono un vero e proprio status di agency discorsiva, proiettando la sua scrittura verso una dimensione cosmopolitica. L’opera di Desai diventa indubbiamente un’opportunità concreta per scorgere nella differenza l’universalità di una comune umanità, vale a dire un’opportunità per vedere nell’alterità un’identità ribaltata.
Resumo:
In questo lavoro di tesi è stato elaborato un modello analitico al fine di ottenere una stima dell’ampiezza di delaminazione a seguito di impatti a bassa velocità in laminati in composito, in particolare carbon/epoxy. Nel capitolo 2 è descritto il comportamento meccanico di tali laminati (equazioni costitutive della singola lamina, dell’intero laminato e costanti ingegneristiche dell’intero laminato per qualsiasi sistema di riferimento). Nel capitolo 3 viene descritta la filosofia di progettazione damage tolerance per tali materiali sottoposti a low-velocity impact (LVI) e richiamato il concetto di structural health monitoring. In particolare vengono descritti i tipi di difetti per un laminato in composito, vengono classificati gli impatti trasversali e si rivolge particolare attenzione agli impatti a bassa velocità. Nel paragrafo 3.4 sono invece elencate diverse tecniche di ispezione, distruttive e non, con particolare attenzione alla loro applicazione ai laminati in composito. Nel capitolo 4 è riportato lo stato dell’arte per la stima e la predizione dei danni dovuti a LVI nei laminati: vengono mostrate alcune tecniche che permettono di stimare accuratamente l’inizio del danno, la profondità dell’indentazione, la rottura delle fibre di rinforzo e la forza massima di impatto. L’estensione della delaminazione invece, è difficile da stimare a causa dei numerosi fattori che influenzano la risposta agli impatti: spesso vengono utilizzati, per tale stima, modelli numerici piuttosto dispendiosi in termini di tempo e di calcolo computazionale. Nel capitolo 5 viene quindi mostrata una prima formula analitica per il calcolo della delaminazione, risultata però inaffidabile perché tiene conto di un numero decisamente ristretto di fattori che influenzano il comportamento agli LVI. Nel capitolo 6 è mostrato un secondo metodo analitico in grado di calcolare l’ampiezza di delaminazione mediante un continuo aggiornamento della deflessione del laminato. Dal confronto con numerose prove sperimentali, sembra che il modello fornisca risultati vicini al comportamento reale. Il modello è inoltre fortemente sensibile al valore della G_IIc relativa alla resina, alle dimensioni del laminato e alle condizioni di vincolo. É invece poco sensibile alle variazioni delle costanti ingegneristiche e alla sequenza delle lamine che costituiscono il laminato. La differenza tra i risultati sperimentali e i risultati del modello analitico è influenzata da molteplici fattori, tra cui il più significativo sembra essere il valore della rigidezza flessionale, assunto costante dal modello.
Resumo:
The introduction of exotic species is one of the most important threats to biodiversity.This phenomenon may cause economic and environmental damage. To prevent these invasions there are institutions like EPPO. Nevertheless, the introduction of exotic pests is an increasing issue, difficult to control. Classic biological control, based on importation of natural enemies from the country of origin, has been successfully used for over 120 years, but it has also raised some criticism. My research work has focused on the study of the new associations occurring between indigenous parasitoids and three exotic pests introduced in Italy and Europe. The three target insects considered were: Cacyreus marshalli Butler (Lepidoptera: Lycaenidae), a pest of Geranium plants; Dryocosmus kuriphilus Yasumatsu (Hymenoptera: Cynipidae), a plague of Castanea sp. and Harmonia axyridis (Pallas) (Coleoptera: Coccinellidae). This ladybug has been introduced as a biological control agent, but since some years it considered as an invasive species. For C. marshalli I performed laboratory tests on acceptance and suitability of immature stages of this butterfly by Exorista larvarum (Diptera: Tachinidae) and Brachymeria tibialis (Hymenoptera: Chalcidicae). The experiments showed that these two parasitoids could be used to contain this pest. For D. kuriphilus I performed field samplings in an infested chestnut area, the samples were maintained in rearing chamber until gall wasp or parasitoids emergence. In the 3-year research many parasitoids of gall wasps were found; one of these, Torymus flavipes (Walker), was found in large number. For H. axyridis the research work included a first phase of field sampling, during which I searched indigenous parasitoids which had adapted to this new host; the only species found was Dinocampus coccinellae (Schrank) (Hymenoptera: Braconidae). Laboratory tests were performed on the wasp rearing, biology and capacity to contain H. axyridis.
Resumo:
Over the last 60 years, computers and software have favoured incredible advancements in every field. Nowadays, however, these systems are so complicated that it is difficult – if not challenging – to understand whether they meet some requirement or are able to show some desired behaviour or property. This dissertation introduces a Just-In-Time (JIT) a posteriori approach to perform the conformance check to identify any deviation from the desired behaviour as soon as possible, and possibly apply some corrections. The declarative framework that implements our approach – entirely developed on the promising open source forward-chaining Production Rule System (PRS) named Drools – consists of three components: 1. a monitoring module based on a novel, efficient implementation of Event Calculus (EC), 2. a general purpose hybrid reasoning module (the first of its genre) merging temporal, semantic, fuzzy and rule-based reasoning, 3. a logic formalism based on the concept of expectations introducing Event-Condition-Expectation rules (ECE-rules) to assess the global conformance of a system. The framework is also accompanied by an optional module that provides Probabilistic Inductive Logic Programming (PILP). By shifting the conformance check from after execution to just in time, this approach combines the advantages of many a posteriori and a priori methods proposed in literature. Quite remarkably, if the corrective actions are explicitly given, the reactive nature of this methodology allows to reconcile any deviations from the desired behaviour as soon as it is detected. In conclusion, the proposed methodology brings some advancements to solve the problem of the conformance checking, helping to fill the gap between humans and the increasingly complex technology.
Resumo:
Attualmente il panorama informatico è dominato dai dispositivi mobile: smartphone e tablet pc dominano incontrastati la scena del mercato elettronico. Questo comporta un radicale ripensamento e cambiamento del software, le web app e le mobile application richiedono infatti una sempre maggiore reattività dell’interfaccia utente, la persistente connessione a Internet e l’interazione con una moltitudine di dispositivi esterni. Il progettista di software deve oggi far fronte a tutta una serie di problematiche, l’aumentata complessità dei sistemi e i sempre più ristretti tempi di sviluppo e consegna richiedono compromessi tra la semplicità delle tecniche di progettazione e l’efficienza del prodotto ottenuto. Le architetture ad eventi in primis, unitamente al paradigma di programmazione asincrona, si pongono come soluzione ottimale a queste esigenze. L’obbiettivo principale di questa tesi è quello di offrire una panoramica generale sullo stato dell’arte delle architetture ad eventi focalizzandosi sul ruolo che esse assumono nel contesto delle applicazioni moderne, intendendo principalmente con questo termine le web application e le mobile application. Partendo dal concetto di programmazione sincrona e parallela si giunge a descrivere un terzo modello, il modello asincrono, di fondamentale importanza per i sistemi event-driven. Utilizzando come principale linguaggio di riferimento JavaScript si affrontano le problematiche legate alla stesura del codice per la gestione degli eventi, l’asincronicità intrinseca degli eventi e l’utilizzo di funzioni di callback portano a produrre codice di difficile lettura e manutenzione. Si analizzano quindi in dettaglio i pattern fondamentali e le tecniche attualmente utilizzate per l’ottimizzazione della gestione del codice e delle problematiche esposte fornendo numerosi esempi esplicativi.
Resumo:
Il disagio e le conflittualità sociali presenti nelle nostre città in molteplici casi hanno come teatro le aree verdi e gli spazi non costruiti presenti sul territorio urbano, percepiti spesso da un lato come luoghi non controllati e quindi conquistabili, dall’altro lato, come luoghi trascurati e quindi non sicuri, infrequentabili. Uno sguardo complessivo a queste aree che ne ribalti la prospettiva valorizzandone le potenzialità, può portare ad un progetto coordinato in cui si cerchi di incrementare e sostenere alcune funzioni ritenute capaci di superare le criticità presenti. In quest’ottica un progetto complessivo di paesaggio che non consideri il non costruito come una spazio residuale, ma come un elemento capace di una relazione attiva con il contesto urbano, può contribuire alla coesione sociale, alla sensibilizzazione ai temi ambientali, al miglioramento dell’offerta di luoghi di ritrovo, all’aumento della sicurezza urbana. Negli ultimi anni, la sensibilizzazione nei confronti dei problemi connessi con la salvaguardia dell’ambiente ha portato a un considerevole incremento delle aree protette e delle zone destinate a verde all’interno delle aree urbanizzate. Spesso però si considerano queste zone, in particolare i parchi e le riserve, come luoghi non totalmente fruibili dalla popolazione, anche al di là delle specifiche e corrette esigenze di conservazione. Questa impostazione rischia di mettere in crisi anche attività economiche orientate alla gestione sostenibile del territorio come nel caso dell’agricoltura. In realtà, uno degli errori che si commette più di frequente è quello di considerare le aree verdi e quelle antropizzate come entità fini a sé stesse mentre una positiva coesistenza può essere realizzata solo se si consente una loro positiva interazione dinamica, coniugando esigenze di conservazione e salvaguardia delle attività sociali ed economiche e fornendo stimoli alla riconversione delle attività non compatibili con l’ambiente. Un mezzo per perseguire tale scopo è, sicuramente, quello di proporre ai comuni forme alternative di difesa e gestione dell’ambiente, valorizzando la naturale vocazione del territorio. Vista la notevole incidenza percentuale sulla superficie complessiva, risulta di particolare importanza la tutela e la rivalutazione delle realtà rurali che, ormai da lungo tempo, subiscono l’inarrestabile fenomeno dell’espansione edilizia e sono costrette ad una difficile convivenza con la periferia urbana.
Resumo:
L'oggetto principale di questa tesi è il concetto di fine negli universi seriali. Spesso si intende il “The End” in un romanzo o in un film come un momento climatico, e che i finali sono collegati ad una teleologia che guida il testo nel suo insieme. Come risultato di questo modo di approcciare i finale, una delle opinioni più comuni è simile a quella di Henry James [1884] che diceva: “distribution at the last of prizes, pensions, husbands, wives, babies, millions, appended paragraph, and cheerful remarks”. Ma è molto difficile applicare la posizione di James a un romanzo modernista o a un film postmoderno e ancor ameno ai cosiddetti universi narrativi seriali, in cui la storia si sviluppa lungo decenni. Nel nostro contemporaneo panorama mediale, il testo non è più concepito come un'opera, ma deve essere costruito e concepito come un network, un ecosistema in cui nuove connessioni economiche e nuove relazioni bottom-up modellano una struttura inedita. Questa nuova struttura può riconfigurare il senso del finale e della fine, ma anche per le vast narratives spesso si dice che “Il finale non corrispondeva alla spirito della storia”, “il finale era deludente”. Potremmo sostenere che il concetto di finale sia ancora importante, nonostante sia stato superato dal punto di vista teorico. Per analizzare se il finale è costruito in un maniera non-lineare ma percepito come teleologico, la tesi è strutturata in due parti e di quattro capitoli. Prima parte “Storia” [1. Letteratura; 2. Cinema], seconda “Forme/strutture” [3. Transmedia; 4. Remix]
Resumo:
Obiettivo: Valutare il ruolo brainstem-vermis angle (BV angle) a 16-18 settimane per la diagnosi precoce delle anomalie cistiche della fossa cranica posteriore. Metodi: Uno studio prospettico, multicentrico, osservazionale. Volumi ecografici tridimensionali della testa fetale sono stati acquisiti in feti a 16-18 settimane. Tre operatori di simile esperienza hanno misurato il BV angle nel piano sagittale come precedentemente descritto1,2 e hanno annotato se il quarto ventricolo era aperto sul piano assiale. Un follow-up dettagliato è stato ottenuto in tutti i casi. Risultati: Tra novembre 2009 e marzo 2011, 150 volumi sono stati acquisiti ad un’epoca gestazionale media di 16 settimane. A causa di una scarsa qualità delle immaginai, 49 volumi sono stati esclusi, con una popolazione finale di 101 casi. Di questi, 6 hanno ricevuto successivamente una diagnosi di malformazione di Dandy-Walker (DWM) e 2 di cisti della tasca di Blake (BPC), gli altri erano normali. In tutti i feti con anomalie cistiche della fossa cranica posteriore, il BV angle è risultato significativamente più ampio rispetto ai controlli (57.3+23.0° vs 9.4+7.7°, U-Mann Whitney test p<0.000005). Nel 90.3% dei feti normali, il BV angle era <20° e il quarto ventricolo era chiuso sul piano assiale. In 9 feti normali e nei casi con BPC, l’angolo era >20° ma <45° (25.8+5.6°) e il quarto ventricolo era aperto posteriormente sul piano assiale, ma solo utilizzando una scansione non convenzionale. In tutti i feti con DWM, il BV angle era >45° (67.9+13.9°) e il quarto ventricolo era aperto anche sul piano assiale standard. Conclusioni: Fino ad ora la diagnosi di anomalie cistiche della fossa cranica posteriore è stata consideratea difficile o impossibile prima di 20 settimane, a causa del presunto sviluppo tardivo del verme cerebellare. La nostra esperienza suggerisce che la misurazione del BV angle consente un’identificazione precisa di queste condizioni già a 16 settimane.
Resumo:
L'innovazione delle tecnologie di sequenziamento negli ultimi anni ha reso possibile la catalogazione delle varianti genetiche nei campioni umani, portando nuove scoperte e comprensioni nella ricerca medica, farmaceutica, dell'evoluzione e negli studi sulla popolazione. La quantità di sequenze prodotta è molto cospicua, e per giungere all'identificazione delle varianti sono necessari diversi stadi di elaborazione delle informazioni genetiche in cui, ad ogni passo, vengono generate ulteriori informazioni. Insieme a questa immensa accumulazione di dati, è nata la necessità da parte della comunità scientifica di organizzare i dati in repository, dapprima solo per condividere i risultati delle ricerche, poi per permettere studi statistici direttamente sui dati genetici. Gli studi su larga scala coinvolgono quantità di dati nell'ordine dei petabyte, il cui mantenimento continua a rappresentare una sfida per le infrastrutture. Per la varietà e la quantità di dati prodotti, i database giocano un ruolo di primaria importanza in questa sfida. Modelli e organizzazione dei dati in questo campo possono fare la differenza non soltanto per la scalabilità, ma anche e soprattutto per la predisposizione al data mining. Infatti, la memorizzazione di questi dati in file con formati quasi-standard, la dimensione di questi file, e i requisiti computazionali richiesti, rendono difficile la scrittura di software di analisi efficienti e scoraggiano studi su larga scala e su dati eterogenei. Prima di progettare il database si è perciò studiata l’evoluzione, negli ultimi vent’anni, dei formati quasi-standard per i flat file biologici, contenenti metadati eterogenei e sequenze nucleotidiche vere e proprie, con record privi di relazioni strutturali. Recentemente questa evoluzione è culminata nell’utilizzo dello standard XML, ma i flat file delimitati continuano a essere gli standard più supportati da tools e piattaforme online. È seguita poi un’analisi dell’organizzazione interna dei dati per i database biologici pubblici. Queste basi di dati contengono geni, varianti genetiche, strutture proteiche, ontologie fenotipiche, relazioni tra malattie e geni, relazioni tra farmaci e geni. Tra i database pubblici studiati rientrano OMIM, Entrez, KEGG, UniProt, GO. L'obiettivo principale nello studio e nella modellazione del database genetico è stato quello di strutturare i dati in modo da integrare insieme i dati eterogenei prodotti e rendere computazionalmente possibili i processi di data mining. La scelta di tecnologia Hadoop/MapReduce risulta in questo caso particolarmente incisiva, per la scalabilità garantita e per l’efficienza nelle analisi statistiche più complesse e parallele, come quelle riguardanti le varianti alleliche multi-locus.